Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples Foto-Analyse: Scharfe Kritik von Edward Snowden und der Electronic Frontier Foundation

Mit dem gestern vorgestellten Maßnahmenpaket, das zur Bekämpfung des sexuellen Missbrauchs von Kindern beitragen soll, hat Apple eine kontroverse Diskussion ausgelöst, welche vermutlich länger andauern wird. Der iPhone-Konzern plant bekanntlich unter anderem, von Nutzern angefertigte Fotos vor dem Hochladen in die hauseigene Cloud mit den Hashes bekannter illegaler Bilder abzugleichen (siehe ). Entsprechende Funde will Apple dann einer Kinderschutzorganisation melden.


Apples Vorhaben ruft Snowden und die EFF auf den Plan
Apple hat die Maßnahmen auf einer eigens eingerichteten Webseite mit dem Titel Expanded Protections for Children zusammengefasst und zudem weitere Dokumente veröffentlicht, etwa zur technischen Umsetzung ( PDF-Datei). Daraus geht hervor, dass die angekündigte Foto-Analyse lokal auf iPhones und iPads erfolgen soll, dabei wird eine künftig auf den Geräten vorhandene Datenbank mit Hashes genutzt. Die beabsichtigte Einführung dieses von Apple als "CSAM Detection" ( PDF-Datei) bezeichneten Verfahrens, welche allerdings zunächst lediglich in den Vereinigten Staaten erfolgen wird, hat jetzt Edward Snowden und die Electronic Frontier Foundation (EFF) auf den Plan gerufen.

"Apple macht Geräte zu Fahndungsinstrumenten"
Der für seine Enthüllungen von US-Schnüffelpraktiken bekannte Whistleblower kritisierte Apple bereits kurz nach der Ankündigung der Maßnahmen scharf. In einem Tweet warf er dem iPhone-Konzern vor, trotz bester Absichten eine weltweite Massenüberwachung zu etablieren. "Gebt euch keiner Täuschung hin", so Snowden, "wenn sie heute nach Kinderpornografie scannen können, sind sie morgen in der Lage, nach allem anderen zu suchen." Apple mache Geräte im Wert von Billionen von US-Dollar zu Fahndungsinstrumenten ("iNarcs") – und zwar ohne vorher zu fragen.

"Apples Vorhaben stellt eine Hintertür dar"
Erheblich ausführlicher als Edward Snowden befasst sich die EFF mit Apples angekündigten Maßnahmen. Die Pläne des kalifornischen Unternehmens öffneten eine Hintertür ins Privatleben der Nutzer, schreiben Indie McKinney und Erica Portnoy in einem Beitrag auf den Webseiten der Organisation. Kindesmissbrauch sei ein ernstes Problem und Apple nicht das erste Tech-Unternehmen, das in diesem Zusammenhang seine Haltung zur Privatsphäre ändere. Für eine solche Entscheidung sei jedoch ein hoher Preis bei den Persönlichkeitsrechten zu zahlen. Der iPhone-Konzern erkläre zwar lang und breit, dass seine technische Umsetzung sowohl Sicherheit als auch Datenschutz gewährleiste. "Am Ende des Tages stellen die Maßnahmen dennoch eine Backdoor dar", so die EFF.

"Breitem Missbrauch werden Tür und Tor geöffnet"
Ebenso wie Edward Snowden ist die Electronic Frontier Foundation der Auffassung, dass Apple mit den Maßnahmen zum Kinderschutz einem breiten Missbrauch Tür und Tor öffnet. Clientseitige Scans, vor allem in Chat-Apps wie iMessage, hebelten unweigerlich trotz aller guten Absichten die Verschlüsselung aus. Apple könne die zunächst ausschließlich gegen Kindesmissbrauch eingesetzten Parameter des Maschinellen Lernens jederzeit problemlos auf andere Bereiche erweitern. Staaten seien zudem in der Lage, erheblichen Druck auf den iPhone-Konzern auszuüben, um Scans nach beliebigen Inhalten zu erzwingen. Etliche zumeist autoritäre Regime verfügten bereits über entsprechende Gesetze, mit denen etwa die LGBTQ-Community oder Oppositionelle ins Visier genommen würden. Apple sollte daher die einzig richtige Entscheidung treffen und derartige Hintertüren von den hauseigenen Geräten fernhalten, so die EFF.

Kommentare

JackBear06.08.21 17:26
Ist nicht kürzlich erst in Ungarn ein neues Gesetz zum Kinder-Schutz in Kraft getreten?
-8
JackBear06.08.21 17:28
P.S.: Kinder müssen unzweifelhaft geschützt werden. Aber manche Wege sind vielleicht zu hinterfragen...
+15
ted-23606.08.21 17:30
Halte diese Entwicklung für sehr gefährlich.
Die Nacktbilder, der eigenen Kinder, sind dann plötzlich pornografisch.
Wo soll das Aufhören?
+10
JackBear06.08.21 17:32
P.P.S.: Wer bestimmt denn, welche Bilder "gefährlich" sind? Zwei Frauen, die Händchen halten? Oder ein Mann in Frauenkleidern?
Oder "nur" Bilder, die auch in Deutschland strafbar sind?
Können überhaupt in jedem Land unterschiedliche Filter eingesetzt werden?
+22
ExMacRabbitPro06.08.21 17:53
Die Gefahr besteht darin, dass der Mechanismus überhaupt etabliert wird und niemand kontrollieren kann, nach was wirklich gefiltert wird.
Ich muss nur die Hashes austauschen, und schon kann man nach allem möglichen filtern.... sehe ich äußerst kritisch!
+35
C6406.08.21 18:09
Nicht alles was man kann ist gut und nicht alles muss man auch machen!
Bitte Apple - ethisch sinnvoll agieren! Das massenhafte Scannen privater Fotos ist - egal ob Bilder legal oder illegal sind - ethisch nicht hinnehmbar!
So sehr Apple im Bereich Datenschutz den Saubermann gibt, so sehr ist dieser Schritt ein mehr als bedenklicher!
+31
MacGuffin06.08.21 18:21
Apple CEO Tim Cook: 'Privacy is a Fundamental Human Right'

https://www.macrumors.com/2018/06/04/tim-cook-cnn-interview-privacy/

Ich bin ehrlich gesagt schockiert und enttäuscht das Apple so eine Hintertür plant.
Falls ich nun Apple weiter vertrauen soll sehe ich mich den Vorwurf ausgesetzt
"Wie naiv kann man denn gewesen sein!?"
Zeiten ändern sich, Apples Backdoor kann mit einem Fingerschnipp für andere Zweck missbraucht werden.

Das Argument gegen Kinderpornografie kann ich nur bedingt nachvollziehen.
Solche Menschen sind doch krank. Die sind wie Junkies.
Werden die dann noch Apples iPhones verwenden? Die werden sich andere Wege suchen.
Aber deshalb gleich alle iPhone Benutzer unter Generalverdacht zu stellen.
Ich weiß nicht
+22
z3r006.08.21 18:29
Mach dich doch bitte mal schlau über die technische Umsetzung.
Die Bilder deiner Kinder sind davon nicht betroffen, sondern nur Bilder, die in diesem kriminellen Bereich bereits bekannt sind und diese werden per (etwas angepassten) Hash Vergleich ausfindig gemacht, bevor sie auf iCloud hochgeladen werden könnten.
Dafür die Datenbank dieser Hashes auf deinem iPhone.

Ich bin zwar auch geteilter Meinung, aber eher wegen dem oben beschriebenen Missbrauch diverser Staaten und Geheimdienste.
Für selbige wären Tür und Tor geöffnet.

ted-236
Halte diese Entwicklung für sehr gefährlich.
Die Nacktbilder, der eigenen Kinder, sind dann plötzlich pornografisch.
Wo soll das Aufhören?
+7
Manuel01018006.08.21 18:34
Dann muss ich abfotografierte Fotos von vor 40 Jahren löschen, weil ich nackt auf dem Töpfchen saß?
-6
gevaugeh06.08.21 18:42
Es wird ohne eine Abwägung nicht zu lösen sein: Was ist uns wichtiger: Datenschutz oder Unterstützung der Pädophilenverfolgung.
-8
Semmelrocc
Semmelrocc06.08.21 18:47
Manuel010180
Dann muss ich abfotografierte Fotos von vor 40 Jahren löschen, weil ich nackt auf dem Töpfchen saß?

Nur wenn dein Foto in pädophilen Kreisen die Runde gemacht hat und der Hash in Apples Datenbank gelandet ist. Es werden keine Bilder gescannt, sondern nur ein Abgleich von Hashes gemacht (diese Zahlencodes zum Abgleich, dass eine Datei nicht verändert wurde, wie man es von Open Source Software-Downloads kennt).
+5
Sam Casel
Sam Casel06.08.21 18:47
Die Befürworter kommen ja immer mit dem Argument, dass ja nur die hashes der Bekannten Bilder bei einem Abgleich zu einem Match führen. Ich frage mich, wie diese Methode wirklich was gegen Kinderpornografie ausrichten kann? Ausser der Verbreitung von „bekannten“ Bilder bringt doch diese Methode nichts. Was ist mit den neu aufgenommenen Bilder die noch nirgendwo in Umlauf sind?

Mir erscheint es eher so, dass man solche „Methoden“ durch das Argument „Kinderschutz“ etablieren möchte…
+19
blackboxberlin06.08.21 19:01
Gibt es in den USA 🇺🇸 vielleicht entsprechende (neue) Gesetze, die Cloud-Anbieter dazu verpflichten und Apple jetzt liefern muss?!

Google nutzt ja schon seit 2015 die Software „Photo DNA“ von Microsoft (die selbst auch) für ihre Cloud und die E-Mail-Accounts:

+2
blackboxberlin06.08.21 19:03
PhotoDNA bei Wikipedia erklärt:

0
Harpsibear06.08.21 19:12
gevaugeh
Es wird ohne eine Abwägung nicht zu lösen sein: Was ist uns wichtiger: Datenschutz oder Unterstützung der Pädophilenverfolgung.

Datenschutz!
+27
Sebbo4Mac06.08.21 19:13
Ich stelle hier das Einschränkungen/Nutzen Verhältnis in Frage.

Es werden schließlich die Hash Werte der Bilder mit denen von bereits bekannten (online „veröffentlichten“) Bildern anhand einer Datenbank abgeglichen. Diese Datenbank muss ja erstmal gefüllt und dann von irgendwem überwacht/gewartet werden.

Neben der Möglichkeit potentieller Fehleinträge sehe ich hier weitere Probleme.

Zum Einen werden die kranken Menschen, die solche Bilder anfertigen/verbreiten dadurch niemals belangt, da das jeweilige Bild sich zum Zeitpunkt des Fotografierens ja noch in keiner Datenbank befinden kann.

Es werden also die „Sekundärtäter“ belangt (die natürlich auch weggesperrt gehören), aber die „Primärtäter“ machen unbehelligt weiter.

Zum Anderen wären ja „Spam-iMessages“ möglich, also ein Fremder, der mir schaden möchte, schickt von seinem Mac (hier läuft die Überprüfung ja nicht) ein Dutzend Bilder mit eben solchen einschlägigen Hash Werten per iMessage an mich. Der zuständige Algorithmus erkennt in dem Moment 12 Bilder der Datenbank und sperrt somit mein Konto und leitet Untersuchungen ein..

Im Rahmen des USA Freedom Act sollte es zudem ein Leichtes für US-Behörden sein, Apple dazu zu zwingen, den Algorithmus auf den Bereich „Terrorismus“ auszuweiten. Also die Backdoor zu nutzen, um Gefahren der „nationalen Sicherheit“ abzuwehren und potentielle Gefährder zu überwachen.
Danach wäre die Tür dann sperrangelweit offen und Schlagwörter wie „Drogen“, „Waffen“ oder „Staatsfeindlichkeit“ wären die nächsten Vorwände, sie immer und überall auszunutzen..🤔

Gemäß Tim Cook sind aktuell circa 1 Milliarde iPhones in aktiver Nutzung. Ist es also wirklich verhältnismäßig, eine Milliarde Nutzer präventiv zu überwachen?
+16
MacPit06.08.21 19:14
Somit ist es schon länger gängige Praxis und Apple zieht mit.
No Chance, wir müssen damit leben oder kaufen uns alte Nokia Klapphandys.
-1
Sebbo4Mac06.08.21 19:20
MacPit
No Chance, wir müssen damit leben oder kaufen uns alte Nokia Klapphandys.

Das glaube ich so nicht. Zum Zeitpunkt des Kaufes war schließlich keine Backdoor in unserem iPhone installiert. Vielleicht habe ich mir das Gerät aufgrund des marktführenden Datenschutzes zugelegt und mich auf alle damaligen Aussagen verlassen, hier wurde nichts derartiges angekündigt.

Ein nachträgliches Hinzufügen dieser Backdoor verändert meines Erachtens die Art und Güte des erworbenen Produktes in einem solchen Maße, dass es dazu meine Zustimmung benötigen würde bzw. ich anderenfalls ein Recht auf eine Rückgabe des Produktes (unabhängig vom Alter) hätte..🤔
+13
chessboard
chessboard06.08.21 19:27
Was passiert eigentlich mit den Hashes, die Apple von den privaten Fotos erzeugt. Die werden doch gaaaaanz bestimmt gelöscht, oder?
0
MacGuffin06.08.21 20:40
CES 2019

‘What happens on your iPhone, stays on your iPhone’
apple.com/privacy

https://9to5mac.com/2019/01/05/apple-privacy-billboard-vegas-ces/
+4
Murkel201206.08.21 20:51
Das mag ja gut gemeint sein, aber ich finde es überhaupt nicht witzig, das Apple's Software irgendetwas macht, was für mich keinen nutzen hat. Welche Daten werden als nächstes übermittelt? Die politische Gesinnung? Meine Hobby's? Wer im Adressbuch steht? Auf welchen Demos ich war?. Orwell lässt grüßen. Vielleicht ist es langsam Zeit sich mit Linux zu arrangieren...
+15
MacGuffin06.08.21 21:02
Murkel2012
...Vielleicht ist es langsam Zeit sich mit Linux zu arrangieren...

Das war gestern auch mein erster Gedanke.
+11
Harpsibear06.08.21 21:08
MacGuffin
Murkel2012
...Vielleicht ist es langsam Zeit sich mit Linux zu arrangieren...

Das war gestern auch mein erster Gedanke.

Hab mir heute schonmal ein Linux Magazin abonniert.
Werde nach 25 Jahren wohl von Apple weggehen.
Ich bin maßlos enttäuscht von Apple.
+27
Peter Parker
Peter Parker06.08.21 22:10
Harmlose Alltagsfotos von Kindern, die von Eltern und Kindern in den Sozialen Medien veröffentlicht werden, stehen verstärkt im Fokus von Pädosexuellen. Demnach klauen die Täter massenhaft Aufnahmen aus privaten Social Media-Profilen, um sie anschließend in Foren hochzuladen, in denen auch Fotos getauscht werden, die schweren Kindesmissbrauch zeigen.

mit geklaute privaten Fotos auf dem iPhone gehörst du zum Verdächtigen.

https://daserste.ndr.de/panorama/archiv/2021/Geklaut-Private-Kinderfotos-auf-Kinderpornografie-Seiten,kinderpornografie210.html
With great power there must also come — great responsibility! Stan Lee
+8
Hans G06.08.21 22:55
Jetzt wird mir Apple unsympathisch …
+18
iBert06.08.21 23:42
JackBear
Ist nicht kürzlich erst in Ungarn ein neues Gesetz zum Kinder-Schutz in Kraft getreten?
Da hast du vollkommen Recht. Das Gesetz besagt: Wer Kinder oder Jugendliche über Homosexualität (inkl Gender usw) aufklärt macht sich strafbar da dies ein "gesundes" Aufwachsen dieser stark gefährdet.
Objektiv ist relativ, subjektiv gesehen.
+1
haschuk07.08.21 01:07
iBert
JackBear
Ist nicht kürzlich erst in Ungarn ein neues Gesetz zum Kinder-Schutz in Kraft getreten?
Da hast du vollkommen Recht. Das Gesetz besagt: Wer Kinder oder Jugendliche über Homosexualität (inkl Gender usw) aufklärt macht sich strafbar da dies ein "gesundes" Aufwachsen dieser stark gefährdet.

Es geht sogar noch weiter. Die positive Werbung für LGBT ist verboten. Zwecks Schutz der Kinder vor Missbrauch. Ergo. Die ungarische Missbrauchsdatenbank könnte nach Gesetz auch positive LGBT Bilder enthalten. Küssende Männer. Küssende Frauen. Breschniew und Honecker küssend. Fotos von Transsexuellen. Bekennende Bis aus dem Showbiz.

Apple sagt zwar, wir machen Review. Nur, im idealen Fall Kindesmissbrauch gehts um Strafrecht. Apple hat nicht die Kompetenz dazu. Im Missbrauchsfall durch Staaten. Wie kann sich Apple gegen deren Durchsetzungspolitik wehren? Du still. Sonst nix iPhone in China. Gibts nich. Ne. Hatten wir schon.
+7
smuehli
smuehli07.08.21 08:23
Das ist für mich echt ein Dammbruch! Nicht dieser vorgeschobene Kampf gegen die Kinderpornografie sondern das generelle Verdächtigen eines jeden weltweit! Die Kontrolle was eigentlich "geprüft" und "gemeldet" wird entzieht sich total unserer Erkenntnis - viel schlimmer noch: das wir das mittels iOS15 einfach so untergeschoben bekommen! Ich bin sowas von geschockt! Vor allem, das hört hier doch nicht auf und geht weiter! Vor welchen Karren hat sich Apple da spannen lassen? Hatten die Aluhuträger, die Verschwörungstheoretiker etwa recht? Das passt so nicht in mein Weltbild!
Muß ich mir jetzt doch so ein Huawei (die von den USA verstoßenen) besorgen? Da glaube ich doch meine Daten in den Händen von Chinesen sicherer - die werden nicht so einfach mit den USA die Daten austauschen, oder?
+11
Retrax07.08.21 08:29
smuehli
Das ist für mich echt ein Dammbruch!
Den gab es schon lange...
Stichwörter: Schäuble, Staatstrojaner / Onlinedurchsuchung nur bei terroristischen Straftaten und nur mit strengem Richtervorbehalt...

Mittlerweile wurde das doch alles soweit ausgedehnt, dass diese "Instrumente" schon gegen Kleinkriminelle eingesetzt werden können - natürlich mit Richtervorbehalt (wobei die meisten "Anfragen" durchgewunken werden - ich sehe da schon lange nichts mehr von einer richtigen Prüfung durch den sogenannten Richtervorbehalt - eher Blankounterschriften...).
+7
teorema67
teorema6707.08.21 08:31
Völlig indiskutabel. Apple als selbsternannter Hüter des Datenschutzes will sich über universell akzeptierte Rechtsprinzipien hinwegsetzen. Die Intention ist ja edel, aber die Repression bei Kindesmissbrauchsdelikten kann nicht über Einbruchsdelikte in die Privatsphäre der unter Generalverdacht gestellten KundInnen funktionieren.

Selbstverständlich gilt Gleiches für "Staatstrojaner" & Co.



Retrax
... wobei die meisten "Anfragen" durchgewunken werden ...

Damit habe ich direkt zu tun (in DE) und muss dementieren, Richter sind ausgesprochen kritisch und fürchten immer, dass ihre Entscheide von der nächsthören Instanz nicht gehalten werden. "Durchwinken" ist da nicht ...
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
+8
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.