Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Foto-Analyse gegen Kindesmissbrauch: Apples Datenschutz-Chef tritt Bedenken entgegen

Erik Neuenschwander bekleidet in Cupertino unter anderem die Position des "Head of Privacy", der Manager ist also zuständig für Datenschutzbelange und die Wahrung der Privatsphäre von Apples Kunden. In seine Zuständigkeit fallen also auch die drei Maßnahmen gegen Kindesmissbrauch, welche Apple vor einigen Tagen vorstellte. In einem Interview erläuterte er jetzt die Beweggründe des iPhone-Konzerns für deren Einführung. Zudem ging er auf Kritiker ein, die eine mögliche Ausweitung der Funktion auf andere Bereiche befürchten.


Kindeswohl und Schutz der Privatsphäre
Im Gespräch mit TechCrunch betonte Erik Neuenschwander zunächst, dass Apple mit der lokalen Foto-Analyse auf der Basis von Hashes bekannter kinderpornografischer Bilder eine Technik entwickelt habe, die Kindeswohl und Privatsphäre der Nutzer gleichermaßen gewährleiste. Die Scans auf iPhones und iPads ermöglichten die Identifizierung von Nutzern, welche mit dem Sammeln derartigen Materials beginnen. Das gleiche Ziel verfolge Apple bei der Erweiterung der Fähigkeiten von Siri. Der Sprachassistent gibt zukünftig bei Anfragen, die unter Umständen mit Kinderpornografie zusammenhängen, entsprechende Hinweise und nennt Stellen, an die man sich wenden kann. Beide Maßnahmen sollen ein frühzeitiges Eingreifen ermöglichen und im besten Fall weiteren Missbrauch verhindern. Die Privatsphäre von iPhone-Nutzern, die nicht in illegale Aktivitäten verstrickt seien, werde nicht angetastet, so Neuenschwander.


Quelle: Apple

"Geräte sind nach wie vor verschlüsselt"
Apples Datenschutz-Chef wurde zudem mit der Kritik konfrontiert, die in Cupertino entwickelte Scan-Technik könne künftig auch zu anderen Zwecken eingesetzt werden. Darüber hinaus werde die Ende-zu-Ende-Verschlüsselung ausgehebelt. Dem trat Neuenschwander kategorisch entgegen. Die Geräte seien nach wie vor verschlüsselt, Apple kenne die Schlüssel nicht. Scans auf Cloud-Servern ließen sich wesentlich leichter modifizieren, um nach beliebigen Inhalten zu suchen. Bei Apples neuen Maßnahmen seien die Hashes ins System aller Geräte weltweit integriert. "Es ist daher nicht möglich, einzelne Nutzer ins Visier zu nehmen", so Neuenschwander. Zudem schlügen die Scans nicht schon bei einem einzelnen Fund an, sondern erst nach dem Erkennen mehrerer kinderpornografischer Bilder. Anschließend erfolge zwingend eine Prüfung durch Apple-Mitarbeiter, bevor der Nutzer der zuständigen US-amerikanischen Kinderschutzorganisation NCMEC gemeldet werde.

Neuenschwander sieht keine Grundlage für Ausweitung
Wer auch immer auf iPhones nach etwas Anderem als kinderpornografischen Bildern suchen lassen wolle, habe mehrere sehr hohe Hürden zu überspringen, so Neuenschwander. Die höchste sei dabei die Anforderung, dass Apple die internen Prozesse ändere, um zusätzliche Inhalte in die Hashes und Scans aufzunehmen. "Wir glauben nicht, dass es dafür in den USA eine Grundlage gibt", sagte der Manager. Darüber hinaus habe jeder iPhone-Nutzer selbst die Möglichkeit, die lokale Suche zu unterbinden. Da man ausschließlich die Hashes von Bildern analysiere, die auf iCloud Fotos hochgeladen werden, könnten Nutzer die Synchronisation mit Apples Servern abschalten. In diesem Fall werde die Foto-Analyse nicht mehr aktiv.

Kommentare

Hanterdro12.08.21 15:39
Sie kapieren es nicht.

Es geht nicht um die aktuelle Impementierung sondern um Begehrlichkeiten die bei manchen Politiker geweckt werden… und diese Begehrlichenkeiten könnten dann in dem einem oder anderem Land in einem Gesetz münden, an das sich Apple natürlich halten wird…
+45
MacGuffin12.08.21 15:39
"Wir glauben nicht, dass es dafür in den USA eine Grundlage gibt", sagte der Manager."

1. Kann man glauben, muss es aber nicht.

"Die Privatsphäre von iPhone-Nutzern, die nicht in illegale Aktivitäten verstrickt seien, werde nicht angetastet, so Neuenschwander."

2. Quasi "Wer nichts zu verbergen hat, braucht nichts zu befürchten." Eine sehr dumme und totalitäre Argumentation.

3. Eine Wahlmöglichkeit ob der User das installiert habe will wäre ehrlicher.

"Darüber hinaus habe jeder iPhone-Nutzer selbst die Möglichkeit, die lokale Suche zu unterbinden. Da man ausschließlich die Hashes von Bildern analysiere, die auf iCloud Fotos hochgeladen werden, könnten Nutzer die Synchronisation mit Apples Servern abschalten."

4. Also, wenn das so ist könnte man die "on device" ja locker weglassen und weiter auf die iCloud Suche benutzen.

5. Noch mal, warum muss das Feature jetzt, hier und sofort aktiviert werden?

Hat es wirklich gar nichts damit zu tun das die Regierung, z.B. EU momentan sehr offen für sämtliche Überwachung von Chats, Emails und Dokumente jeglicher Art sind.


Es ist zu offensichtlich das dieses "Feature" wahrscheinlich Milliarden wert ist.

Dabei ist es bestimmt richtig das Apple all diese Versuche zur Bekämpfung der Kinderpornographie unternimmt so wie Apple es beschreibt und argumentiert.

Aber wird die Datenbank der zu vergleichenden Bildern mit neuen oder anderen Hashes gefüttert wird das iPhone zu einem begehrenswerten Instrument im künftigen internationalen Vertrieb. Damit löst Apple mit einem Handstreich mehrere Probleme.
Sie dürfen es weiter in anderen Ländern vertreiben und andere Regierungen sind glücklich, wenn Sie die Datenbank mit eigenen Hashes (Markern) füttern können.

Eine Win-win-Situation.

Die Infrastruktur ist bereits geschaffen. Das iPhone ist weltweit mit über eine Milliarde das am häufig genutzte Smart Phone. Damit wäre Apple für die Zukunft gut gerüstet.
Apple sagt: "Nein, das machen sie nicht." --- Dem Benutzer bleibt nur zu vertrauen.

Aber würde Apple wirklich "Nein" sagen, wenn das die Bedingung wäre um das iPhone weiter in China verkaufen oder in Betrieb nehmen zu dürfen?

Wer glaubt, dass Apple unter Tim Cook hier uneigennützig handelt und einfach so das Risiko eines Imageschadens in Kauf nimmt, hält sich auch beide Augen zu um unsichtbar zu sein.
+35
Nightraider12.08.21 15:50
MacGuffin

Da kann ich den Vorrednern/-Schreibern nur zustimmen. Vorhandene Überwachungsinstrumente werden definitiv genutzt werden. Da muss ich wohl demnächst aus der „Wohlfühlblase“ heraus und wieder zu einem Telefon, dass nur telefonieren kann (Seniorenhandy), und zur Kladde für eventuelle Passwörter greifen. Als Rechner dann ein Linux Derivat, das war’s dann wohl… das kenne ich alles noch…
+20
KarstenM
KarstenM12.08.21 15:51
Ich persönlich halte die ganze Argumentation seitens Apple für recht fragwürdig. Ich habe mir den etwas längeren Originalartikel mal durchgelesen und bin noch immer nicht überzeugt.

Apple wird ja nicht müde darin zu betonen, dass man diese Funktion ausschalten kann, indem man iCloud Fotos deaktiviert. Da aber die Menschen, die diesem Content verfallen sind (so verwerflich das auch ist), sich der Brisanz durchaus bewusst sein müssten, werden diese doch eh kein iCloud Foto verwenden. Nicht umsonst teilen diese Menschen ihre Bilder im Darknet und nicht auf iCloud und Co, oder sehe ich das falsch?

Auch ist in dem Artikel interessant, dass der Manager schön auflistet, welche Hürden es so gibt und dass diese alle erst genommen werden müssten. Er sagt aber nicht, dass es nicht möglich wäre diese Hürden zu nehmen.

Er verweist weiterhin darauf, weil iOS ja ein OS für weltweit alle iPhones ist, könnte man ja garnicht die fest einprogrammierte "Datenbankquelle verändern". Da frage ich mich nun aber, warum es dann doch möglich ist, bei diesem "universellen OS", regionale Veränderungen zu vollziehen? In der Region Russland eine Änderung des Einrichtungsassistenten, in anderen Ländern gibt es dieses Emoji nicht im nächsten gibt es eine andere Funktion nicht.

Und das Argument "Wir müssten unsere Prozesse ändern", ist angesichts des iCloudumzugs von chinesischen Bürgern nach China nun auch nicht in Stein gemeißelt.

In meinen Augen bleibt von dem ganzen eigentlich nicht mehr übrig wie:
1.) wir bekommen die, die keine OpSec haben
2.) Ich schalte es mal an um mir von Apple oder Siri bestätigen zu lassen das ich nicht pädophil bin.
+18
albertyy12.08.21 15:52
@Macguffin: GANZ genau Deiner Meinung. Dei Punkt 2 ist doch genau der Punkt , den man schon längst als sehr sehr dumm und autoritär geoutet und hinlänglich in den letzten Jahren erklärt hat. Warum ausgerechnet APPLE so reagiert, und sich auch auf diese (plumpe) Art und Weise rechtfertigt , verstehe ich nicht. Ich bin über alle Maßen empört – und das von einem hochdosierten MANAGER (oder gerade deswegen).... Unfassbar diese Entwicklung.
Sie verstehen es anscheinend nicht. Was ich aber nicht glaube .... Ich wünsche mir dazu eine sehr laute internationale Petition an Apple. Ich sag nur hier als Deutscher: die "Seidenstrasse" nähert sich mit schnellen Schritten.... und wird jetzt auch noch von solchen Firmen wie Apple beschleunigt. Sagt da ein Apple Fan !
+12
sonnendeck12.08.21 16:34
Mittlerweile glaube ich das ist eine gezielte Aktion um ein Urteil herbeizuführen, das ihnen diese Handlung höchst richterlich untersagt.
+6
Mostindianer12.08.21 16:51
Hanterdro
Sie kapieren es nicht.

Es geht nicht um die aktuelle Impementierung sondern um Begehrlichkeiten die bei manchen Politiker geweckt werden… und diese Begehrlichenkeiten könnten dann in dem einem oder anderem Land in einem Gesetz münden, an das sich Apple natürlich halten wird…

Apple ist eine US-Firma, das US-Gesetz will es so, also muss sich Apple dem beugen, so einfach ist das.
-5
thomas b.
thomas b.12.08.21 16:56
Im Grunde ist der Kuchen schon gegessen, die Technik ist grundsätzlich vorhanden, wird hier und da Begehrlichkeiten wecken und potentiell missbraucht werden. China usw. freuen sich sicher schon darauf, Apple vor die Wahl zu stellen, entweder das iPhone Betriebssystem mit von der Regierung gestellten Hashes auszurüsten oder den Markt dort zu verlassen. Oder bin ich schon paranoid?
+14
Darko Damjanovic12.08.21 17:40
"Geräte sind nach wie vor verschlüsselt"
Das kann gar nicht stimmen. Wie wäre es dann möglich das ein echter Mensch schlussendlich die Fotos prüft ob wirklich ein CSAM vorliegt? Die Verschlüsselung muss dazu zumindest so aufgeweicht werden das Apple Fotos von nun an auch selbst anschauen kann.

Das heißt meine iCloud Fotos können ab iOS 15 (rein technisch) von Apple Mitarbeitern angeschaut werden.
+7
frankh12.08.21 18:29
Ach, Siri-Anfragen sollen auch ausgewertet und gemeldet werden !?!
Das wird ja immer schöner...

Bin schon gespannt, was Woz dazu äußern wird
+7
Leselump12.08.21 18:34
@Darko Damjanovic
Das können die jetzt auch schon....
Daher sind all diese Erklärungen seitens Apple völlig sinnfrei.

Ich habe mittlerweile alle Abonnements beendet und werde auch den unbequemen Weg beschreiten, vielleicht machen das andere auch und setzen damit ein Zeichen. Statt Apple Music nehm ich Spotify und all die anderen Apps bezahle ich direkt beim Lieferanten. So wenig wie möglich persönliche Daten auf dem Teil speichern und mal schaun was das nächste Phone wird.

Apple wurde verklagt für das verlangsamen der iPhones, der Hash abgleich wird wohl auch Resourcen benötigen....
+7
MacGuffin12.08.21 19:37
Mostindianer
Hanterdro
Sie kapieren es nicht.

Es geht nicht um die aktuelle Impementierung sondern um Begehrlichkeiten die bei manchen Politiker geweckt werden… und diese Begehrlichenkeiten könnten dann in dem einem oder anderem Land in einem Gesetz münden, an das sich Apple natürlich halten wird…

Apple ist eine US-Firma, das US-Gesetz will es so, also muss sich Apple dem beugen, so einfach ist das.

Blödsinn, beim 14-fach San Bernardio Attentäter (Mörder) hat Tim Cook sich bis aufs Messer geweigert das iPhone zu öffnen und argumentierte...
“What Happens on your iPhone, Stays on your iPhone”

Wenn eine Firma die Macht hätte sich dagegen zu stemmen, dann wohl Apple.
Ich vermute da die berühmte "Hintertüre" die das FBI schon immer wollte und gleichzeitig ist es für Apple ein Verkaufsargument in andere Länder.
Eine Win-win-Situation auf ganzer Linie.
-1
teorema67
teorema6712.08.21 20:41
MacGuffin
... Aber würde Apple wirklich "Nein" sagen, wenn das die Bedingung wäre um das iPhone weiter in China verkaufen oder in Betrieb nehmen zu dürfen? ...

Werden eigentlich in Belarus iPhones verkauft? Lukaschenko ist bestimmt interessiert
Wenn ich groß bin, geh ich auch auf die Büffel-Universität! (Ralph Wiggum)
+1
MacGuffin12.08.21 20:57
MacGuffin
Blödsinn, beim 14-fach San Bernardio Attentäter (Mörder) hat Tim Cook sich bis aufs Messer geweigert das iPhone zu öffnen und argumentierte...
“What Happens on your iPhone, Stays on your iPhone”

...und argumentierte auf der CES 2019."

Sollte es heißen.
+3
Paddysch9012.08.21 21:06
Ein Professor of Security von der Camebridge University hat es vor zwei Tagen in der Glenn Beck Radio Show sehr gut dargestellt.

Hier mal das Youtube Video dazu:

https://www.youtube.com/watch?v=aaXrv639Tzk
+3
teorema67
teorema6712.08.21 23:16
Mich wundert, dass die großen Medien, die sonst jeden Pups von Apple kommentieren, dieses Thema trotz der weltweiten intensiven Diskussionen bisher nicht aufgreifen
Wenn ich groß bin, geh ich auch auf die Büffel-Universität! (Ralph Wiggum)
+5
hakken
hakken12.08.21 23:24
Mir wäre es da deutlich lieber, Apple würde an den Softwarelücken (Pegasus) arbeiten, als neue zu schaffen.
+9
dan@mac
dan@mac13.08.21 07:24
Eins steht doch fest, wenn raus kommt dass die Funktion in nur einem Land für andere Dinge verwendet wird, gewollt oder nicht, ist das Vertrauen in Apple was den Schutz der Privatsphäre angeht komplett weg.
+2
Leselump13.08.21 07:54
dan@mac
Das wenige Vertrauen welches man einem Konzern dieser Größe entgegenbringt ist bereits weg, das können die nicht mehr gut machen.
+7
Wurzenberger
Wurzenberger13.08.21 09:23
MTN
Im Gespräch mit TechCrunch betonte Erik Neuenschwander zunächst, dass Apple mit der lokalen Foto-Analyse auf der Basis von Hashes bekannter kinderpornografischer Bilder eine Technik entwickelt habe, die Kindeswohl und Privatsphäre der Nutzer gleichermaßen gewährleiste.
Einfach die Daten der Nutzer in Ruhe zu lassen wäre wohl zu einfach.
+3
Weia
Weia13.08.21 17:18
Darko Damjanovic
"Geräte sind nach wie vor verschlüsselt"
Das kann gar nicht stimmen.
Falsch gedacht, das stimmt. Der eigentliche Fotostream wird wie bislang verschlüsselt hochgeladen, die „Treffer“-Fotos aber als Duplikate zusätzlich für Apple einsehbar. Exakt das ist ja Apples Rechtfertigung dafür, dass der Scan auf dem Apple-Gerät vor dem Hochladen gescannt werden muss.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
0
Weia
Weia13.08.21 18:12
teorema67
Mich wundert, dass die großen Medien, die sonst jeden Pups von Apple kommentieren, dieses Thema trotz der weltweiten intensiven Diskussionen bisher nicht aufgreifen
Das passiert durchaus, vielleicht weniger oder – aufgrund der Komplexität des Themas – langsamer als erwartet.

Heute gibt es einen langen Artikel zu dem Thema im Wall Street Journal (, ich fürchte hinter einer Paywall) samt Video-Interview, wo Craig Federighi (den man wohl als die Nummer 2 bei Apple und die technische Nummer 1 bezeichnen kann) sich gegenüber Joanna Stern, der wichtigsten Tech-Journalistin beim Wall Street Journal, rechtfertigen muss und ganz schön herumdruckst. Ich bilde mir ja ein, von Technik was zu verstehen, aber nach diesem Interview bin ich noch verwirrter. Jetzt heißt es plötzlich, der Scan-Prozess sei zweigeteilt, halb auf dem Apple-Gerät, halb in der Cloud, aber seine Antworten in dem Interview sind zu konfus, um das wirklich zu begreifen, da muss ein technischer Text her.

Was mir hängengeblieben ist, ist der unglaubliche Geist, der in den USA, selbst in Kalifornien, herrscht. Im Zusammenhang mit dem Feature, dass Nachrichten die iMessages von Kindern auf (nicht-kinderpornographische) Nacktbilder scannt und den Eltern dann ggf. berichtet, erzählt Federighi, dass man natürlich versucht habe, beim Trainieren der KI Fehlalarme auszuschließen; das sei aber sehr schwierig gewesen, denn man hätte die Mitarbeiter beim Trainieren ja nicht (harmlosen) Nacktbildern aussetzen können.

Joanna Stern war jedenfalls für ein eher konservativ ausgerichtetes Medium ausgesprochen kritisch und hat Federighi auch mit dem legendären 1984er Orwell-Video von Apple konfrontiert. Und ein Videointerview von Joanna Stern mit der Nummer 2 eines Weltkonzerns passiert auch nicht alle Tage. Mal sehen, wie es weitergeht.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+1
stromsparmodus13.08.21 19:02
Also zumindest das Video ist auf Youtube . Weia, ist das das ganze Interview?
Weia
teorema67
Mich wundert, dass die großen Medien, die sonst jeden Pups von Apple kommentieren, dieses Thema trotz der weltweiten intensiven Diskussionen bisher nicht aufgreifen
Das passiert durchaus, vielleicht weniger oder – aufgrund der Komplexität des Themas – langsamer als erwartet.

Heute gibt es einen langen Artikel zu dem Thema im Wall Street Journal (, ich fürchte hinter einer Paywall) samt Video-Interview, wo Craig Federighi (den man wohl als die Nummer 2 bei Apple und die technische Nummer 1 bezeichnen kann) sich gegenüber Joanna Stern, der wichtigsten Tech-Journalistin beim Wall Street Journal, rechtfertigen muss und ganz schön herumdruckst.
...
Joanna Stern war jedenfalls für ein eher konservativ ausgerichtetes Medium ausgesprochen kritisch und hat Federighi auch mit dem legendären 1984er Orwell-Video von Apple konfrontiert. Und ein Videointerview von Joanna Stern mit der Nummer 2 eines Weltkonzerns passiert auch nicht alle Tage. Mal sehen, wie es weitergeht.
0
Weia
Weia13.08.21 19:08
stromsparmodus
Also zumindest das Video ist auf Youtube . Weia, ist das das ganze Interview?
Ah, danke für den Hinweis! Ja, das ist das ganze Video-Interview. Der Artikel-Text geht über das Interview dann noch hinaus, enthält aber nicht etwa ein „längeres“ Interview.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+1
stromsparmodus13.08.21 19:09
Ich bin kein Anglist, aber ich verstehe das Interview so, dass der Safety-Vouture mit dem Bild geschickt wird. Da wird kein Duplikat erzeugt - ansonsten könnte ja Apple nicht sagen, dass es noch nichts davon weiß, solange die Schwelle von gefundenen Bildern nicht überschritten wird.
Weia
Darko Damjanovic
"Geräte sind nach wie vor verschlüsselt"
Das kann gar nicht stimmen.
Falsch gedacht, das stimmt. Der eigentliche Fotostream wird wie bislang verschlüsselt hochgeladen, die „Treffer“-Fotos aber als Duplikate zusätzlich für Apple einsehbar. Exakt das ist ja Apples Rechtfertigung dafür, dass der Scan auf dem Apple-Gerät vor dem Hochladen gescannt werden muss.
0
stromsparmodus13.08.21 19:25
Safety-Voucher ...
stromsparmodus
Ich bin kein Anglist, aber ich verstehe das Interview so, dass der Safety-Vouture mit dem Bild geschickt wird. Da wird kein Duplikat erzeugt - ansonsten könnte ja Apple nicht sagen, dass es noch nichts davon weiß, solange die Schwelle von gefundenen Bildern nicht überschritten wird.
0
Weia
Weia13.08.21 19:27
stromsparmodus
Ich bin kein Anglist, aber ich verstehe das Interview so, dass der Safety-Vouture mit dem Bild geschickt wird. Da wird kein Duplikat erzeugt - ansonsten könnte ja Apple nicht sagen, dass es noch nichts davon weiß, solange die Schwelle von gefundenen Bildern nicht überschritten wird.
Stimmt, die Info mit dem Duplikat hatte ich aus einem anderen, technischeren Apple-Dokument (ich erinnere leider ad hoc nicht, welchem, und habe gerade keine Zeit zum Suchen), und das ist ein Grund, warum ich meinte, ich sei jetzt noch verwirrter – das passt alles nicht zusammen. Aber ich finde, Federighi redet hinter der Maske der Allgemeinverständlichkeit schon sehr vage bis wirr über das Zusammenspiel dieser Algorithmen und mathematischen Operationen.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.