Foto-Analyse gegen Kindesmissbrauch: Apple erklärt, warum CSAM-Scans begraben wurden
Apple führte in iOS 15.2 mit der sogenannten Kommunikationssicherheit ein neues Feature ein, welches Kindern den Anblick unangemessener Inhalte ersparen soll, also etwa Fotos von nackten Personen oder Körperteilen. Wenn die Funktion aktiviert ist, untersuchen iPhone und iPad empfangene Nachrichten auf solche Darstellungen, stellen entsprechende Bilder nur verschwommen dar und geben einen Warnhinweis aus. In iOS 17, das in wenigen Wochen erscheint, weitet Apple das Feature auf andere Apps aus und stellt auch Erwachsenen die Möglichkeit zur Verfügung, sich vor nackten Tatsachen die Augen verschließen zu lassen (siehe
).
Kinderschutzgruppe will Druck auf Apple ausübenEine weitere Maßnahme, die der Bekämpfung sexuellen Missbrauchs von Kindern dienen sollte, zog Apple nach heftigen Protesten von Datenschützern und Sicherheitsexperten allerdings zurück. Das Unternehmen hatte geplant, von Nutzern angefertigte Fotos vor dem Hochladen nach iCloud mit den Hashes bekannter illegaler Bilder abzugleichen und die Funde einer Kinderschutzorganisation zu melden. Apple beerdigte das Vorhaben im Dezember 2022 endgültig (siehe
), was einer unter dem Namen Heat Initiative auftretenden Gruppe überhaupt nicht gefiel. Die Kinderschützer teilten dem kalifornischen Unternehmen vor Kurzem mit, sie würden eine Kampagne starten, um die Einführung der sogenannten CSAM-Scans durch öffentlichen Druck auf Apple zu erzwingen.
Apple: Automatische Scans stellen Angriffsvektor darApple reagierte auf die Ankündigung der Heat Initiative und erläuterte die Beweggründe für die Abkehr von den lokalen Untersuchungen auf illegales Material jetzt in einem Schreiben, das
Wired vorliegt. Kinderpornografisches Material sei abscheulich und man fühle sich verpflichtet, die Kette der Gewalt und Beeinflussung zu durchbrechen, welcher die Opfer ausgesetzt seien, schreibt Apples Datenschutz-Chef Erik Neuenschwander. Automatische Scans der von den Nutzern in iCloud gespeicherten privaten Daten stellten allerdings einen neuen und gefährlichen Angriffsvektor dar, der von Kriminellen ausgenutzt werden könnte. Darüber hinaus sei eine solche Maßnahme womöglich das Einfallstor für eine umfassende Überwachung der Nutzer. Neuenschwander zufolge könnte sie zudem weitere Begehrlichkeiten wecken, etwa die Analyse aller verschlüsselten Nachrichten.
Unternehmen will Sicherheit der Nutzer nicht gefährdenApple habe sich entschieden, die lokalen Scans nicht einzuführen, weil diese Sicherheit und Privatsphäre der Nutzer gefährdet hätten. Das Unternehmen macht sich damit offiziell die Argumente zu eigen, welche Datenschützer und Sicherheitsforscher bereits vor zwei Jahren vorgebracht hatten. Apple setzt nach eigenen Angaben künftig auf einen anderen Ansatz im Hinblick auf den Schutz von Kindern vor sexuellem Missbrauch. Das Unternehmen will unter anderem Opfer verstärkt auf Hilfsangebote aufmerksam machen und auf die Möglichkeit hinweisen, die zuständigen Strafverfolgungsbehörden einzuschalten.