Umstrittener Foto-Scan: Apple entfernt Ankündigung (Aktualisierung: Stellungnahme)
Im August hatte Apple mit einer geplanten neuen Funktion für großen Aufruhr gesorgt. Das Ziel lautete, den Austausch kinderpornografischen Materials zu bekämpfen. Die konkrete Umsetzung sollte unter besonderen Datenschutzaspekten stehen, denn anders als die meisten Cloud-Anbieter wollte Apple nicht sämtliche Dateien der Nutzer auf der iCloud scannen – sondern lokale Hashes vor dem Upload. Apple verfolgte somit den Weg, dass lokal durchgeführte Analysen höheren Datenschutz gewährleisten. Beispielsweise betont das Unternehmen auch in anderen Bereichen, auf Verarbeitung direkt auf dem Gerät anstatt in der Cloud zu setzen. Im Falle von "CSAM" (Child Sexual Abuse Material) hinterließ die Ankündigung indes einen schlechten Beigeschmack. Was bei den meisten Anwendern ankam, war schlicht: Apple scannt in Zukunft alle meine Fotos und wertet diese aus. Zudem wurde die Frage aufgeworfen, ob es die Aufgabe eines privatwirtschaftlichen Konzerns sei, sich in diese Art von Ermittlungsarbeit einzuschalten.
Apple entfernt Ankündigung der FunktionRund einen Monat dauerte es im Sommer, bis Apple nach lautstarken Protesten einen Kurswechsel bekannt gab. Apple schrieb dazu, man benötige mehr Zeit, um die Funktion zu entwickeln. Das Feedback von Nutzern, Forschern und Interessenvertretern habe gezeigt, die geplanten Features zum Schutz von Kindern genauer durchdenken zu müssen. Seitdem wurde es still um das umstrittene Feature, weder äußerte sich Apple ein weiteres Mal, noch ließen sich Anpassungen im System finden. Mit der Veröffentlichung von iOS 15.2 gab es zumindest eine Änderung. Apple entfernte nämlich oben zitierten Passus von den Kinderschutz-
Webseiten und kündigt daher nicht mehr an, die Funktion weiterzuentwickeln oder in veränderter Form einführen zu wollen.
Noch in iOS 15.2 vorhanden: Die Hash-FunktionWeiterhin vorhanden im System bleibt indes "NeuralHash", das Apple bereits mit iOS 14.3 und macOS 11.4 eingeführt hatte. Dies dient dem lokalen Abgleich, um die Hashes bekannter illegaler Bilder mit lokal gespeichertem Material abzugleichen. Genau diesen Punkt schrieb sich Apple eigentlich als "datenschutztechnisch sicher" auf die Fahnen, da eben nicht die Fotos, sondern deren Hashes verglichen werden. Nur, wenn mehrere Algorithmen anschlagen und mehr als 30 entsprechende Fotos vorliegen, die zum Upload in den Foto-Stream vorgesehen sind, greift die umstrittene Funktion nämlich.
Vermutlich: Pläne zu den Akten gelegtOb sich Apple von den Plänen vollständig verabschiedet hat, bleibt somit weiterhin unklar. Eine heimliche Einführung gilt angesichts der Diskussionen in den vergangenen Monaten als ziemlich unwahrscheinlich. Dass Apple nun auch den Passus entfernte, die Absichten zu überprüfen und zu überdenken, dürfte aber ein Hinweis sein. Gäbe es die zündende Idee, wie Apple stattdessen Austausch von CSAM via iCloud verhindern könnte, hätte das Unternehmen wohl mehr getan als nur eine Absichtserklärung gelöscht. Sofern Cupertino weiterhin entsprechendes Bildmaterial verhindern möchte, bleibt vermutlich nur der Weg von Microsoft, Google und anderen: Gescannt wird in der iCloud, nicht vorher.
Aktualisierung: Apples kurze StellungnahmeAuf direkte Nachfrage hin erhält man von Apples Sprechern nun auch eine kurze Stellungnahme. Darin heißt es, Apple habe die Position von Anfang September nicht verändert ("the company’s position hasn’t changed since September"). Dies bedeutet, die Einführung nicht wie geplant erfolgt, aber auch nicht vollständig auf Eis liegt.