Kurswechsel: Apples lokaler Foto-Scan nach illegalen Inhalten kommt erst einmal nicht
Apple hatte sich den Ausgang sicherlich ganz anders vorgestellt. Das Ansinnen, Fotos auf illegale Inhalte zu scannen und somit die Verbreitung von Kinderpornografie via iCloud zu unterbinden, war sicherlich ein Nobles. Die Art und Weise, wie Apple den Schritt allerdings kommunizierte und dabei weitere Implikationen nicht beachtete, hingegen nicht. So ziemlich niemand dürfte der Aussage widersprechen, dass "CSAM" (Child Sexual Abuse Material) bekämpft werden muss. Um Datenschutz und Privatsphäre zu wahren, wollte Apple die Foto-Analyse allerdings nicht serverseitig, sondern lokal auf den Devices der Nutzer durchführen. Genau dieser Aspekt sorgte aus verschiedenen Gründen jedoch für entschiedenen Gegenwind.
Implikationen sind gewaltigEinerseits stellt sich die Frage, ob Zugriff jedweder Form auf lokale Daten möglich sein soll, andererseits aber auch, ob so nicht ein Einfalltor für weitere Zwecke entsteht. Zwar soll es nach Apples Vorstellung lediglich um bekannte kinderpornografische Darstellungen gehen, Kritiker sehen aber große Gefahren. Totalitäre Staaten könnten derlei Scans auch für die Suche nach Regime-Gegnern durchsetzen. Aus diesem Grund war oft die Forderung zu hören, gar nicht erst mit lokalen Scans anzufangen.
Kurswechsel: Keine baldige EinführungNachdem Apple gewaltiger Protest entgegenschlug, Unternehmensvertreter das Vorgehen aber zunächst verteidigten, gibt es nun einen Kurswechsel. Wie es in einer offiziellen Stellungnahme heißt, wird der Foto-Scan nicht wie geplant im September beginnen. Apple schreibt dazu, man benötige mehr Zeit, um die Funktion zu entwickeln. Das Feedback von Nutzern, Forschern und Interessenvertretern habe gezeigt, die geplanten Features zum Schutz von Kindern genauer durchdenken zu müssen.
Last month we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them, and limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.
Somit geht der umstrittene Foto-Scan definitiv nicht mit iOS 15 an den Start. Wann und in welcher Form Apple die Umsetzung vorantreibt, ist momentan noch nicht bekannt. Andere Cloud-Plattformen überprüfen die hochgeladenen Inhalte ebenfalls, allerdings nur dann, wenn tatsächlich auch ein Upload stattfand. Es wäre es also denkbar, dass Apple einen ähnlichen Weg wählt. Auch wenn es hinsichtlich des Datenschutzes normalerweise vorteilhafter ist, Daten lokal auf dem Gerät zu berechnen, wirft der Foto-Scan andere Fragen auf. Man darf gespannt sein, welche Bekanntmachungen Apple hierzu in einigen Wochen bis Monaten tätigt.