Foto-Analyse gegen Kindesmissbrauch: Apples Datenschutz-Chef tritt Bedenken entgegen
Erik Neuenschwander bekleidet in Cupertino unter anderem die Position des "Head of Privacy", der Manager ist also zuständig für Datenschutzbelange und die Wahrung der Privatsphäre von Apples Kunden. In seine Zuständigkeit fallen also auch die drei Maßnahmen gegen Kindesmissbrauch, welche Apple vor einigen Tagen vorstellte. In einem Interview erläuterte er jetzt die Beweggründe des iPhone-Konzerns für deren Einführung. Zudem ging er auf Kritiker ein, die eine mögliche Ausweitung der Funktion auf andere Bereiche befürchten.
Kindeswohl und Schutz der PrivatsphäreIm Gespräch mit
TechCrunch betonte Erik Neuenschwander zunächst, dass Apple mit der lokalen Foto-Analyse auf der Basis von Hashes bekannter kinderpornografischer Bilder eine Technik entwickelt habe, die Kindeswohl und Privatsphäre der Nutzer gleichermaßen gewährleiste. Die Scans auf iPhones und iPads ermöglichten die Identifizierung von Nutzern, welche mit dem Sammeln derartigen Materials beginnen. Das gleiche Ziel verfolge Apple bei der Erweiterung der Fähigkeiten von Siri. Der Sprachassistent gibt zukünftig bei Anfragen, die unter Umständen mit Kinderpornografie zusammenhängen, entsprechende Hinweise und nennt Stellen, an die man sich wenden kann. Beide Maßnahmen sollen ein frühzeitiges Eingreifen ermöglichen und im besten Fall weiteren Missbrauch verhindern. Die Privatsphäre von iPhone-Nutzern, die nicht in illegale Aktivitäten verstrickt seien, werde nicht angetastet, so Neuenschwander.
Quelle: Apple
"Geräte sind nach wie vor verschlüsselt"Apples Datenschutz-Chef wurde zudem mit der Kritik konfrontiert, die in Cupertino entwickelte Scan-Technik könne künftig auch zu anderen Zwecken eingesetzt werden. Darüber hinaus werde die Ende-zu-Ende-Verschlüsselung ausgehebelt. Dem trat Neuenschwander kategorisch entgegen. Die Geräte seien nach wie vor verschlüsselt, Apple kenne die Schlüssel nicht. Scans auf Cloud-Servern ließen sich wesentlich leichter modifizieren, um nach beliebigen Inhalten zu suchen. Bei Apples neuen Maßnahmen seien die Hashes ins System aller Geräte weltweit integriert. "Es ist daher nicht möglich, einzelne Nutzer ins Visier zu nehmen", so Neuenschwander. Zudem schlügen die Scans nicht schon bei einem einzelnen Fund an, sondern erst nach dem Erkennen mehrerer kinderpornografischer Bilder. Anschließend erfolge zwingend eine Prüfung durch Apple-Mitarbeiter, bevor der Nutzer der zuständigen US-amerikanischen Kinderschutzorganisation NCMEC gemeldet werde.
Neuenschwander sieht keine Grundlage für AusweitungWer auch immer auf iPhones nach etwas Anderem als kinderpornografischen Bildern suchen lassen wolle, habe mehrere sehr hohe Hürden zu überspringen, so Neuenschwander. Die höchste sei dabei die Anforderung, dass Apple die internen Prozesse ändere, um zusätzliche Inhalte in die Hashes und Scans aufzunehmen. "Wir glauben nicht, dass es dafür in den USA eine Grundlage gibt", sagte der Manager. Darüber hinaus habe jeder iPhone-Nutzer selbst die Möglichkeit, die lokale Suche zu unterbinden. Da man ausschließlich die Hashes von Bildern analysiere, die auf iCloud Fotos hochgeladen werden, könnten Nutzer die Synchronisation mit Apples Servern abschalten. In diesem Fall werde die Foto-Analyse nicht mehr aktiv.