Kinderpornografie-Erkennung: Code in iOS 14.3 und macOS 11.4 ist nicht die finale Version, sagt Apple
Künstliche Intelligenz ist nicht unfehlbar. Diese Erkenntnis ist alles andere als neu, erhielt in den vergangenen Tagen aber eine große Aktualität. Nach Apples Ankündigung der in iOS 15 enthaltenen Maßnahmen gegen Kindesmissbrauch gelang es nämlich einem Reddit-User, den entsprechenden Code in den aktuellen Versionen von iOS und macOS aufzuspüren. Mithilfe von Reverse Engineering baute er das vom iPhone-Konzern als "NeuralHash" bezeichnete Verfahren in Python nach und veröffentlichte es auf GitHub. Anschließend erzeugte ein anderer Nutzer eine Hash-Kollision und trickste das Verfahren somit aus.
Apple: Entdeckter Code ist "allgemeine Version"Sicherheitsexperten, Datenschützer und Menschenrechtsorganisationen hatten bereits kurz nach Apples Ankündigung unter anderem auf die Gefahr von derartigen Fehlerkennungen aufmerksam gemacht. Jetzt teilte der iPhone-Konzern mit, bei dem in iOS 14.3 und macOS 11.4 entdeckten und Code handle es sich um eine allgemeine Version und nicht die finale Fassung, welche für die Scans von Bildern im Hinblick auf iCloud-Fotos zum Einsatz kommen werde. Der iPhone-Konzern wies zudem gegenüber
Motherboard darauf hin, dass der lokale Hash-Abgleich mit bekanntem kinderpornografischem Material nur ein Teil des Systems sei. Ergänzt werde die Analyse durch einen geheimen serverseitigen Algorithmus, der nach der Erkennung von rund 30 illegalen Bildern zum Einsatz komme. Außerdem überprüfen zusätzlich Mitarbeiter des Unternehmens die Ergebnisse, bevor Maßnahmen ergriffen werden.
Sicherheitsforscher können Apples Algorithmen überprüfenApple stellt nach eigenen Angaben darüber hinaus den in iOS 15 enthaltenen "NeuralHash"-Code Sicherheitsforschern zur Verfügung. Diese können die Algorithmen dann daraufhin überprüfen, dass sie der Beschreibung entsprechend funktionieren. Der Kryptographie-Experte Matthew Green von der Johns Hopkins University hält es dennoch für wahrscheinlich, dass die Möglichkeit der Erzeugung von Hash-Kollisionen auch in der finalen Version der Foto-Analyse besteht. Apple könne die Funktion zwar bis zum Erscheinen von iOS 15 noch überarbeiten, sagte er Motherboard, bei dem jetzt erfolgreich vorgenommen Austricksen handele es sich aber um ein aussagekräftiges Proof of Concept.