Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Kinderpornografie-Erkennung: Code in iOS 14.3 und macOS 11.4 ist nicht die finale Version, sagt Apple

Künstliche Intelligenz ist nicht unfehlbar. Diese Erkenntnis ist alles andere als neu, erhielt in den vergangenen Tagen aber eine große Aktualität. Nach Apples Ankündigung der in iOS 15 enthaltenen Maßnahmen gegen Kindesmissbrauch gelang es nämlich einem Reddit-User, den entsprechenden Code in den aktuellen Versionen von iOS und macOS aufzuspüren. Mithilfe von Reverse Engineering baute er das vom iPhone-Konzern als "NeuralHash" bezeichnete Verfahren in Python nach und veröffentlichte es auf GitHub. Anschließend erzeugte ein anderer Nutzer eine Hash-Kollision und trickste das Verfahren somit aus.


Apple: Entdeckter Code ist "allgemeine Version"
Sicherheitsexperten, Datenschützer und Menschenrechtsorganisationen hatten bereits kurz nach Apples Ankündigung unter anderem auf die Gefahr von derartigen Fehlerkennungen aufmerksam gemacht. Jetzt teilte der iPhone-Konzern mit, bei dem in iOS 14.3 und macOS 11.4 entdeckten und Code handle es sich um eine allgemeine Version und nicht die finale Fassung, welche für die Scans von Bildern im Hinblick auf iCloud-Fotos zum Einsatz kommen werde. Der iPhone-Konzern wies zudem gegenüber Motherboard darauf hin, dass der lokale Hash-Abgleich mit bekanntem kinderpornografischem Material nur ein Teil des Systems sei. Ergänzt werde die Analyse durch einen geheimen serverseitigen Algorithmus, der nach der Erkennung von rund 30 illegalen Bildern zum Einsatz komme. Außerdem überprüfen zusätzlich Mitarbeiter des Unternehmens die Ergebnisse, bevor Maßnahmen ergriffen werden.

Sicherheitsforscher können Apples Algorithmen überprüfen
Apple stellt nach eigenen Angaben darüber hinaus den in iOS 15 enthaltenen "NeuralHash"-Code Sicherheitsforschern zur Verfügung. Diese können die Algorithmen dann daraufhin überprüfen, dass sie der Beschreibung entsprechend funktionieren. Der Kryptographie-Experte Matthew Green von der Johns Hopkins University hält es dennoch für wahrscheinlich, dass die Möglichkeit der Erzeugung von Hash-Kollisionen auch in der finalen Version der Foto-Analyse besteht. Apple könne die Funktion zwar bis zum Erscheinen von iOS 15 noch überarbeiten, sagte er Motherboard, bei dem jetzt erfolgreich vorgenommen Austricksen handele es sich aber um ein aussagekräftiges Proof of Concept.

Kommentare

struffsky
struffsky19.08.21 15:20
Wieso in MacOS? Wird mein Mac auch gescannt? Davon war bisher nicht die Rede. Ich bin ziemlich angepisst von Apple.
+20
AidanTale19.08.21 15:46
struffsky
Wieso in MacOS? Wird mein Mac auch gescannt? Davon war bisher nicht die Rede. Ich bin ziemlich angepisst von Apple.

Wenn der MAC den M1 Chip hat kann er den Hash natürlich genauso erstellen. Zudem macht es ja wenig Sinn den MAC auszulassen wenn das Ziel doch angeblich ist die iCloud vollzuverschlüsseln.

Aber keine Angst, Apple stärkt damit laut Craig deine Privatsphäre.
+3
Mecki
Mecki19.08.21 16:07
struffsky
Wieso in MacOS?
Weil der Code, um den es hier geht, dort auch vorkommt, denn dieser Code hat nichts mit dem KiPo Scanning zu tun, sondern ist Teil von einem größeren KI Framework, mit dem Apple z.B. unter iOS Bilder klassifiziert oder am Mac Text in Bildern erkennt.
+10
Siganomas
Siganomas19.08.21 16:56
Wenn sie das schon entwickeln könnten sie ja auch mal eine Funktion in Photos einbauen um Duplikate zu erkennen.
Sollte damit doch wunderbar funktionieren.
Ich werde mich diesem verbrecherischen Missbrauch nicht beugen.
+10
Murkel201219.08.21 19:42
struffsky
Wieso in MacOS? Wird mein Mac auch gescannt? Davon war bisher nicht die Rede. Ich bin ziemlich angepisst von Apple.
Nun, genau das war es, was ich ja befürchtet habe. Nicht jeder hat genügend Speicherplatz in der iCloud und synchronisiert das iPhone mit dem Mac. Der hat ohnehin eine höhere Leistung und enthält auch das Bildmaterial, das nicht mit dem iPhone aufgenommen wurde.
+3
teorema67
teorema6719.08.21 22:58
Murkel2012
... Nicht jeder hat genügend Speicherplatz in der iCloud ...

Ich glaube, das ist für die meisten gar nicht mehr die Frage. Sie haben genug Speicher auf dem Mac, dem iPhone und in der (i)Cloud und sie haben eine Cloud-basierte Sync- und Backup-Strategie. Die Frage wird dann sein, auf welchen Cloud-Anbieter setze ich.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
+2
Foti
Foti20.08.21 02:40
Ein Elektronikkonzern übernimmt nun hoheitliche Aufgaben eines Staates. Ich bin beglückt.
Mir ist schon klar, dass dieser herbeigezogene moralische Vorwand nur dazu dient, einen Zugang zu den Daten der Nutzer zu bekommen. Aber das Thema ist hier leider eh fehl am Platze!
Auf jeden Fall freue ich mich nun, das Apple nun meinen Rechner scannt! Ist doch schön, wenn Apple nicht nur meine Fotos etc. durchstöbert, sondern mir auch noch vorschreibt was ich anzuschauen habe!
Ist schon klar, so habe ich mir immer die digitale Welt vorgestellt!
0
Weia
Weia20.08.21 20:36
struffsky
Wieso in MacOS? Wird mein Mac auch gescannt? Davon war bisher nicht die Rede.
Doch, davon war von Anbeginn an die Rede, da hast Du dann einfach was überlesen. Es ging immer um iOS, iPadOS und macOS.

Die Medien haben sich aufgrund der Popularität des iPhones halt oft exemplarisch auf das gestürzt.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.