Apples neue Maßnahmen: Foto-Analyse für iCloud, Foto-Filter in iMessage, angepasste Suche
Apple hat ein ganzes Bündel an Maßnahmen bekannt gegeben, wie einerseits Kinder vor möglichen Gefahren des Internets geschützt als auch Handel mit illegalem Bildmaterial eingegrenzt
werden sollen. Gleich vorweg: Entgegen des gestrigen Berichts ging Apple allerdings nicht den weitreichenden Schritt, die lokale Camera Roll selbst dann zu scannen, wenn kein Cloud-Upload stattfinden soll. Demnach erfolgt zwar tatsächlich ein lokaler "On Device"-Abgleich mit entsprechenden Hashes, allerdings nur vor dem Upload auf iCloud. Im Kampf gegen "CSAM" ("Child Sexual Abuse Material") gleichen Algorithmen bekanntes, illegales Bildmaterial mit Fotos in der iCloud Media Library ab. Folgendermaßen stellt Apple den Ablauf dar:
Aus Apples technischer
DokumentationDamit will Apple den Privatsphäre-Gedanken beibehalten und ausdrücklich nicht permanent die Nutzerdaten auf den Servern scannen müssen. Wenn Fotos in der Library mit Bildern aus der offiziellen Datenbank übereinstimmen, speichert das System die Ergebnisse in einem "Safety Voucher". Als Technologie kommt das sogenannte "Threshold Sharing" zum Einsatz, um sicherzustellen, dass sich die Ergebnisse nicht auslesen lasen, bevor eindeutige Schwellen überschritten sind. Wie es in Apples Vorwort heißt: Man erlange keinerlei Kenntnis über solche Bilder, die nicht als "kritisch genug" eingestuft sind.
Bei welchen Werten diese Thresholds angesetzt sind, nennt Apple nicht – verweist aber auf die hohe Zuverlässigkeit. Die Fehlerquote liege bei "eins zu einer Billion" pro Jahr. Geht das System eindeutig davon aus, bekanntes kinderpornografisches Material entdeckt zu haben, kann sich Apple nach Prüfung der ermittelten Werte dazu entscheiden, denn Account zu sperren und Meldung an das "National Center for Missing and Exploited Children" zu erstatten. Bis es aber zur Klassifizierung von "eindeutig" kommt, müssen viele Indikatoren zutreffen. Unklarheit bedeutet dabei stets, dass die Bilder als unkritisch gelten.
Foto-Filter in iMessage für explizite InhalteWer seinen Nachwuchs im Familienzugang der iCloud angelegt hat, kann den Schutz vor bestimmtem Bildmaterial aktivieren. Erkennt der iMessage-Filter anschließend, dass gerade "expliziter Content" an die jeweilige Person geschickt wurde, zeigt der Messenger diesen nur stark verschwommen an. Wer das Foto dennoch öffnen möchte, erhält eine Warnung, warum es sich um unerwünschte Bilder handelt und weswegen die Schutzfunktion eingriff. Soll dann immer noch Zugriff darauf stattfinden, verhindert iMessage dies nicht, weist aber darauf hin, dass eine Meldung an die Eltern erfolgt – "um sicherzustellen, dass alles in Ordnung ist". Selbige Warnung erscheint auch, wenn Sprösslinge versuchen, ihrerseits explizite Inhalte zu versenden.
Siri und Suche: Maßnahmen gegen CSAMWenn Siri erkennt, dass Nutzer Kindesmissbrauch melden möchten, gibt es direkte Hilfestellung, an wen man sich dazu wenden kann. Außerdem fangen Siri und Websuche direkt Anfragen ab, die auf illegales Bildmaterial abzielen. Stattdessen gibt es eine Erklärung, warum der jeweilige Content gefährlich und problematisch sein kann – inklusive Verweise auf Angebote, die Unterstützung bieten.