Kinderschutzorganisation wirft Apple Untätigkeit bei Kindesmissbrauchsdarstellungen vor
Die Debatte um Chatkontrolle geht in die nächste Runde. Die britische Tageszeitung "The Guardian"
zitiert die britische Kinderschutzorganisation National Society for the Prevention of Cruelty against Children (NSPCC), die Apple massives Versagen beim Melden von über ihre Dienste übertragene Darstellungen von Kindesmissbrauch (CSAM) vorwirft. Die Organisation habe Informationen über das Informationsfreiheitsgesetz zusammengetragen.
Demnach seien im Zeitraum von April 2022 bis März 2023 Apple-Dienste in 337 behördlich bekannten Fällen von vermutetem CSAM-Austausch beteiligt – allein in England und Wales. Gleichzeitig habe Apple selbst lediglich 267 weltweite CSAM-Verdachtsfälle für 2023 an das amerikanische National Center for Missing and Exploited Children (NCMEC)
gemeldet. Andere Firmen liegen um mehrere Größenordnungen darüber: Google meldete 1,4 Millionen Verdachtsfälle, Instagram 11 Millionen, Facebook knapp 18 Millionen im gleichen Zeitraum. Der ebenfalls Ende-zu-Ende-verschlüsselte Messenger WhatsApp hat knapp 1,4 Millionen Verdachtsfälle an NCMEC weitergeleitet.
Zusätzlich Sorgen wegen Apple IntelligenceRichard Collard, Vorsitzender der NSPCC-Kommission für Online-Sicherheit, äußerte sich zudem besorgt über Apple Intelligence, unter denen der Konzern zukünftige KI-Features zusammengefasst hat: "Der Wettlauf um die Einführung von Apple-KI ist besorgniserregend, wenn KI-generiertes Material über Kindesmissbrauch Kinder in Gefahr bringt und Fähigkeiten der Polizei einschränkt, junge Opfer zu schützen." Dabei sind die geplanten generativen Elemente von Apple Intelligence (Image Playground, Genmoji sowie Image Wand) weit entfernt davon, photorealistisch zu wirken.
Apple setzt auf Schutz und Aufklärung potenzieller OpferUrsprünglich wollte Apple parallel zur optionalen Ende-zu-Ende-Verschlüsselung bei iCloud Fotos und iMessage einen Nacktscanner einführen, der Bilder vor Upload oder Versand auf bekanntes CSAM-Material überprüft und bei mehrfachen Treffern eine Meldung bei Behörden auslöst. Nach umfangreichem Protest verschob Apple die Einführung dieser Mechanismen und gab sie schließlich ganz auf. Stattdessen lässt sich in iOS-Einstellungen unter "Datenschutz und Sicherheit" bei Jugendlichen die "
Warnung vor sensiblen Inhalten" aktivieren; hierbei werden vermutete Nacktdarstellungen mit deutlicher Unschärfe unkenntlich gemacht; vor dem Versand von als Nacktaufnahme erkannten Bildern zeigt iOS deutliche Warnungen, Informationen zu Grooming sowie Links zu Beratungsangeboten. Für iPhones, iPads und Macs, die via Bildschirmzeit und Familienfreigabe verwaltet werden, gibt es die weiterreichende
Kommunikationssicherheit.
Kontroverses ThemenfeldWährend einige Kinderschutzorganisationen die automatisierte Chatkontrolle inklusive Einsatz von Künstlicher Intelligenz fordern, befürchten Verbraucherschützer eine Aufweichung der Privatsphäre durch intransparente automatisierte Überwachung. Ein offener Brief von Wissenschaftlerinnen und Wissenschaftlern an die EU-Kommission bewertet automatisierte Medienanalyse als
zum Scheitern verurteilt – sie sei ineffizient, fehler- und missbrauchsanfällig. Einmal ins System integriert, könnte ein solcher Mechanismus von autoritären Regimen gegen eine Vielzahl von Darstellungen und Aussagen zweckentfremdet werden.