Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Kinderschutzorganisation wirft Apple Untätigkeit bei Kindesmissbrauchsdarstellungen vor

Die Debatte um Chatkontrolle geht in die nächste Runde. Die britische Tageszeitung "The Guardian" zitiert die britische Kinderschutzorganisation National Society for the Prevention of Cruelty against Children (NSPCC), die Apple massives Versagen beim Melden von über ihre Dienste übertragene Darstellungen von Kindesmissbrauch (CSAM) vorwirft. Die Organisation habe Informationen über das Informationsfreiheitsgesetz zusammengetragen.


Demnach seien im Zeitraum von April 2022 bis März 2023 Apple-Dienste in 337 behördlich bekannten Fällen von vermutetem CSAM-Austausch beteiligt – allein in England und Wales. Gleichzeitig habe Apple selbst lediglich 267 weltweite CSAM-Verdachtsfälle für 2023 an das amerikanische National Center for Missing and Exploited Children (NCMEC) gemeldet. Andere Firmen liegen um mehrere Größenordnungen darüber: Google meldete 1,4 Millionen Verdachtsfälle, Instagram 11 Millionen, Facebook knapp 18 Millionen im gleichen Zeitraum. Der ebenfalls Ende-zu-Ende-verschlüsselte Messenger WhatsApp hat knapp 1,4 Millionen Verdachtsfälle an NCMEC weitergeleitet.

Zusätzlich Sorgen wegen Apple Intelligence
Richard Collard, Vorsitzender der NSPCC-Kommission für Online-Sicherheit, äußerte sich zudem besorgt über Apple Intelligence, unter denen der Konzern zukünftige KI-Features zusammengefasst hat: "Der Wettlauf um die Einführung von Apple-KI ist besorgniserregend, wenn KI-generiertes Material über Kindesmissbrauch Kinder in Gefahr bringt und Fähigkeiten der Polizei einschränkt, junge Opfer zu schützen." Dabei sind die geplanten generativen Elemente von Apple Intelligence (Image Playground, Genmoji sowie Image Wand) weit entfernt davon, photorealistisch zu wirken.

Apple setzt auf Schutz und Aufklärung potenzieller Opfer
Ursprünglich wollte Apple parallel zur optionalen Ende-zu-Ende-Verschlüsselung bei iCloud Fotos und iMessage einen Nacktscanner einführen, der Bilder vor Upload oder Versand auf bekanntes CSAM-Material überprüft und bei mehrfachen Treffern eine Meldung bei Behörden auslöst. Nach umfangreichem Protest verschob Apple die Einführung dieser Mechanismen und gab sie schließlich ganz auf. Stattdessen lässt sich in iOS-Einstellungen unter "Datenschutz und Sicherheit" bei Jugendlichen die "Warnung vor sensiblen Inhalten" aktivieren; hierbei werden vermutete Nacktdarstellungen mit deutlicher Unschärfe unkenntlich gemacht; vor dem Versand von als Nacktaufnahme erkannten Bildern zeigt iOS deutliche Warnungen, Informationen zu Grooming sowie Links zu Beratungsangeboten. Für iPhones, iPads und Macs, die via Bildschirmzeit und Familienfreigabe verwaltet werden, gibt es die weiterreichende Kommunikationssicherheit.

Kontroverses Themenfeld
Während einige Kinderschutzorganisationen die automatisierte Chatkontrolle inklusive Einsatz von Künstlicher Intelligenz fordern, befürchten Verbraucherschützer eine Aufweichung der Privatsphäre durch intransparente automatisierte Überwachung. Ein offener Brief von Wissenschaftlerinnen und Wissenschaftlern an die EU-Kommission bewertet automatisierte Medienanalyse als zum Scheitern verurteilt – sie sei ineffizient, fehler- und missbrauchsanfällig. Einmal ins System integriert, könnte ein solcher Mechanismus von autoritären Regimen gegen eine Vielzahl von Darstellungen und Aussagen zweckentfremdet werden.

Kommentare

ruphi
ruphi22.07.24 16:58
Das Problem ist, dass zu geringer Schutz vor Missbrauchsdarstellungen einfach nachvollziehbare Folgen hat, während mangelnder Datenschutz sehr indirekte und deswegen schwierig nachvollziehbare Konsequenzen hat. Analog zum Spannungsverhältnis zwischen westlichem Lebensstil und Klimawandel.

Das menschliche Gehirn ist dazu gebaut, sofortige, sensorisch erlebbare Gefährdungsmomente wesentlich stärker zu bewerten als langfristige und rational erschlossene. So wird es wohl immer wesentlich schwieriger bleiben, dafür zu werben, Datenschutz in angemessener Weise in unserer Gesellschaft zu berücksichtigen, als die Dinge, die durch Datenschutz (scheinbar) erschwert werden.


Davon abgesehen scheint ist mir auf inhaltlicher Ebene durchaus fragwürdig, ob man die Datensammelei und diesbezügliche Auskunftsfreudigkeit von Google und 3 Meta-Tochterunternehmen wirklich als positiven Maßstab heranziehen sollte.
+23
Pallllo22.07.24 19:43
Die Facebook-Zahl find ich technisch interessant:
-machen die einen lokalen Check wie ihn Apple plante?
-oder haben die für die end-to-end-Verschlüsselung doch einen Master-Key?
+2
Krypton22.07.24 20:26
Ich denke, dass sich die Zahlen für Google und Meta nicht vergleichen lassen, da beide offene Plattformen betreiben. Meta hat beispielsweise Facebook (kann von vielen/allen gelesen werden) und Google hat eine ganze Horde an Diensten (Suche, Mail, Drive, Docs), die teilweise offen sind. In WhatsApp gibt es mit Kanälen und Status auch offene Bereiche, die nicht unbedingt End-To-End verschlüsselt sind.
Alle offenen Plattformen lassen sich ja leicht scannen, ohne den Datenschutz irgenewie anzugreifen. Daher können die auch viel einfacher viel mehr melden.
+4
Performant8422.07.24 21:57
Das traurige ist: Kinderrechte und Kinderschutz und ist ja ein unterstützenswertes Ziel. Aber mir ins Bewusstsein - und ich gebe zu, dass ich viel "Tech"-News lese - drängen sich solche Organisationen immer und immer wieder als Forderer und Förderer schlimmster Überwachungstechnik und Überwachungsinfrastruktur. Wogegen die Überwachungsmittel und -möglichkeiten, die die bösartigen Regime der jüngeren (letzten 100 Jahre) deutschen Geschichte eingesetzt haben, wie harmloser Kinderkram wirken. Aus technischer Sicht.
Demnach seien im Zeitraum von April 2022 bis März 2023 Apple-Dienste in 337 behördlich bekannten Fällen von vermutetem CSAM-Austausch beteiligt – allein in England und Wales. Gleichzeitig habe Apple selbst lediglich 267 weltweite CSAM-Verdachtsfälle für 2023 an das amerikanische National Center for Missing and Exploited Children (NCMEC) gemeldet
Wenn es Fälle in England und Wales sind, dann gehören diese an die Strafverfolgungsbehörden der betroffenen Länder gemeldet. Kein Grund, alles aus England, Wales - oder auch Deutschland - an die Vereinigten Staaten zu melden, als ob sie die Weltpolizei wären. Zumal mit deren manchmal doch etwas unterschiedlicher Sexualmoral und Sitten. Was in Deutschland mitunter noch als Familienfoto durchginge, muss es ja anderswo nicht. Die Bundesregierung schreibt in Ihren Reisehinweisen nicht ohne Grund "Unterlassen Sie das Fotografieren nicht vollständig bekleideter Kinder, auch Ihrer eigenen." .

(Anmerkung: Das soll nix verharmlosen. Und umgekehrt sind mir Jurisdiktionen auch suspekt, in denen der Geschlechtsverkehr mit verheirateten 14-jährigen völlig in Ordnung ist. Es soll nur illustrieren, dass es halt Grenzbereiche und Grauzonen gibt, die in unterschiedlichen Ländern oder Kulturen unterschiedliche interpretiert werden.)
+7
Moranai23.07.24 08:26
Man könnte auch anstatt immer nur die Clients zu überwachen und damit auch unschuldige überwachen, die großen Fische im Darknet platt machen. Da liegen viele share Files offen rum und sind voller Kipos. Aber da das viel Arbeit ist, diese zu sichten bzw. zu suchen, bleiben diese einfach wie sie sind. Gibt mehrere Dokus, wo solche Server gemeldet wurden bzw. gefunden wurden. Manchmal sind diese Server nach Aussage der Journalisten nach weniger als 1h nicht mehr verfügbar und bei anderen tut sich gar nichts. Je nachdem welche Polizeibehörde dafür zuständig ist. Das finde ich viel erschreckender.
Diese Überwachung der Clients ist für die Politik nur immer wieder der einfachste Weg, da nur wenige wirklich verstehen wie Kipos getauscht/gemacht werden.
+3

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.