Apples gestrichene CSAM-Scans haben Milliardenklage zur Folge
Vor einigen Jahren erregte Apple mit einer Ankündigung Aufmerksamkeit: Um „CSAM“ („Child Sexual Abuse Material“) wirkungsvoll zu bekämpfen, wollte das Unternehmen die Fotos von Nutzern auf illegale Inhalte lokal auf den Geräten scannen. Die Idee kam nicht bei allen gut an: Kritiker befürchteten, der Konzern könne so die Privatsphäre unterminieren und die technischen Grundlagen schaffen, um missliebige Inhalte auszuspähen. Apple ruderte später zurück, erbat sich zunächst mehr Zeit und ließ das Ansinnen letztlich gänzlich fallen, was bei manchen Anwendern für Missfallen sorgt.
Klägerin: Apples Produkte „fehlerhaft“Eine 27-jährige Frau reichte bei einem Gericht in Nordkalifornien Klage gegen Apple ein. Der Konzern habe sein Versprechen gebrochen, Opfer von sexueller Gewalt zu schützen, indem er von seinen CSAM-Plänen abgerückt sei. Da die von Cupertino angekündigten Schutzmechanismen nie implementiert wurden, bezeichnet sie die Produkte des Unternehmens als „fehlerhaft“. Die Klägerin gibt an, selbst ein Missbrauchsopfer zu sein. Apples Rückzug habe zur Folge, dass Betroffene ihre Traumata immer wieder durchleben müssten. Bilder ihres Missbrauchs seien zuletzt auf einem MacBook im US-Bundesstaat Vermont aufgetaucht, ihrem Anwalt zufolge befinden sich die Aufnahmen in der iCloud.
Apple verweist auf MaßnahmenZiel der Klage sei die Entschädigung einer Gruppe von 2.860 Opfern, wie die
New York Times berichtet. Sollte Apple tatsächlich haftbar gemacht werden, droht dem Unternehmen die Zahlung von Schadensersatz in Höhe von etwa 1,2 Milliarden US-Dollar. Cupertino äußerte sich in dieser Angelegenheit: CSAM sei abscheulich. Das Unternehmen entwickle aktiv Innovationen, um Verbrechen dieser Art zu bekämpfen, ohne dabei die Sicherheit und Privatsphäre aller Nutzer zu gefährden. So habe man etwa bestimmte Tools eingeführt, um die Verbreitung illegaler Bilder zu unterbinden: In den Einstellungen des iPhones findet sich beispielsweise die Möglichkeit, Warnungen zu aktivieren, wenn das Gerät Nacktbilder identifiziert.