Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples gestrichene CSAM-Scans haben Milliardenklage zur Folge

Vor einigen Jahren erregte Apple mit einer Ankündigung Aufmerksamkeit: Um „CSAM“ („Child Sexual Abuse Material“) wirkungsvoll zu bekämpfen, wollte das Unternehmen die Fotos von Nutzern auf illegale Inhalte lokal auf den Geräten scannen. Die Idee kam nicht bei allen gut an: Kritiker befürchteten, der Konzern könne so die Privatsphäre unterminieren und die technischen Grundlagen schaffen, um missliebige Inhalte auszuspähen. Apple ruderte später zurück, erbat sich zunächst mehr Zeit und ließ das Ansinnen letztlich gänzlich fallen, was bei manchen Anwendern für Missfallen sorgt.


Klägerin: Apples Produkte „fehlerhaft“
Eine 27-jährige Frau reichte bei einem Gericht in Nordkalifornien Klage gegen Apple ein. Der Konzern habe sein Versprechen gebrochen, Opfer von sexueller Gewalt zu schützen, indem er von seinen CSAM-Plänen abgerückt sei. Da die von Cupertino angekündigten Schutzmechanismen nie implementiert wurden, bezeichnet sie die Produkte des Unternehmens als „fehlerhaft“. Die Klägerin gibt an, selbst ein Missbrauchsopfer zu sein. Apples Rückzug habe zur Folge, dass Betroffene ihre Traumata immer wieder durchleben müssten. Bilder ihres Missbrauchs seien zuletzt auf einem MacBook im US-Bundesstaat Vermont aufgetaucht, ihrem Anwalt zufolge befinden sich die Aufnahmen in der iCloud.

Apple verweist auf Maßnahmen
Ziel der Klage sei die Entschädigung einer Gruppe von 2.860 Opfern, wie die New York Times berichtet. Sollte Apple tatsächlich haftbar gemacht werden, droht dem Unternehmen die Zahlung von Schadensersatz in Höhe von etwa 1,2 Milliarden US-Dollar. Cupertino äußerte sich in dieser Angelegenheit: CSAM sei abscheulich. Das Unternehmen entwickle aktiv Innovationen, um Verbrechen dieser Art zu bekämpfen, ohne dabei die Sicherheit und Privatsphäre aller Nutzer zu gefährden. So habe man etwa bestimmte Tools eingeführt, um die Verbreitung illegaler Bilder zu unterbinden: In den Einstellungen des iPhones findet sich beispielsweise die Möglichkeit, Warnungen zu aktivieren, wenn das Gerät Nacktbilder identifiziert.

Kommentare

Hanterdro10.12.24 13:44
Die Spinnen, die Amis. Gegen sowas kann man auch nur in den USA klagen
+31
Mac-Trek
Mac-Trek10.12.24 14:20
Das stimmt. Hätte Apple das Feature damals dennoch implementiert, hätte es dort vermutlich die gegenseitige Klage, von wegen Ausspionieren bzw. Datenschutzmißbrauch, gegeben. Verrückte Welt.
Live long and *apple* . Mögliche Rechtschreibfehler und grammatikalische Entgleisungen sind Gratisgeschenke. Jegliches Nörgeln ist Energieverschwendung >:-]...
+15
evanbetter
evanbetter10.12.24 15:27
Ich kann mir gut vorstellen, dass die Dame eine ausgesuchte Galleonsfigur von Drahtziehern (von Google bis Microsoft und darüberhinaus alles möglich) ist.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+1
Macmissionar10.12.24 15:41
Hoffentlich geht die Furie sang- und klanglos unter und die Klage wird vollends abgewiesen.
A Mac is like a Wigwam: No Windows, no Gates, no Backdoors, Peace, Harmony – and an Apache inside.
0
Fontelster10.12.24 15:55
Macmissionar
Hoffentlich geht die Furie sang- und klanglos unter und die Klage wird vollends abgewiesen.

Eine missbrauchte Frau Furie zu nennen … du bist echt ein Frauenversteher.
-6
MOTIVHIMMEL
MOTIVHIMMEL10.12.24 16:05
Das ist schon etwas verrückt. 2.860 Opfer im Verhältnis zu 1,46 Milliarden aktiven iPhone-Nutzer, die mit diesem System komplett ausspioniert worden wären. (https://www.grabon.in/indulge/statistics/iphone-users-and-sales-statistics/?t).

Ich muss immer wieder daran denken das ich von meinen Kindern auch mal das eine oder andere Bild mache, wo sie keine Textilien tragen, was völlig normal ist bei jüngeren Kindern (und nein, meine Fotos kommen nicht in die iCloud, sondern bleiben auf dem Gerät / Computer). Und dann stuft so ein Scansystem die Fotos auf einmal als Kinderporno ein, irgendjemand bekommt das dann als Vorlage zur Prüfung, schaltet die Behörden ein und ich bekomme als Elternteil auf einmal Besuch?

Das ist so als würde einmal im Jahr eine Behördenbeauftragter bei mir in die Wohnung kommen und sich alle Familienfotos sichten, die wir so gemacht haben.
+13
Metty
Metty10.12.24 16:10
Ich will ja nicht bezweifeln, dass die Frau ein Missbrauchsopfer ist und schwer darunter leidet. Aber igendwie entzieht sich für mich der Zusammenhang zu Apple's CSAM Plänen. Apple hat im Jahr 2021 CSAM angekündigt und im Jahr 2022 wieder kassiert.
Die Frau ist 27 Jahre alt und wir reden hier von "Child Sexual Abuse". Also muss die Tat und damit die Aufnahme des Materials rund 10 Jahre oder mehr alt sein. Die Aufnahmen existieren also schon über 8 Jahre bevor Apple überhaupt CSAM ankündigte.
Und nun fällt der Frau ein, dass Apple doch viel Geld hat und das irgendwie thematisch passen könnte. Die Bilder des Missbrauchs sind auf einem MacBook irgendwo aufgetaucht. Wenn die wirklich aus der iCloud kommen, dann wäre ein Gericht vielleicht gut beraten den Account hinter dem iCloud Zugang festzustellen. Aber bei dem ist wahrscheinlich weniger Geld zu bekommen.
+16
dan@mac
dan@mac10.12.24 22:25
MOTIVHIMMEL
Das ist schon etwas verrückt. 2.860 Opfer im Verhältnis zu 1,46 Milliarden aktiven iPhone-Nutzer, die mit diesem System komplett ausspioniert worden wären. (https://www.grabon.in/indulge/statistics/iphone-users-and-sales-statistics/?t).
Komplett ausspioniert? Meinst du nicht du übertreibst da etwas um einen Punkt zu machen?
+1
aMacUser
aMacUser11.12.24 08:42
MTN
ihrem Anwalt zufolge befinden sich die Aufnahmen in der iCloud
Hat Apple nicht sogar einen Scan in iCloud drin? Oder täuscht mich da meine Erinnerung?
+3
konnektor11.12.24 10:20
Fontelster
Macmissionar
Hoffentlich geht die Furie sang- und klanglos unter und die Klage wird vollends abgewiesen.

Eine missbrauchte Frau Furie zu nennen … du bist echt ein Frauenversteher.
Warum immer Schwarzweiß? Missbrauchsopfer sind nicht allein durch den Missbrauch Heilige, Missbrauchsopfer können sogar zu Tätern werden. Darf man das dann auch nicht benennen?
+1
dan@mac
dan@mac11.12.24 10:36
konnektor: Sagt er doch auch gar nicht.
0
sudoRinger
sudoRinger11.12.24 10:54
MOTIVHIMMEL
und nein, meine Fotos kommen nicht in die iCloud, sondern bleiben auf dem Gerät / Computer). Und dann stuft so ein Scansystem die Fotos auf einmal als Kinderporno ein,
Du skizzierst in deinem Beitrag eine Überwachung, die so nicht gedacht und konzipiert war.

Deine Fotos sollten lokal gegen einen Hash-Wert aus einer aufgespielten Bibliothek von kritischen Fotos abgeglichen werden. Das ist kein Scan, da damit keine Bildinhalte erfasst werden. Bei mehreren Erfassungen wäre eine Meldung erfolgt.
Eine Prüfung in der iCloud sollte nicht erfolgen. Die iCloud ist auch verschlüsselt, das hätte nicht funktioniert.
Wer keine iCloud aktiviert hätte, wäre überhaupt nicht "gescannt" worden.

Um ehrlich zu sein, fand ich diese Vorgehensweise den idealen Kompromiss aus Sicherheitsbedürfnis der Nutzer und Strafaufklärung, da hiermit keine Verschlüsselung kompromittiert wird.

Die Kritik daran ist, dass dies als Eingangstor für weitere Überwachung betrachtet wird, z.B. durch totalitäre Regime (wobei manche ja auch die EU dafür zu halten scheinen). Denkbar wäre ja auch, Protest-Memes gegen einen Hash-Wert abzugleichen, z.B. Xi Jinping als Winni Puuh.
Ich kann die Befürchtung nicht teilen, aber das ist ein anderes Thema. Wer chronisch glaubt, die Demokratie wird zur Tyrannei, mag das anders sehen.

Im übrigen kann ich gut verstehen, dass eine 27-jährige Frau nicht möchte, dass ihre Missbrauchsfotos im Web kursieren. Die Frau als Furie oder zu spekulieren, dass sie auch Täterin sein könnte, ist völlig daneben. Die Klage selbst wird vermutlich substanzlos sein, aber es zeigt halt, dass es nicht nur die kompromisslose IT-Sicht auf dieses Thema gibt, sondern andere die Strafaufklärung höher gewichten.
+2
konnektor11.12.24 11:19
dan@mac
konnektor: Sagt er doch auch gar nicht.
Natürlich. Nach ihm darf man eine missbrauchte Frau nicht Furie nennen, egal was sie aktuell tut und wie sie sich aufführt. Der Missbrauch macht sie also moralisch zu einer unantastbaren Person. Wie soll ich das sonst verstehen?
0
konnektor11.12.24 11:25
sudoRinger
... oder zu spekulieren, dass sie auch Täterin sein könnte, ist völlig daneben.
Das habe ich weder geschrieben noch spekuliert. Mein Kommentar passt ausschließlich im Zusammenhang mit dem von Fontelster. Es ging darum, dass nicht alle Oper automatisch nette Menschen sind und Opfer zu sein sie nicht in anderen Dingen freispricht. Ein Opfer kann also auch eine Furie sein. Das eine schließ das andere nicht aus.
Und dass Gerade Missbrauchsopfer später zu Täter werden können, ist übrigens eine nachgewiesenen Tatsache, hat aber nicht mit der Frau zu tun. Es war lediglich ein extremes Beispiel gegen ein Schwarzweißdenken.

Bei Deinen übrigen Ausführungen stimme ich zu! Für mich war das geplante Vorgehen Apples auch ein denkbarer Weg. Ich finde nur die Klage und dort vor allem die Begründung daneben. Stell Dir vor man könnte alle verklagen auf deren Geräte theoretisch ihre Bilder gespeichert sein könnten.
0
sudoRinger
sudoRinger11.12.24 11:29
konnektor
Es ging darum, dass nicht alle Oper automatisch nette Menschen sind und Opfer zu sein sie nicht in anderen Dingen freispricht. Ein Opfer kann also auch eine Furie sein. Das eine schließ das andere nicht aus.
Sie kann auch Joggerin sein oder eine Intelligenzbestie, natürlich auch eine Xanthippe oder Furie. Aber gibt es dafür einen Anhaltspunkt, außer dass sie eine Klage führt gegen Apple?
Ich nehme an, dass die Klage abgewiesen wird. Aber eine Klage ist nicht unmoralisch oder verwerflich. Genau dafür gibt es Gerichte.
0
konnektor11.12.24 11:30
sudoRinger
konnektor
Es ging darum, dass nicht alle Oper automatisch nette Menschen sind und Opfer zu sein sie nicht in anderen Dingen freispricht. Ein Opfer kann also auch eine Furie sein. Das eine schließ das andere nicht aus.
Sie kann auch Joggerin sein oder eine Intelligenzbestie, natürlich auch eine Xanthippe oder Furie. Aber gibt es dafür einen Anhaltspunkt, außer dass sie eine Klage führt gegen Apple?
Darum ging es nicht! Ich habe sie auch nicht als Furie bezeichnet! Es ging mir nur darum, dass der Missbrauch nicht ausschließt sie so nennen zu dürfen!
+1
dan@mac
dan@mac11.12.24 12:49
konnektor
Darum ging es nicht! Ich habe sie auch nicht als Furie bezeichnet! Es ging mir nur darum, dass der Missbrauch nicht ausschließt sie so nennen zu dürfen!
Der Missbrauch schließt nicht aus sie so nennen zu dürfen, die Tatsache, dass man genauere Details nicht kennt und auch noch kein Urteil gefällt worden ist, aber schon.
-2
konnektor11.12.24 13:21
dan@mac
konnektor
Darum ging es nicht! Ich habe sie auch nicht als Furie bezeichnet! Es ging mir nur darum, dass der Missbrauch nicht ausschließt sie so nennen zu dürfen!
Der Missbrauch schließt nicht aus sie so nennen zu dürfen, die Tatsache, dass man genauere Details nicht kennt und auch noch kein Urteil gefällt worden ist, aber schon.
Kontext Baby! Davon hat Fontelster aber nix geschrieben und deswegen kann mein Kommentar, der sich an seinem orientiert, auch nicht darauf eingehen.
Meine Güte, so schwer kann es doch nicht sein.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.