Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples gestrichene CSAM-Scans haben Milliardenklage zur Folge

Vor einigen Jahren erregte Apple mit einer Ankündigung Aufmerksamkeit: Um „CSAM“ („Child Sexual Abuse Material“) wirkungsvoll zu bekämpfen, wollte das Unternehmen die Fotos von Nutzern auf illegale Inhalte lokal auf den Geräten scannen. Die Idee kam nicht bei allen gut an: Kritiker befürchteten, der Konzern könne so die Privatsphäre unterminieren und die technischen Grundlagen schaffen, um missliebige Inhalte auszuspähen. Apple ruderte später zurück, erbat sich zunächst mehr Zeit und ließ das Ansinnen letztlich gänzlich fallen, was bei manchen Anwendern für Missfallen sorgt.


Klägerin: Apples Produkte „fehlerhaft“
Eine 27-jährige Frau reichte bei einem Gericht in Nordkalifornien Klage gegen Apple ein. Der Konzern habe sein Versprechen gebrochen, Opfer von sexueller Gewalt zu schützen, indem er von seinen CSAM-Plänen abgerückt sei. Da die von Cupertino angekündigten Schutzmechanismen nie implementiert wurden, bezeichnet sie die Produkte des Unternehmens als „fehlerhaft“. Die Klägerin gibt an, selbst ein Missbrauchsopfer zu sein. Apples Rückzug habe zur Folge, dass Betroffene ihre Traumata immer wieder durchleben müssten. Bilder ihres Missbrauchs seien zuletzt auf einem MacBook im US-Bundesstaat Vermont aufgetaucht, ihrem Anwalt zufolge befinden sich die Aufnahmen in der iCloud.

Apple verweist auf Maßnahmen
Ziel der Klage sei die Entschädigung einer Gruppe von 2.860 Opfern, wie die New York Times berichtet. Sollte Apple tatsächlich haftbar gemacht werden, droht dem Unternehmen die Zahlung von Schadensersatz in Höhe von etwa 1,2 Milliarden US-Dollar. Cupertino äußerte sich in dieser Angelegenheit: CSAM sei abscheulich. Das Unternehmen entwickle aktiv Innovationen, um Verbrechen dieser Art zu bekämpfen, ohne dabei die Sicherheit und Privatsphäre aller Nutzer zu gefährden. So habe man etwa bestimmte Tools eingeführt, um die Verbreitung illegaler Bilder zu unterbinden: In den Einstellungen des iPhones findet sich beispielsweise die Möglichkeit, Warnungen zu aktivieren, wenn das Gerät Nacktbilder identifiziert.

Kommentare

Hanterdro10.12.24 13:44
Die Spinnen, die Amis. Gegen sowas kann man auch nur in den USA klagen
+28
Mac-Trek
Mac-Trek10.12.24 14:20
Das stimmt. Hätte Apple das Feature damals dennoch implementiert, hätte es dort vermutlich die gegenseitige Klage, von wegen Ausspionieren bzw. Datenschutzmißbrauch, gegeben. Verrückte Welt.
Live long and *apple* . Mögliche Rechtschreibfehler und grammatikalische Entgleisungen sind Gratisgeschenke. Jegliches Nörgeln ist Energieverschwendung >:-]...
+12
evanbetter
evanbetter10.12.24 15:27
Ich kann mir gut vorstellen, dass die Dame eine ausgesuchte Galleonsfigur von Drahtziehern (von Google bis Microsoft und darüberhinaus alles möglich) ist.
Wer zuletzt lacht, hat's zuletzt geschnallt.
-1
Macmissionar10.12.24 15:41
Hoffentlich geht die Furie sang- und klanglos unter und die Klage wird vollends abgewiesen.
A Mac is like a Wigwam: No Windows, no Gates, no Backdoors, Peace, Harmony – and an Apache inside.
+1
Fontelster10.12.24 15:55
Macmissionar
Hoffentlich geht die Furie sang- und klanglos unter und die Klage wird vollends abgewiesen.

Eine missbrauchte Frau Furie zu nennen … du bist echt ein Frauenversteher.
-4
MOTIVHIMMEL
MOTIVHIMMEL10.12.24 16:05
Das ist schon etwas verrückt. 2.860 Opfer im Verhältnis zu 1,46 Milliarden aktiven iPhone-Nutzer, die mit diesem System komplett ausspioniert worden wären. (https://www.grabon.in/indulge/statistics/iphone-users-and-sales-statistics/?t).

Ich muss immer wieder daran denken das ich von meinen Kindern auch mal das eine oder andere Bild mache, wo sie keine Textilien tragen, was völlig normal ist bei jüngeren Kindern (und nein, meine Fotos kommen nicht in die iCloud, sondern bleiben auf dem Gerät / Computer). Und dann stuft so ein Scansystem die Fotos auf einmal als Kinderporno ein, irgendjemand bekommt das dann als Vorlage zur Prüfung, schaltet die Behörden ein und ich bekomme als Elternteil auf einmal Besuch?

Das ist so als würde einmal im Jahr eine Behördenbeauftragter bei mir in die Wohnung kommen und sich alle Familienfotos sichten, die wir so gemacht haben.
+10
Metty
Metty10.12.24 16:10
Ich will ja nicht bezweifeln, dass die Frau ein Missbrauchsopfer ist und schwer darunter leidet. Aber igendwie entzieht sich für mich der Zusammenhang zu Apple's CSAM Plänen. Apple hat im Jahr 2021 CSAM angekündigt und im Jahr 2022 wieder kassiert.
Die Frau ist 27 Jahre alt und wir reden hier von "Child Sexual Abuse". Also muss die Tat und damit die Aufnahme des Materials rund 10 Jahre oder mehr alt sein. Die Aufnahmen existieren also schon über 8 Jahre bevor Apple überhaupt CSAM ankündigte.
Und nun fällt der Frau ein, dass Apple doch viel Geld hat und das irgendwie thematisch passen könnte. Die Bilder des Missbrauchs sind auf einem MacBook irgendwo aufgetaucht. Wenn die wirklich aus der iCloud kommen, dann wäre ein Gericht vielleicht gut beraten den Account hinter dem iCloud Zugang festzustellen. Aber bei dem ist wahrscheinlich weniger Geld zu bekommen.
+13
dan@mac
dan@mac10.12.24 22:25
MOTIVHIMMEL
Das ist schon etwas verrückt. 2.860 Opfer im Verhältnis zu 1,46 Milliarden aktiven iPhone-Nutzer, die mit diesem System komplett ausspioniert worden wären. (https://www.grabon.in/indulge/statistics/iphone-users-and-sales-statistics/?t).
Komplett ausspioniert? Meinst du nicht du übertreibst da etwas um einen Punkt zu machen?
+2
aMacUser
aMacUser11.12.24 08:42
MTN
ihrem Anwalt zufolge befinden sich die Aufnahmen in der iCloud
Hat Apple nicht sogar einen Scan in iCloud drin? Oder täuscht mich da meine Erinnerung?
0
konnektor11.12.24 10:20
Fontelster
Macmissionar
Hoffentlich geht die Furie sang- und klanglos unter und die Klage wird vollends abgewiesen.

Eine missbrauchte Frau Furie zu nennen … du bist echt ein Frauenversteher.
Warum immer Schwarzweiß? Missbrauchsopfer sind nicht allein durch den Missbrauch Heilige, Missbrauchsopfer können sogar zu Tätern werden. Darf man das dann auch nicht benennen?
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.