Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Wichtige Ankündigung: Apple begräbt CSAM-Scan lokaler Fotos endgültig

Zur Bekämpfung kinderpornografischen Materials ist es bei den meisten Cloud-Anbietern üblich, sämtliche hochgeladenen Inhalte der Nutzer zu scannen. Eigentlich hatte es Apple gut gemeint und einen Weg eingeschlagen, der normalerweise aus datenschutztechnischer Sicht auch zu bevorzugen ist: lokale Verarbeitung von Daten. Allerdings schwante zum Zeitpunkt der Beschlussfassung offensichtlich wohl niemanden, was der Rufschaden sein würde. Statt des Cloud-Scans präsentierte Apple eine Lösung, die schon vor dem Upload Hashes mit bekanntem Material abgleicht. Was bei den meisten Anwendern ankam, war jedoch schlicht: Apple scannt in Zukunft alle meine Fotos direkt auf dem iPhone und wertet diese aus.


Apple musste schnell zurückrudern...
Im August 2021 angekündigt, sah sich Apple angesichts lautstarkem Protests dazu gezwungen, knapp vier Wochen später einen Kurswechsel zu verkünden. Das Feedback von Nutzern, Forschern und Interessenvertretern habe gezeigt, die geplanten Features zum Schutz von Kindern genauer durchdenken zu müssen, so die Stellungnahme im September 2001. Seitdem war es merkwürdig ruhig geworden und niemand wusste, ob Apple die Funktionalität komplett beerdigt oder nur pausiert hatte. Jetzt gibt es allerdings endlich Gewissheit, denn Apple äußerte sich in einer Stellungnahme klar. Dies erfolgte im Rahmen der Ankündigung, Ende-zu-Ende-Verschlüsselung deutlich auszubauen.

...und nimmt nun komplett Abstand
Nach umfangreichen Überlegungen und Diskussionen mit verschiedenen Interessensvertretern wolle man das Feature namens "Kommunikationssicherheit" ("Communication Safety") in iMessage zur Warnung vor Nacktdarstellungen ausbauen und zu erweitern. Gleichzeitig beende man aber den Versuch, "CSAM"-Erkennung (Child Sexual Abuse Material) in iCloud-Fotos zu implementieren. Kinder lassen sich auch ohne Durchforsten privater Fotosammlungen schützen, so die neue Überzeugung. Apple arbeite weiterhin daran, das Internet zu einem sichereren Platz für uns alle zu machen, gleichzeitig aber ein Maximum an Privatsphäre zu schaffen.

Kommentare

MetallSnake
MetallSnake07.12.22 20:40
MTN (fen)
in iMessage zur Warnung vor Nacktdarstellungen ausbauen.

"ausbauen" ist zweideutig, und in diesem Fall besonders verwirrend. Es ist gemeint dass es erweitert werden soll.
Klingt im Zusammenhang mit dem entfernen von CSAM erstmal so als würde es auch entfernt werden.
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
-11
Wurzenberger
Wurzenberger07.12.22 21:34
Nice
-2
clayman07.12.22 21:42
zweitbeste Nachricht heute und 2022.

Und sympathisch, dass Apple halt auch einsieht, dass sie auf dem falschen Weg unterwegs waren. Heutzutage leider eine Seltenheit geworden.
+26
jeti
jeti07.12.22 22:04
Gut so!
+7
8.6
8.608.12.22 09:13
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.
-5
deus-ex
deus-ex08.12.22 09:32
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.
Der Scan wäre lokal auch nur aktiv gewesen wenn iCloud Foto aktiviert worden wäre.
+4
Cracymike
Cracymike08.12.22 09:32
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.

Weil die Daten die gescannt werden so nicht bereits hochgeladen sind sind, allerdings war der Ursprüngliche Plan ja nur dann zu scannen wen die Daten in die Cloud verschoben werden. Hast du die Cloud aus wäre auch kein Scan erfolgt.

Das dabei größere Problem war aber das in die Datenbank der Bekannten Bilder hätte per "Anweisung" eingegriffen werden können um auch nach anderem material zu suchen.

Letztendlich eine Automatik für das Manuelle durchsuchen nach Protestbildern durch Beamte, wie es nach Berichten wohl in China jetzt statt gefunden haben soll.

Und obwohl der Ursprüngliche Gedanke des Kinderschutzes sicherlich ehrenwert war, so ist es sehr gut das Apple das Thema beerdigt hat.
+7
clayman08.12.22 09:33
Was sind denn das für Aussagen? Hier schaut sich kein Konzern auch nur irgendwas auf deinem Handy an. Hast du den Artikel überhaupt gelesen?

Das Thema wurde begraben und das ist gut so!
+1
MetallSnake
MetallSnake08.12.22 09:39
clayman
Was sind denn das für Aussagen? Hier schaut sich kein Konzern auch nur irgendwas auf deinem Handy an. Hast du den Artikel überhaupt gelesen?

Das Thema wurde begraben und das ist gut so!

Auf wen beziehst du dich? Ich kann hier niemanden finden der etwas anderes behauptet hätte.
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
0
clayman08.12.22 09:41
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.

Darauf
-3
8.6
8.608.12.22 09:51
deus-ex
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.
Der Scan wäre lokal auch nur aktiv gewesen wenn iCloud Foto aktiviert worden wäre.

Ah, ok. Danke. Mich irritierte die Behauptung im Artikel, dass lokales Scannen besser wäre als Claud scannen.
-1
MetallSnake
MetallSnake08.12.22 09:52
clayman
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.

Darauf

Das war halt das vorhaben. Er fragt warum die eine Variante besser sein sollte als die andere.
Wo ist dein Problem?
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
0
clayman08.12.22 10:14
MetallSnake
clayman
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.

Darauf

Das war halt das vorhaben. Er fragt warum die eine Variante besser sein sollte als die andere.
Wo ist dein Problem?
Keine Ahnung wo dein Problem ist.

Sein Kommentar bezog sich auf eine News in der die Rede davon ist überhaupt nichts mehr seitens Apple zu scannen.
-2
chonno08.12.22 10:59
vllt war die ganze „Angelegenheit“ einfach gut dazu, die User einfach für das Einfordern von mehr Datenschutz zu sensibilisieren.

Die Meisten kapieren ja noch nicht einmal, dass eine unverschlüsselte Mail wie ein quasi Postkartenversand ist – alles für andere lesbar.

Mir persönlich fehlt jetzt einfach die Implementierung der Mailverschlüsselung selbst; frage mich ohenhin warum man Unternehmen noch nicht verschlüsselte Mails zustellen kann.

Also @Apple. Ran an die Arbeit.
0
MetallSnake
MetallSnake08.12.22 11:19
clayman
Sein Kommentar bezog sich auf eine News in der die Rede davon ist überhaupt nichts mehr seitens Apple zu scannen.

Und dann darf man nicht mehr fragen wieso die das vorhatten?
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
0
clayman08.12.22 12:09
MetallSnake
clayman
Sein Kommentar bezog sich auf eine News in der die Rede davon ist überhaupt nichts mehr seitens Apple zu scannen.

Und dann darf man nicht mehr fragen wieso die das vorhatten?
Er darf hier alles fragen und ich darf das kommentieren. Oder bist du jetzt die Forumspolizei?
-1
adiga
adiga08.12.22 12:16
8.6
deus-ex
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.
Der Scan wäre lokal auch nur aktiv gewesen wenn iCloud Foto aktiviert worden wäre.

Ah, ok. Danke. Mich irritierte die Behauptung im Artikel, dass lokales Scannen besser wäre als Claud scannen.
Das ist keine Behauptung. Aus Datenschutzgründen ist es besser, wenn es Dein Handy macht und die Daten von anderen nicht eingesehen werden können, als wenn es auf einer Cloud passiert, wo Du nicht weisst, wer alles Einblick hat.
+1
MetallSnake
MetallSnake08.12.22 12:20
clayman
Er darf hier alles fragen und ich darf das kommentieren. Oder bist du jetzt die Forumspolizei?

Es geht darum dass du schriebst:
clayman
Was sind denn das für Aussagen? Hier schaut sich kein Konzern auch nur irgendwas auf deinem Handy an. Hast du den Artikel überhaupt gelesen?

was halt überhaupt nicht zu seiner Frage passte.

Darfst du natürlich, aber ist kompletter unsinn, deshalb versuchte ich zu verstehen was du überhaupt meinen könntest.
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
-2
cps08.12.22 12:33
Vorbehaltlich gesetzlicher Regelungen. Wenn die kommen sollten, wird auch Apple auf Endgeräten scannen müssen.
-1
8.6
8.608.12.22 12:56
adiga
8.6
deus-ex
8.6
Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?

Die Claud kann ich ausschalten.
Der Scan wäre lokal auch nur aktiv gewesen wenn iCloud Foto aktiviert worden wäre.

Ah, ok. Danke. Mich irritierte die Behauptung im Artikel, dass lokales Scannen besser wäre als Claud scannen.
Das ist keine Behauptung. Aus Datenschutzgründen ist es besser, wenn es Dein Handy macht und die Daten von anderen nicht eingesehen werden können, als wenn es auf einer Cloud passiert, wo Du nicht weisst, wer alles Einblick hat.

Mein Handy legt Indexe an und so. Oder scannt Ablaufdaten von Bezahl Apps. Das ist ja ok.
Aber ich möchte nicht, dass mein Handy auf irgendwelche politischen, gesellschaftlichen Themen einen Hash drüberlegt und bei geeigneten Momenten zur Überprüfung an irgendwen sendet.
+1
clayman08.12.22 13:19
seine Frage lautete: "Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?"

Die Aussage in der News lautet: " Apple begräbt CSAM-Scan lokaler Fotos endgültig"

Damit impliziert seine Frage, dass ein Konzern, respektive Apple, Bilder auf seinem Handy durchsuchen würde, was defacto nicht passiert.

Das steht auch im Artikel, weshalb ich hinwies bzw. fragte, ob er diesen gelesen hätte.

MetallSnake
clayman
Er darf hier alles fragen und ich darf das kommentieren. Oder bist du jetzt die Forumspolizei?

Es geht darum dass du schriebst:
clayman
Was sind denn das für Aussagen? Hier schaut sich kein Konzern auch nur irgendwas auf deinem Handy an. Hast du den Artikel überhaupt gelesen?

was halt überhaupt nicht zu seiner Frage passte.

Darfst du natürlich, aber ist kompletter unsinn, deshalb versuchte ich zu verstehen was du überhaupt meinen könntest.
-1
MetallSnake
MetallSnake08.12.22 13:36
clayman
seine Frage lautete: "Warum ist es angeblich besser, wenn ein Konzern bereits auf meinem Handy meine Bilder anschaut?"

Die Aussage in der News lautet: " Apple begräbt CSAM-Scan lokaler Fotos endgültig"

Damit impliziert seine Frage, dass ein Konzern, respektive Apple, Bilder auf seinem Handy durchsuchen würde, was defacto nicht passiert.

Das steht auch im Artikel, weshalb ich hinwies bzw. fragte, ob er diesen gelesen hätte.

Nein das impliziert seine Frage nicht. Es ging um das was Apple vorhatte. Warum wäre es besser wenn Apple bereits auf dem Handy die Bilder anschaut, als wenn sie es in der Cloud täten.
In seiner Frage ist nirgends rauszulesen dass irgendwer das nun tatsächlich macht.
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
-1
clayman08.12.22 13:43
hm okay, wenn du deine Meinung für allgemein gültig erklärst, dann hab ich natürlich schlechte Karten.

ich frag dich zukünftig vorher, bevor ich meine persönliche Interpretation poste, ob das auch in Ordnung für dich ist.

Du scheinst ja hier der Ordnungshüter für den Post zu sein, lustigerweise ist der betroffene Poster nicht mal drauf eingegangen, du aber schon.
-4
8.6
8.608.12.22 14:03
clayman
hm okay, wenn du deine Meinung für allgemein gültig erklärst, dann hab ich natürlich schlechte Karten.

ich frag dich zukünftig vorher, bevor ich meine persönliche Interpretation poste, ob das auch in Ordnung für dich ist.

Du scheinst ja hier der Ordnungshüter für den Post zu sein, lustigerweise ist der betroffene Poster nicht mal drauf eingegangen, du aber schon.

Er hat doch alles erklärt. Ich auch.

Da steht: „ Eigentlich hatte es Apple gut gemeint und einen Weg eingeschlagen, der normalerweise aus datenschutztechnischer Sicht auch zu bevorzugen ist: lokale Verarbeitung von Daten.“

Und genau das war meine Frage. Wie kommt der Autor auf die Idee, lokales scannen soll besser sein als claud scannen?
Zweite Frage: Warum soll man angeblich bloß zwischen zwei gleichermaßen schlechten Möglichkeiten wählen, statt zu sagen: Kein Scannen wäre am besten! ?
-6
clayman08.12.22 14:16
Hey endlich meldet sich der Thread Ersteller.

Du hast dich auf die ursprünglichen Pläne bezogen, nicht auf den Text in den News.

Danke für deine Erklärung, dann hatte ich das tatsächlich falsch verstanden, sorry.

Aber wichtig ist und bleibt: Es findet kein Scan statt, weder lokal noch in der Cloud. Und das zählt

8.6
clayman
hm okay, wenn du deine Meinung für allgemein gültig erklärst, dann hab ich natürlich schlechte Karten.

ich frag dich zukünftig vorher, bevor ich meine persönliche Interpretation poste, ob das auch in Ordnung für dich ist.

Du scheinst ja hier der Ordnungshüter für den Post zu sein, lustigerweise ist der betroffene Poster nicht mal drauf eingegangen, du aber schon.

Er hat doch alles erklärt. Ich auch.

Da steht: „ Eigentlich hatte es Apple gut gemeint und einen Weg eingeschlagen, der normalerweise aus datenschutztechnischer Sicht auch zu bevorzugen ist: lokale Verarbeitung von Daten.“

Und genau das war meine Frage. Wie kommt der Autor auf die Idee, lokales scannen soll besser sein als claud scannen?
Zweite Frage: Warum soll man angeblich bloß zwischen zwei gleichermaßen schlechten Möglichkeiten wählen, statt zu sagen: Kein Scannen wäre am besten! ?
0
teorema67
teorema6708.12.22 14:56
Wichtige Ankündigung: Apple begräbt CSAM-Scan lokaler Fotos endgültig

Eine gute Entscheidung. Die Durchsuchung lokaler Massenspeicher wäre von hiesigen Gerichten eh gekippt worden.

CSAM finde ich völlig OK - wenn sich Apple an die Gesetze hält und vor dem Scannen einen richterlichen Beschluss erwirkt.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
-2
teorema67
teorema6709.12.22 04:24
Übler Lapsus
teorema67
... CSAM finde ich völlig OK ...

Muss heißen: CSAM-Scan auf privaten Geräten finde ich völlig OK - wenn sich Apple an die Gesetze hält und vor dem Scannen einen richterlichen Beschluss erwirkt.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
-2
RyanTedder09.12.22 10:30
Das klang auf dem Papier auch schon schwer Umsetzbar und wäre bestimmt im Chaos geendet, wenn es doch gekommen wäre. Zuverlässig funktioniert hätte es doch bestimmt sowieso nicht.
-1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.