Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples Foto-Analyse: iPhone-Konzern regiert mit FAQ auf Kritik

Apple will in Zukunft bekanntlich verstärkt gegen kinderpornografisches Material auf iPhones und iPads vorgehen. Zudem scannt das Unternehmen demnächst auch in iMessage-Chats nach Inhalten, welche das Kindeswohl gefährden. Details zur Ausgestaltung der vor wenigen Tagen für iOS 15 angekündigten Maßnahmen nennt der iPhone-Konzern in mehreren gleichzeitig veröffentlichten Dokumenten (siehe ). Diese enthalten auch technische Details der geplanten "Expanded Protections for Children".


Apple antwortet mit FAQ auf vorgebrachte Kritik
Zusätzlich hat Apple jetzt eine Zusammenfassung ( PDF-Datei) bereitgestellt, welche die wichtigsten Aspekte in Form von Antworten auf häufig gestellte Fragen beleuchtet. Der iPhone-Konzern reagiert mit diesen FAQ auch auf die Kritik von Datenschützern und Menschenrechtsorganisationen. Wegen der vorgestellten Maßnahmen waren in den vergangenen Tagen etwa der Whistleblower Edward Snowden und die Electronic Frontier Foundation (EFF) hart mit Apple ins Gericht gegangen. Einige der dabei vorgebrachten Argumente gegen das Vorhaben greift Apple in dem neuen Dokument auf und versucht sie zu entkräften.

iPhone-Konzern schließt Ausweitung der Scans aus
Der Befürchtung, die zunächst in den USA auf iPhones durchgeführte Foto-Analyse könne künftig auch zu anderen Zwecken etwa gegen Regimekritiker oder die LGBTQ-Community eingesetzt werden, tritt Apple in den FAQ entgegen. Das Verfahren sei so gestaltet, dass es sich ausschließlich mit Hashes von Bildern nutzen lasse, die von Kinderschutzorganisationen wie der US-amerikanischen NCMEC zur Verfügung gestellt werden. Sollten Regierungen verlangen, die Smartphones und Tablets aus Cupertino nach anderen Inhalten zu durchsuchen, wird Apple sich derartigen Ansinnen nach eigenen Angaben strikt verweigern. Das Einschleusen von Bild-Hashes, die nicht von der NCMEC oder vergleichbaren anerkannten Organisationen stammen, verhindere das System, so der iPhone-Konzern.

Apple: Verschlüsselung wird nicht ausgehebelt
Dass die unter bestimmten Voraussetzungen durchgeführten Scans von iMessage-Chats die Ende-zu-Ende-Verschlüsselung aushebeln, streitet Apple kategorisch ab. Diese Befürchtung war unter anderem von der EFF geäußert worden (siehe ). Man habe keinen Zugriff auf die Inhalte der Kommunikation, so der iPhone-Konzern. Lediglich Eltern, welche die Funktion für die Accounts ihrer unter 13 Jahre alten Kinder aktivierten, erhielten nach der Erkennung eine Mitteilung über möglicherweise sexuell konnotierte Bilder. Die Kinder selbst würden zudem vor dem Abschicken oder Ansehen der Fotos darauf aufmerksam gemacht. Bei iMessage-Nutzern im Alter von 13 bis 17 Jahren erfolge keine Benachrichtigung der Erziehungsberechtigten. Die Texte empfangener oder verschickter Nachrichten würden in keinem Fall analysiert, so Apple.

Kommentare

Maniacintosh
Maniacintosh09.08.21 16:08
Das Verfahren sei so gestaltet, dass es sich ausschließlich mit Hashes von Bildern nutzen lasse, die von Kinderschutzorganisationen wie der US-amerikanischen NCMEC zur Verfügung gestellt werden.

Da wäre ich an der technischen Umsetzung interessiert, die das wirklich garantiert. Auch die Aussage, dass man wenn manche Regimes hier weitere Hashes fordern, dies strikt abzulehnen, könnten durch entsprechende gesetzliche Regelungen wertlos sein.

Was macht Apple denn im Zweifel, wenn z.B. China Zugang zu dem System fordert und die Alternativen für Apple lauten mitspielen oder eben in China nicht mehr zu verkaufen und zu produzieren?
+25
clayman09.08.21 16:13
ich teile deine Befürchtungen. Genau an dieser Frage wird sich Apple messen lassen müssen, um auch nur annähernd den aktuell entstandenen Vertrauensverlust wieder wett zu machen.....
Maniacintosh
Das Verfahren sei so gestaltet, dass es sich ausschließlich mit Hashes von Bildern nutzen lasse, die von Kinderschutzorganisationen wie der US-amerikanischen NCMEC zur Verfügung gestellt werden.

Da wäre ich an der technischen Umsetzung interessiert, die das wirklich garantiert. Auch die Aussage, dass man wenn manche Regimes hier weitere Hashes fordern, dies strikt abzulehnen, könnten durch entsprechende gesetzliche Regelungen wertlos sein.

Was macht Apple denn im Zweifel, wenn z.B. China Zugang zu dem System fordert und die Alternativen für Apple lauten mitspielen oder eben in China nicht mehr zu verkaufen und zu produzieren?
+8
Urkman09.08.21 16:28
Maniacintosh
Was macht Apple denn im Zweifel, wenn z.B. China Zugang zu dem System fordert und die Alternativen für Apple lauten mitspielen oder eben in China nicht mehr zu verkaufen und zu produzieren?

Meint ihr nicht, das solche Anfragen bzw. Forderungen zu Backdoors nicht schon zu Hauf an alle Betriebssystemanbieter gegangen sind...
+12
clayman09.08.21 16:32
gut möglich, aber keiner ist damit so transparent umgegangen wie Apple 😂

Keine Ahnung, ich bin bei dem ganzen Thema hin und hergerissen.

Mir wäre eine e2e verschlüsselte iCloud ohne Device Scanning am liebsten und das bei gleichem aktuellen Komfort (Apples Goldender Käfig)
Urkman
Maniacintosh
Was macht Apple denn im Zweifel, wenn z.B. China Zugang zu dem System fordert und die Alternativen für Apple lauten mitspielen oder eben in China nicht mehr zu verkaufen und zu produzieren?

Meint ihr nicht, das solche Anfragen bzw. Forderungen zu Backdoors nicht schon zu Hauf an alle Betriebssystemanbieter gegangen sind...
0
Darko Damjanovic09.08.21 16:33
Auf was hier nicht eingegangen wird ist die Möglichkeit einem Benutzer irgendwelche Bilder unterzuschieben. Z.b. kann man vom Lockscreen aus Fotos machen _ohne_ das das iPhone vorher entsperrt wurde. Und das kann man auch nicht deaktivieren in den Settings. Ein Angreifer der das iPhone physisch in die Hände bekommt könnte einfach Fotos von bestehenden CSAM Fotos machen - die daraufhin automatisch in der iCloud Library landen.

So könnte man ganz leicht unliebsame Menschen aus dem Verkehr ziehen. (Politiker, Journalisten, etc...)
+10
Borimir09.08.21 16:36
Darko Damjanovic
Auf was hier nicht eingegangen wird ist die Möglichkeit einem Benutzer irgendwelche Bilder unterzuschieben. Z.b. kann man vom Lockscreen aus Fotos machen _ohne_ das das iPhone vorher entsperrt wurde. Und das kann man auch nicht deaktivieren in den Settings. Ein Angreifer der das iPhone physisch in die Hände bekommt könnte einfach Fotos von bestehenden CSAM Fotos machen - die daraufhin automatisch in der iCloud Library landen.

So könnte man ganz leicht unliebsame Menschen aus dem Verkehr ziehen. (Politiker, Journalisten, etc...)
Ach komm...das kann man verhindern:

-10
Darko Damjanovic09.08.21 16:42
Borimir
Ach komm...das kann man verhindern:

Damit deaktivierst du nicht die Kamera nur am Lockscreen - sondern im gesamten System. Die Kamera App ist dann nirgends mehr aktivierbar.
+13
Darko Damjanovic09.08.21 16:43
Unterschriftensammlung mit Unterzeichnung wie Edwards Snowden, etc... jeder kann hier unterzeichnen solange man einen GitHub Account hat:

https://appleprivacyletter.com
+1
Nebula
Nebula09.08.21 16:46
Keine technisches Schutzsystem hat sich je als absolut sicher erwiesen. Menschen machen Fehler und können nicht alles durchdenken. Siehe Fukushima. Niemand dachte da, dass es einen so langen Stromausfall geben könnte, dass der Wasserpegelmesser unter bestimmten Umständen falsche Werte liefert oder dass sich ein bestimmtes Ventil schließt, wenn der Strom ausfällt.
»Wir werden alle sterben« – Albert Einstein
+10
Wellenbrett09.08.21 16:47
Borimir
Darko Damjanovic
Auf was hier nicht eingegangen wird ist die Möglichkeit einem Benutzer irgendwelche Bilder unterzuschieben. Z.b. kann man vom Lockscreen aus Fotos machen _ohne_ das das iPhone vorher entsperrt wurde. Und das kann man auch nicht deaktivieren in den Settings. Ein Angreifer der das iPhone physisch in die Hände bekommt könnte einfach Fotos von bestehenden CSAM Fotos machen - die daraufhin automatisch in der iCloud Library landen.

So könnte man ganz leicht unliebsame Menschen aus dem Verkehr ziehen. (Politiker, Journalisten, etc...)
Ach komm...das kann man verhindern:

Ich zitiere mal aus der von Dir verlinkten Seite:
"Bitte beachtet, dass die hier aufgezeigte Einstellung die Kamera-App komplett – also auch im Homescreen – deaktiviert! Dies ist zur Zeit die einzige Lösung, um die Kamera-Funktion im Lockscreen abzuschalten...."
Um dem von Darko Damjanovic beschriebenen Angriffsvektor zu entgehen, muss man also zum einen wissen was zu tun ist und hat dann ein iPhone praktisch ohne Kamera.
P.S. ich sehe gerade, Darko Damjanovic hat selbst schon darauf hingewiesen, während ich meinen Beitrag getippt hatte.
+7
Nightraider09.08.21 16:50
Urkman
Maniacintosh
Was macht Apple denn im Zweifel, wenn z.B. China Zugang zu dem System fordert und die Alternativen für Apple lauten mitspielen oder eben in China nicht mehr zu verkaufen und zu produzieren?

Meint ihr nicht, das solche Anfragen bzw. Forderungen zu Backdoors nicht schon zu Hauf an alle Betriebssystemanbieter gegangen sind...

Vielleicht liegt die Forderung in diesem Fall vor und Apple versucht dem mit dieser Lösung nachzukommen… und in den USA dürfen doch bestimmte Forderungen der Regierung noch nicht mal öffentlich gemacht werden…oder?

Für mich ist das jedenfalls ein Dammbruch!
+8
Borimir09.08.21 16:51
Darko Damjanovic
Borimir
Ach komm...das kann man verhindern:

Damit deaktivierst du nicht die Kamera nur am Lockscreen - sondern im gesamten System. Die Kamera App ist dann nirgends mehr aktivierbar.
Ups..überlesen. Wieder was gelernt. Vielen Dank für die Info!
+1
Buginithi
Buginithi09.08.21 16:52
Die EU Kommission arbeitet schon an einem Gesetz
https://www.patrick-breyer.de/beitraege/nachrichtendurchleuchtung/
+1
frankh09.08.21 17:01
Mit den Erklärungen macht apple es nur schlimmer. Sie haben einfach nicht das Recht, festzulegen wem sie unter welchen Bedingungen private Daten geben. Im Rechtsstaat ordnet ein Richter eine Durchsuchung an. Nicht eine Firma.

Es hieß auch, dass die Software verdächtige Fotos zunächst von Mitarbeitern prüfen lässt (vermutlich um false postives auszuschließen).
Ah, so. Da wird dann also ein Praktikant in irgendeinem Billiglohnland zum Teil der Executiven gemacht. Große Klasse...
+9
chevron
chevron09.08.21 17:05
Es wäre wünschenswert, wenn sich Apple offenkundig dazu verpflichtet, sämtliche staatlichen Anfragen (selbst wenn diese von Apple abgelehnt werden) der Öffentlichkeit bekannt zu geben. Damit meine ich nicht die behördlich angeordnete individuelle Dateneinsicht im Sinne einer Strafverfolgung, sondern vielmehr grundsätzliche Anfragen, die potentiell eine große Anzahl von Usern betreffen.
+3
Borimir09.08.21 17:23
Naja...Apple kann aber entscheiden, dass Bilder, bevor diese auf Apples Server übertragen werden, überprüft werden. Dies kann einfacher Bestandteil der Nutzungsbedingungen für den entsprechenden Dienst sein, oder irre ich da?

Also in etwa wie.... du darfst hier einkaufen (Supermarkt) aber nicht mit Koks dealen.
-1
clayman09.08.21 17:26
es wurde ja auch schon spekuliert, dass im Gegenzug die iCloud e2e verschlüsselt wird....
Borimir
Naj...Apple kan aber entscheiden, dass Bilder, bevor diese auf Apples Server übertragen werden, überprüft werden. Dies kann einfacher Bestandteil der Nutzungsbedingungen für den entsprechenden Dienst sein, oder irre ich da?

Also in etwa wie.... du darfst hier einkaufen (Supermarkt) aber nicht mit Koks dealen.
+2
Paddy259009.08.21 17:35
MTN
Man habe keinen Zugriff auf die Inhalte der Kommunikation, so der iPhone-Konzern. Lediglich Eltern, welche die Funktion für die Accounts ihrer unter 13 Jahre alten Kinder aktivierten, erhielten nach der Erkennung eine Mitteilung über möglicherweise sexuell konnotierte Bilder. Die Kinder selbst würden zudem vor dem Abschicken oder Ansehen der Fotos darauf aufmerksam gemacht. Bei iMessage-Nutzern im Alter von 13 bis 17 Jahren erfolge keine Benachrichtigung der Erziehungsberechtigten. Die Texte empfangener oder verschickter Nachrichten würden in keinem Fall analysiert, so Apple.

Das macht keinen Sinn, oder irre ich mich? Wenn Apple keinen Zugriff auf die Inhalte der Kommunikation hat, wie können dann verschlüsselte Bilder überprüft werden?

Oder werden die Bilder im entschlüsselten Zustand auf dem Gerät des Absenders/Empfängers gescannt? Das wäre aber auch nicht besser, weil Apple ja dann gleichwohl die Kommunikation „mitließt“, eben nicht während des Versendens, sondern davor oder danach. Die Verschlüsselung soll aber doch gerade verhindern, dass irgendwer (auch Apple) mitlesen kann.

Auch diese FAQ machen die Sache nicht besser…
0
Holly
Holly09.08.21 17:53
…und als nächstes kommt dann ein Algorithmus der auf deiner Festplatte deine Steuererklärung überprüft und bei Verdacht auf Steuerhinterziehungen ruft Apple FBI OPEN UP!!!!
-1
clayman09.08.21 17:53
steht doch ganz klar drin , dass bei iMessage der Scan ausschließlich on device stattfindet und keine Informationen an Apple gehen. Eine Benachrichtigung der Eltern ist optional aktivierbar.
Paddy2590
MTN
Man habe keinen Zugriff auf die Inhalte der Kommunikation, so der iPhone-Konzern. Lediglich Eltern, welche die Funktion für die Accounts ihrer unter 13 Jahre alten Kinder aktivierten, erhielten nach der Erkennung eine Mitteilung über möglicherweise sexuell konnotierte Bilder. Die Kinder selbst würden zudem vor dem Abschicken oder Ansehen der Fotos darauf aufmerksam gemacht. Bei iMessage-Nutzern im Alter von 13 bis 17 Jahren erfolge keine Benachrichtigung der Erziehungsberechtigten. Die Texte empfangener oder verschickter Nachrichten würden in keinem Fall analysiert, so Apple.
Das macht keinen Sinn, oder irre ich mich? Wenn Apple keinen Zugriff auf die Inhalte der Kommunikation hat, wie können dann verschlüsselte Bilder überprüft werden?

Oder werden die Bilder im entschlüsselten Zustand auf dem Gerät des Absenders/Empfängers gescannt? Das wäre aber auch nicht besser, weil Apple ja dann gleichwohl die Kommunikation „mitließt“, eben nicht während des Versendens, sondern davor oder danach. Die Verschlüsselung soll aber doch gerade verhindern, dass irgendwer (auch Apple) mitlesen kann.

Auch diese FAQ machen die Sache nicht besser…
+2
Holly
Holly09.08.21 17:56
Paddy2590
Oder werden die Bilder im entschlüsselten Zustand auf dem Gerät des Absenders/Empfängers gescannt? Das wäre aber auch nicht besser, weil Apple ja dann gleichwohl die Kommunikation „mitließt“, eben nicht während des Versendens, sondern davor oder danach. Die Verschlüsselung soll aber doch gerade verhindern, dass irgendwer (auch Apple) mitlesen kann.

Auch diese FAQ machen die Sache nicht besser…

So wie ich das Verstehen habe läuft das alles lokal auf deinem Gerät.
+2
slevin
slevin09.08.21 18:00
Alle Kritikpunkte stimmen, und wer weiß was noch kommt. Erinnern wir uns an den Bug der die Ortungsdaten über die gesetzte Frist gespeichert hat. Ist mittlerweile die ausgenutzte Pegasus Lücke geschlossen, frage für die Journalisten.. Werden die Uiguren nicht mehr ausspioniert? Aber ja, stellen wir erstmal alle unter Generalverdacht, gibts ja sonst keine Probleme bei Apple…
+8
deus-ex
deus-ex09.08.21 18:22
Maniacintosh
Das Verfahren sei so gestaltet, dass es sich ausschließlich mit Hashes von Bildern nutzen lasse, die von Kinderschutzorganisationen wie der US-amerikanischen NCMEC zur Verfügung gestellt werden.

Da wäre ich an der technischen Umsetzung interessiert, die das wirklich garantiert. Auch die Aussage, dass man wenn manche Regimes hier weitere Hashes fordern, dies strikt abzulehnen, könnten durch entsprechende gesetzliche Regelungen wertlos sein.

Was macht Apple denn im Zweifel, wenn z.B. China Zugang zu dem System fordert und die Alternativen für Apple lauten mitspielen oder eben in China nicht mehr zu verkaufen und zu produzieren?
Dafür brauchts keine dann vorhandene Technik, da kann ein Staat auch vorschreiben etwas zu entwickeln, oder „Staatstools“ einzusetzten/zu verwenden.
0
teorema67
teorema6709.08.21 19:01
... Zudem scannt das Unternehmen demnächst auch in iMessage-Chats nach Inhalten, welche das Kindeswohl gefährden ...

Apple verfügt einfach über überlegene Forschungsmittel und kann das feststellen und bestimmen. Hat aber auf der anderen Seite selbst seinen Ruf als Gralshüter des Datenschutzes bereits heftig beschädigt.
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
+7
haschuk09.08.21 20:10
Borimir
Also in etwa wie.... du darfst hier einkaufen (Supermarkt) aber nicht mit Koks dealen.

Du darfst hier einkaufen. Aber ich werde permanent in meinem Laden Deine Hände nach Koks abscannen wenn Du sie aus der Hosentasche nimmst.
+4
haschuk09.08.21 20:11
teorema67
... Zudem scannt das Unternehmen demnächst auch in iMessage-Chats nach Inhalten, welche das Kindeswohl gefährden ...

Apple verfügt einfach über überlegene Forschungsmittel und kann das feststellen und bestimmen. Hat aber auf der anderen Seite selbst seinen Ruf als Gralshüter des Datenschutzes bereits heftig beschädigt.

Es ist wie mit jeder Statistik. Kommt Scheiße rein, kommt Scheiße raus. Da helfen keinerlei noch so überlegene Forschungsmittel.

Und führt weiter zur nichtbeantworteten Frage. Wie geht Apple in Ländern vor, die keine NGOs für diese Frage zulassen, sondern die Hashes über eine Regierungsorganisationen liefern.
+3
Sam Casel
Sam Casel09.08.21 20:29
Paddy2590
MTN
Man habe keinen Zugriff auf die Inhalte der Kommunikation, so der iPhone-Konzern. Lediglich Eltern, welche die Funktion für die Accounts ihrer unter 13 Jahre alten Kinder aktivierten, erhielten nach der Erkennung eine Mitteilung über möglicherweise sexuell konnotierte Bilder. Die Kinder selbst würden zudem vor dem Abschicken oder Ansehen der Fotos darauf aufmerksam gemacht. Bei iMessage-Nutzern im Alter von 13 bis 17 Jahren erfolge keine Benachrichtigung der Erziehungsberechtigten. Die Texte empfangener oder verschickter Nachrichten würden in keinem Fall analysiert, so Apple.

Das macht keinen Sinn, oder irre ich mich? Wenn Apple keinen Zugriff auf die Inhalte der Kommunikation hat, wie können dann verschlüsselte Bilder überprüft werden?

Oder werden die Bilder im entschlüsselten Zustand auf dem Gerät des Absenders/Empfängers gescannt? Das wäre aber auch nicht besser, weil Apple ja dann gleichwohl die Kommunikation „mitließt“, eben nicht während des Versendens, sondern davor oder danach. Die Verschlüsselung soll aber doch gerade verhindern, dass irgendwer (auch Apple) mitlesen kann.

Auch diese FAQ machen die Sache nicht besser…

Das würde mich auch interessieren…
+2
flumsi09.08.21 20:45
Das ganze stinkt gewaltig.
+3
JuL!09.08.21 22:09
Mir wäre wichtiger, dass Apple iPhones gegen Pegasus und Co schützt. Es wäre fatal, wenn auf leicht angreifbare iPhones entsprechende Bilder aufgespielt werden könnten...
+2
Niederbayern
Niederbayern09.08.21 22:22
dann wird eben künftig auf andere End to End verschlüsselte Messenger ausgewichen, was das verschicken von pornographischem Material betrifft (falls das nicht schon lange der Fall ist)🤔 und die Masse der 13-17 Jährigen nutzten zu geschätzten 99% Whats App.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.