Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Umstrittener Foto-Scan: Apple entfernt Ankündigung (Aktualisierung: Stellungnahme)

Im August hatte Apple mit einer geplanten neuen Funktion für großen Aufruhr gesorgt. Das Ziel lautete, den Austausch kinderpornografischen Materials zu bekämpfen. Die konkrete Umsetzung sollte unter besonderen Datenschutzaspekten stehen, denn anders als die meisten Cloud-Anbieter wollte Apple nicht sämtliche Dateien der Nutzer auf der iCloud scannen – sondern lokale Hashes vor dem Upload. Apple verfolgte somit den Weg, dass lokal durchgeführte Analysen höheren Datenschutz gewährleisten. Beispielsweise betont das Unternehmen auch in anderen Bereichen, auf Verarbeitung direkt auf dem Gerät anstatt in der Cloud zu setzen. Im Falle von "CSAM" (Child Sexual Abuse Material) hinterließ die Ankündigung indes einen schlechten Beigeschmack. Was bei den meisten Anwendern ankam, war schlicht: Apple scannt in Zukunft alle meine Fotos und wertet diese aus. Zudem wurde die Frage aufgeworfen, ob es die Aufgabe eines privatwirtschaftlichen Konzerns sei, sich in diese Art von Ermittlungsarbeit einzuschalten.


Apple entfernt Ankündigung der Funktion
Rund einen Monat dauerte es im Sommer, bis Apple nach lautstarken Protesten einen Kurswechsel bekannt gab. Apple schrieb dazu, man benötige mehr Zeit, um die Funktion zu entwickeln. Das Feedback von Nutzern, Forschern und Interessenvertretern habe gezeigt, die geplanten Features zum Schutz von Kindern genauer durchdenken zu müssen. Seitdem wurde es still um das umstrittene Feature, weder äußerte sich Apple ein weiteres Mal, noch ließen sich Anpassungen im System finden. Mit der Veröffentlichung von iOS 15.2 gab es zumindest eine Änderung. Apple entfernte nämlich oben zitierten Passus von den Kinderschutz-Webseiten und kündigt daher nicht mehr an, die Funktion weiterzuentwickeln oder in veränderter Form einführen zu wollen.

Noch in iOS 15.2 vorhanden: Die Hash-Funktion
Weiterhin vorhanden im System bleibt indes "NeuralHash", das Apple bereits mit iOS 14.3 und macOS 11.4 eingeführt hatte. Dies dient dem lokalen Abgleich, um die Hashes bekannter illegaler Bilder mit lokal gespeichertem Material abzugleichen. Genau diesen Punkt schrieb sich Apple eigentlich als "datenschutztechnisch sicher" auf die Fahnen, da eben nicht die Fotos, sondern deren Hashes verglichen werden. Nur, wenn mehrere Algorithmen anschlagen und mehr als 30 entsprechende Fotos vorliegen, die zum Upload in den Foto-Stream vorgesehen sind, greift die umstrittene Funktion nämlich.

Vermutlich: Pläne zu den Akten gelegt
Ob sich Apple von den Plänen vollständig verabschiedet hat, bleibt somit weiterhin unklar. Eine heimliche Einführung gilt angesichts der Diskussionen in den vergangenen Monaten als ziemlich unwahrscheinlich. Dass Apple nun auch den Passus entfernte, die Absichten zu überprüfen und zu überdenken, dürfte aber ein Hinweis sein. Gäbe es die zündende Idee, wie Apple stattdessen Austausch von CSAM via iCloud verhindern könnte, hätte das Unternehmen wohl mehr getan als nur eine Absichtserklärung gelöscht. Sofern Cupertino weiterhin entsprechendes Bildmaterial verhindern möchte, bleibt vermutlich nur der Weg von Microsoft, Google und anderen: Gescannt wird in der iCloud, nicht vorher.

Aktualisierung: Apples kurze Stellungnahme
Auf direkte Nachfrage hin erhält man von Apples Sprechern nun auch eine kurze Stellungnahme. Darin heißt es, Apple habe die Position von Anfang September nicht verändert ("the company’s position hasn’t changed since September"). Dies bedeutet, die Einführung nicht wie geplant erfolgt, aber auch nicht vollständig auf Eis liegt.

Kommentare

uLtRaFoX!
uLtRaFoX!15.12.21 10:42
Naja, wer's glaubt. Die Funktionalität wird dann eben einfach still und heimlich hinzugefügt, dank Closed Source kriegts dann ja auch keiner mit.

Einfach iCloud kündigen und zum Beispiel auf nextCloud migrieren, da hat man dann die volle Kontrolle über seine Daten.
-25
Mendel Kucharzeck
Mendel Kucharzeck15.12.21 10:48
uLtRaFoX!
Naja, wer's glaubt. Die Funktionalität wird dann eben einfach still und heimlich hinzugefügt, dank Closed Source kriegts dann ja auch keiner mit.

Wenn das auffliegt, wäre das für Apple ein PR-Supergau. Das werden die sicher nicht machen.
+31
MikeMuc15.12.21 11:16
Dabei wäre es doch "so einfach gewesen": Alles, was in die Cloud hochgeladen wird, wird unmittelbar vorm Upload gehasst und mit den einschlägigen Listen abgeglichen. Der User kriegt eine Info und die fraglichen Bilder werden nicht hochgeladen.
Damit hätte Apple den vermuteten Schweinkarm nicht auf seinen Servern und wäre glücklich. Wenn nun weiterhin die Scans erst auf dem Server passieren, so kostet es Apple halt Strom und Speicherplatz.
Da (in den USA) wohl alle Cloudanbieter zum Scan der Clouddaten verpflichtet sind, wird spätestens da weiter gescannt, Datenschutz hin oder her. Wer keinen Scann will, der muß halt sämtlichen Bilderupload in die Cloud aktiv abwürgen in den Einstellungen.
-3
Wellenbrett15.12.21 11:22
MikeMuc
Dabei wäre es doch "so einfach gewesen": Alles, was in die Cloud hochgeladen wird, wird unmittelbar vorm Upload gehasst und mit den einschlägigen Listen abgeglichen. Der User kriegt eine Info und die fraglichen Bilder werden nicht hochgeladen.
Damit hätte Apple den vermuteten Schweinkarm nicht auf seinen Servern und wäre glücklich....
In diesem Moment hätte Apple aber Kenntnis von einer Straftat erlangt. Je nach Rechtssystem dürfte es problematisch sein, dies für sich zu behalten, ohne die jeweiligen Strafverfolgungsbehörden zu informieren. Dazu noch die ethischen Aspekte: ich glaube nämlich nicht, dass Apple damit dann "glücklich" wäre.
+2
dam_j
dam_j15.12.21 12:03
Schade, hätte die Funktion begrüßt.
Das Leben ist Scheiße aber die Grafik ist geil !
-6
evanbetter
evanbetter15.12.21 12:51
dam_j
Schade, hätte die Funktion begrüßt.

Spannend, ich kann mir keinen einzigen Benefit darunter vorstellen. Die Bösen hätten ihre Sauereien anders gemacht und die Datengierigen hätten eine Backdoor in jedermanns Daten. Ich stelle mir zum Vergleich vor, dass ich um die Ecke ins Wohnzimmer komme und da steht jemand vor meinem geöffneten Regal und meint - "Ich prüf' nur schnell nach, ob Sie sauber sind". Das würde wahrscheinlich niemand wollen. Aber digital, unsichtbar und ohne Geruch, ist es den Menschen egal. Das macht absolut keinen Sinn.

Apple hätte Rückgrad zeigen sollen und öffentlich dementieren sollen, dass sie ihren Stasi-Kram einbauen. Ich habe Apple dermassen vertraut, als sie sich für den Datenschutz ihrer Kunden sogar auf riesigen Plakatkampagnen verpflichtet haben. "The customer is not our product" - aber vielleicht ist der Druck der Agenturen zu gross? Anyway - der Schaden ist da. Ich bin noch auf iOS 14 - das geht einfach nicht, was sie da machen. Ja, ich weiss, dass es auch schon auf iOS14 sein kann. Aber wenn wir alle jetzt mal 3 Monate gar nicht updated hätten, dann wäre da die kleine Hölle ausgebrochen in Cupertino.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+9
KJM
KJM15.12.21 13:42
Die Kinderschutzfunktion ist mit iOS 15.2 / macOS 12.1 angekommen, und die Fotos.app hat neue Erkennungs-Optionen erhalten. Gleichzeitig werden Hinweise auf das CSAM-Scannen entfernt. So stoppt man die Welle der Aufregung und hat doch alle technischen Voraussetzungen womöglich bereits angelegt.
-2
awk15.12.21 15:56
dam_j
Schade, hätte die Funktion begrüßt.

Eines unserer juristischen Grundprinzipien ist die Unschuldsvermutung. Die wird umgekehrt, jeder ist verdächtig schuldig zu sein. Das ist nicht akzeptabel.

Wohlwollend könnte man das naiv nennen, weniger wohlwollend, das ist faschistoid.

Der Hashwert eines Bildes ist leicht veränderbar, dazu benötigt man nur wenig. Die Interessengruppe die solche Bilder tauscht wird das wissen.

Bleibt noch die Frage, wie viele Anklagen und Festnahmen der Scan zur Folge hätte, vermutlich so gut wie keine. Daher ist die Massnahme auch völlig unverhältnismässig.
+11
Whizzbizz
Whizzbizz15.12.21 16:13
awk
dam_j
Schade, hätte die Funktion begrüßt.

Eines unserer juristischen Grundprinzipien ist die Unschuldsvermutung.
Wohlwollend könnte man das naiv nennen, weniger wohlwollend, das ist faschistoid.

Der Hashwert eines Bildes ist leicht veränderbar, dazu benötigt man nur wenig. Die Interessengruppe die solche Bilder tauscht wird das wissen.

So isses wohl.
(Mit "faschistoid" meinst du wohl das Gegenteil der Unschuldsvermutung: erstmal für schuldig plädieren.)
Reflect. Repent. Reboot. - Order Shall Return
+5
ww
ww15.12.21 16:27
awk
Eines unserer juristischen Grundprinzipien ist die Unschuldsvermutung. Die wird umgekehrt, jeder ist verdächtig schuldig zu sein. Das ist nicht akzeptabel.

Stimmt die Polizei scannt auch nicht deine Geschwindigkeit wenn sie Radarkontrolle machen, nur wenn es sehr schnell aussieht.

Auch wird auf jede Parkuhr geschaut, wäre ja möglich, dass sie abgelaufen ist.
-9
Wurzenberger
Wurzenberger15.12.21 19:00
ww
awk
Eines unserer juristischen Grundprinzipien ist die Unschuldsvermutung. Die wird umgekehrt, jeder ist verdächtig schuldig zu sein. Das ist nicht akzeptabel.

Stimmt die Polizei scannt auch nicht deine Geschwindigkeit wenn sie Radarkontrolle machen, nur wenn es sehr schnell aussieht.

Auch wird auf jede Parkuhr geschaut, wäre ja möglich, dass sie abgelaufen ist.
Das ist wohl kaum mit der regelmäßigen anlasslosen Durchsuchung persönlicher Daten zu vergleichen. Apple hat gefälligst die Finger von meinen Daten zu lassen.
+10
deus-ex
deus-ex15.12.21 20:52
uLtRaFoX!
Naja, wer's glaubt. Die Funktionalität wird dann eben einfach still und heimlich hinzugefügt, dank Closed Source kriegts dann ja auch keiner mit.

Einfach iCloud kündigen und zum Beispiel auf nextCloud migrieren, da hat man dann die volle Kontrolle über seine Daten.
Aluhut zu eng ab du Spinner. Denkst du das kommt nicht raus.
0
Gedankenschweif16.12.21 09:06
MikeMuc
Dabei wäre es doch "so einfach gewesen": Alles, was in die Cloud hochgeladen wird, wird unmittelbar vorm Upload gehasht und mit den einschlägigen Listen abgeglichen.
Und genau dieses überprüfen auf dem Gerät war doch der Grund für den großen Aufschrei.
Das Google, Amazon, Microsoft, etc. ALLE Daten auf deren Servern scannen (und die dabei gewonnenen Daten natürlich auch monetisieren) interessiert jedoch niemanden.
+9
Tirabo16.12.21 09:18
ww
awk
Eines unserer juristischen Grundprinzipien ist die Unschuldsvermutung. Die wird umgekehrt, jeder ist verdächtig schuldig zu sein. Das ist nicht akzeptabel.

Stimmt die Polizei scannt auch nicht deine Geschwindigkeit wenn sie Radarkontrolle machen, nur wenn es sehr schnell aussieht.

Auch wird auf jede Parkuhr geschaut, wäre ja möglich, dass sie abgelaufen ist.

Na klar, eine Kontrolle der Geschwindigkeit und eine Kontrolle der Parkuhr liegen dem gleichen Straftatbestand wie das Anfertigen und Besitzen von Kinderpornografie zu Grunde. Deshalb darf ja auch hier immer und überall eine Hausdurchsuchung ohne richterliche Erlaubnis gemacht werden. Also Vorsicht, morgen schon können sie in Deiner Wohnung stehen und einfach mal suchen!


Na Klar!!

Mein Gott, schaltet doch mal wenigstens nur mal kurz Euer Hirn an, wenn es dauerhaft schon nicht geht.
+11
Marcel Bresink16.12.21 09:41
awk
Der Hashwert eines Bildes ist leicht veränderbar, dazu benötigt man nur wenig.

Der Hash-Wert einer Bilddatei ist leicht veränderbar. Die Datei will Apple aber gar nicht scannen. Sie wollen stattdessen den Inhalt des Bildes hashen, also die Ergebnisse einer Bildklassifizierung per Künstlicher Intelligenz, nachdem Szenenerkennung, Personenerkennung, etc. durchgeführt wurden. Dabei werden jede Menge Fehler auftreten. Das ist ja genau eines der vielen Probleme, was dieses Vorhaben so hochgefährlich macht.
Gedankenschweif
Das Google, Amazon, Microsoft, etc. ALLE Daten auf deren Servern scannen (und die dabei gewonnenen Daten natürlich auch monetisieren) interessiert jedoch niemanden.

Doch, das weiß jeder und steht ja auch in den Nutzungsverträgen. Das ist aber selbstverständlich und deshalb harmlos, ganz im Gegensatz zu Apples Vorhaben.
+12
steve.it16.12.21 10:05
Mactechnews tippt eigentlich News nur von anderen ab. Scheint es aber nicht für nötig zu halten Quellen zu benennen.
-22
ww
ww16.12.21 11:21
Tirabo
Na klar, eine Kontrolle der Geschwindigkeit und eine Kontrolle der Parkuhr liegen dem gleichen Straftatbestand wie das Anfertigen und Besitzen von Kinderpornografie zu Grunde. Deshalb darf ja auch hier immer und überall eine Hausdurchsuchung ohne richterliche Erlaubnis gemacht werden. Also Vorsicht, morgen schon können sie in Deiner Wohnung stehen und einfach mal suchen!


Na Klar!!

Mein Gott, schaltet doch mal wenigstens nur mal kurz Euer Hirn an, wenn es dauerhaft schon nicht geht.

Ich gehe absolut mit dir einig, dass das zwei verschiedene Strafbestände sind. Wobei der Strafbestand NICHT die Kontrolle der Parkuhr oder Geschwindigkeitskontrolle ist

Es geht mir nur um die Unschuldsvermutung. Die wir eben nicht überall wörtlich genommen.

Ob das Durchsuchen des iPhones (ohne Meldung an Apple oder Behörden), das selbe wie eine Hausdurchsuchung ist wage ich mal zu bezweifeln.

Ich bin auch gegen den Foto-Scan, alleine weil das absolut nichts bringt.

Und ich würde es mal ein wenig mit Anstand versuchen und wenn das nicht dauerhaft geht, dann wenigsten ganz kurz! Und wenn es nur helfen würde das gelesene zu verstehen!
+2
Tirabo16.12.21 12:10
ww

Ich gehe absolut mit dir einig, dass das zwei verschiedene Strafbestände sind. Wobei der Strafbestand NICHT die Kontrolle der Parkuhr oder Geschwindigkeitskontrolle ist

Es geht mir nur um die Unschuldsvermutung. Die wir eben nicht überall wörtlich genommen.

Ob das Durchsuchen des iPhones (ohne Meldung an Apple oder Behörden), das selbe wie eine Hausdurchsuchung ist wage ich mal zu bezweifeln.

Ich bin auch gegen den Foto-Scan, alleine weil das absolut nichts bringt.

Ich habe doch gesagt, dass eine Hausdurchsuchung richterlich angeordnet werden muss. Dazu gehört dann auch die Beschlagnahme und Durchsuchung von Festplatten und anderen elektronischen Geräten auf Fotos und andere mögliche Hinweise. Die Durchsuchung von Fotos auf kinderpornografisches Material durch Apple entspricht also tatsächlich nicht nicht einer Hausdurchsuchung, weil hier keine richterliche Anordnung vorliegt. Es bleibt aber trotzdem eine weit greifende allgemeine Durchsuchung eines möglichen Straftatbestands ganz ohne richterlichen Beschluss und Ermittlung einer Strafbehörde, hier sogar noch mit kollektiver Schuldvermutung. Weltweit, und noch von einem Unternehmen und keiner Behörde. Das ist alles verfassungswidrig in Deutschland.


Die Unschuldsvermutung gilt nach wie vor nur bei Straftatbeständen. Bei Ordnungswidrigkeiten wie etwa Parken an einer abgelaufenen Parkuhr gibt es so etwas gar nicht. Daher war das Argument unsinnig.


Apple IST KEINE Ermnittlungsbehörde.

PS: Ich möchte mir zusätzlich nicht ausmalen, was andere Schurkenstaaten da noch von Apple rauspressen können. Vielleicht Beweisfotos von unliebsamen Oppositionellen oder Journalisten zu finden und zu löschen, gar zu melden?
+10
awk16.12.21 12:26
Tirabo

Ich habe doch gesagt, dass eine Hausdurchsuchung richterlich angeordnet werden muss. Dazu gehört dann auch die Beschlagnahme und Durchsuchung von Festplatten und anderen elektronischen Geräten auf mögliche Hinweise. Die Durchsuchung von Fotos auf kinderpornografisches Material durch Apple entspricht also tatsächlich nicht nicht einer Hausdurchsuchung, weil hier keine richterliche Anordnung vorliegt.

Nur weil kein richterlicher Beschluss vorliegt - keine Hausdurchsuchung? Eine gewagte Theorie.

Tatsächlich wäre kein richterlicher Beschluss notwendig, weil man der Durchsuchung zustimmen muss. Macht man das nicht, kein iPhone.

Dann kann man auch gleich an die Haustür schreiben, "Guten Tag liebe Behörde, welche immer auch, hier gibt es freien Zutritt, ganz ohne richterlichen Beschluss."

Ich stelle mit jetzt mal vor, das Finanzamt verlangt von jedem Steuerzahler ein Formular zu unterschreiben, dass er zu jeder Zeit ohne Ankündigung mit einer Durchsuchung seiner Wohnung einverstanden ist. Das gäbe einen Aufschrei.

Nur weil man etwas nicht sieht und es in digitaler Form vorliegt ist es nicht anders und nicht weniger relevant.

Apple macht den Anfang, dann kommt die Film und Musik Branche auf die Idee, bei Abschluss des Abonnements einen Passus einzufügen der ihr erlaubt die Geräte jederzeit und heimlich auf illegal kopiertes Material zu untersuchen. Die Verleger machen das für Bücher und, und, und. Irgendwann durchsucht fast jeder jedes Smartphone, dann kommt der Computer dran, usw.

Und jeder natürlich mit den besten Absichten, man will nur Illegales verhindern.

1984 lässt grüssen. Und alles ganz freiwillig.

Und irgendwann marschieren dann wieder die Horden in ihren Uniformen durch die Strassen, die Blockwarte kontrollieren das korrekte Verhalten.

Und ich habe mich immer gefragt wie es passieren konnte.
-3
steve.it16.12.21 12:41
steve.it
Mactechnews tippt eigentlich News nur von anderen ab. Scheint es aber nicht für nötig zu halten Quellen zu benennen.
Vermutliche Quelle: https://www.theverge.com/2021/12/15/22837631/apple-csam-detection-child-safety-feature-webpage-removal-delay
Gefunden vermutlich über macrumors
-7
ww
ww16.12.21 13:16
Tirabo
Apple IST KEINE Ermnittlungsbehörde.

PS: Ich möchte mir zusätzlich nicht ausmalen, was andere Schurkenstaaten da noch von Apple rauspressen können. Vielleicht Beweisfotos von unliebsamen Oppositionellen oder Journalisten zu finden und zu löschen, gar zu melden?

Eben darum schrieb ich ja Appel ODER Behörden.

Wenn ich das richtig verstanden habe, dann wäre der Scan keine Hausdurchsuchung von Apple, sondern DU SELBST durchsuchst Dein iPhone. Und übergibst das Ergebnis erst Apple wenn du die Fotos uploadest. Ist wohl ein kleiner aber feiner Unterschied.

Aber wie schon gesagt, auch ich bin dagegen, weil sowas für anderes ausgenutzt werden kann und in der Sache Kinderporno wohl gar nichts bringt.
0
Tirabo16.12.21 13:31
@awk

awk

Nur weil kein richterlicher Beschluss vorliegt - keine Hausdurchsuchung? Eine gewagte Theorie.

Wie kommst du nur darauf, dass es sich um eine Theorie handele, und warum soll dieser Vorgang auch noch gewagt sein?

Ein Durchsuchungsbeschluss wird durch einen Richter erlassen. Ohne diesen keine Hausdurchsuchung. Punkt. Alles andere ist ein Skandal und wird im deutschen Rechtssystem schwer sanktioniert. Selbst eine Hausdurchsuchung ist strengen Regeln unterworfen. Bei so etwas sind Gerichte und Berufungsgericht sehr empfindlich, wenn da seitens der Ermittlungsbehörden schlampig gearbeitet wird. Gerade bei solchen Straftaten von hohem öffentlichen Interesse ist das sehr gefährlich, weil es zu einem Freispruch (Unschuldsvermutung, Mangel an Beweisen) führen kann, wenn es zu zahlreichen Ermittlungsfehlern kam.
awk
Tatsächlich wäre kein richterlicher Beschluss notwendig, weil man der Durchsuchung zustimmen muss. Macht man das nicht, kein iPhone.

Ein richterlicher Durchsuchungsbeschluß benötigt aber nun mal KEINE Zustimmung des zu durchsuchenden, sonst bräuchte es auch keinen Beschluss.
Was Apple hier macht, ist unerheblich, da Apple keine Ermittlungsbehörde ist und kein Recht besitzt, Deine Inhalte auf strafbare Inhalte ohne Anlass zu durchsuchen.
+3
Skywalker0416.12.21 15:25
evanbetter
dam_j
Schade, hätte die Funktion begrüßt.

Spannend, ich kann mir keinen einzigen Benefit darunter vorstellen. Die Bösen hätten ihre Sauereien anders gemacht und die Datengierigen hätten eine Backdoor in jedermanns Daten. Ich stelle mir zum Vergleich vor, dass ich um die Ecke ins Wohnzimmer komme und da steht jemand vor meinem geöffneten Regal und meint - "Ich prüf' nur schnell nach, ob Sie sauber sind". Das würde wahrscheinlich niemand wollen. Aber digital, unsichtbar und ohne Geruch, ist es den Menschen egal. Das macht absolut keinen Sinn.

Apple hätte Rückgrad zeigen sollen und öffentlich dementieren sollen, dass sie ihren Stasi-Kram einbauen. Ich habe Apple dermassen vertraut, als sie sich für den Datenschutz ihrer Kunden sogar auf riesigen Plakatkampagnen verpflichtet haben. "The customer is not our product" - aber vielleicht ist der Druck der Agenturen zu gross? Anyway - der Schaden ist da. Ich bin noch auf iOS 14 - das geht einfach nicht, was sie da machen. Ja, ich weiss, dass es auch schon auf iOS14 sein kann. Aber wenn wir alle jetzt mal 3 Monate gar nicht updated hätten, dann wäre da die kleine Hölle ausgebrochen in Cupertino.



Nach diesem Video könnte man eine andere Einstellung dazu haben. Wenn ich nichts zu verbergen habe, tut mir diese eine sinnvolle Funktion nicht weh. Vermutlich trifft man vorstehende Aussage besonders dann, wenn einem die Dimension dieses mit der Funktion aufgegriffenen Problems schlicht unbekannt ist und die Wichtigkeit verkennt, sinnvolle Maßnahmen zu treffen.

Dass eine Abwägung unter datenschutzrechtlichen Aspekten stattfinden muss, ist klar. Wie man die sich gegenüberstehenden Interessen gewichtet, ist eine streitbare Frage. Vom vorbildlichen Umgang Apples mit den Daten abgesehen, würde ich so eine Funktion als verhältnismäßig geringen Eingriff verstehen und tolerieren. Vermutlich ist das der laute Aufschrei einer Gruppe, die ihrerseits oftmals Pa
-9
evanbetter
evanbetter16.12.21 17:04
Skywalker04

Nach diesem Video könnte man eine andere Einstellung dazu haben. Wenn ich nichts zu verbergen habe, tut mir diese eine sinnvolle Funktion nicht weh. Vermutlich trifft man vorstehende Aussage besonders dann, wenn einem die Dimension dieses mit der Funktion aufgegriffenen Problems schlicht unbekannt ist und die Wichtigkeit verkennt, sinnvolle Maßnahmen zu treffen.

Dass eine Abwägung unter datenschutzrechtlichen Aspekten stattfinden muss, ist klar. Wie man die sich gegenüberstehenden Interessen gewichtet, ist eine streitbare Frage. Vom vorbildlichen Umgang Apples mit den Daten abgesehen, würde ich so eine Funktion als verhältnismäßig geringen Eingriff verstehen und tolerieren. Vermutlich ist das der laute Aufschrei einer Gruppe, die ihrerseits oftmals Pa

Du hast komplett recht: Das ist der Supergraus der menschlichen Existenz. Ich mag mir so ein Video nicht mal anschauen. Darüber müssen wir uns also nicht einigen.
Etwas komplett anderes ist die Menschenwürde und der Verfassungsschutz und der Datenschutz bei Apples Vorgehen. Warum macht Apple das als Firma? Für sowas gibt es Regierungen und Gesetze. Selbst, wenn die das nicht gut machen, sollte das nicht eine private Firma übernehmen. Wir bewegen uns da auf ganz gefährlichem Boden. Es ist eine hauchdünne Wand, die bei solchen Aktionen zwischen "gut gemeint" und "faschistoider Unterdrückung" steht. Es gibt klare Gesetze, die das regeln, und wenn die nicht gut genug ungesetzt werden, dann muss man DAS lösen und nicht von privatwirtschaftlicher Seite her anfangen, Sheriff zu spielen. Das geht schlicht gar nicht.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+2
awk16.12.21 17:24
evanbetter
Warum macht Apple das als Firma?

Weil sie dazu verpflichtet sind. Google, Microsoft etc. machen das auf ihren Servern. Der Unterschied liegt darin, wo der Scan erfolgt. Lade ich Dinge in die Cloud mache ich Dateien potentiell öffentlich.
Apple will die Daten aber auf unseren privaten Geräten scannen. Das ist der fundamentale Unterschied in der Vorgehensweise.
Dadurch werden alle Daten gescannt, auch solche die ich gar nicht in die Cloud hochladen will.
+1
john
john16.12.21 18:33
Nach diesem Video könnte man eine andere Einstellung dazu haben. Wenn ich nichts zu verbergen habe, tut mir diese eine sinnvolle Funktion nicht weh.
ich kenne diese doku. da ich strf +f aboniert habe auch bereits seit release.
und nichts, aber auch gar nichts, hat sich an meiner einstellung dazu geändert.

was verdienst du denn so? schickst du mir mal ein paar kontoauszüge von dir?
auf welche sexpraktiken stehst du so? guckst du pornos? welche genau?
leidest du an krankheiten? nimmst du medikamente?
wen hast du bei der letzten wahl gewählt?
gibst du mir mal die zugangsdaten zu deinem mailpostfach?

warum sind diese fragen komplett bescheuert? weil mich das alles fucking nochmal rein gar nichts angeht.
wenn ich noch einmal den dümmsten satz des 21. jahrhundert "ich hab doch nichts zu verbergen" höre....
doch, hast du. zu recht. und das ist völlig normal und sogar wichtig.
Vom vorbildlichen Umgang Apples mit den Daten abgesehen, würde ich so eine Funktion als verhältnismäßig geringen Eingriff verstehen und tolerieren
ich bin einfach nur entsetzt so etwas zu lesen.
biete support. kostenlos, kompetent und freundlich. wähle zwei.
+6
Wurzenberger
Wurzenberger17.12.21 09:12
Skywalker04
Wenn ich nichts zu verbergen habe, tut mir diese eine sinnvolle Funktion nicht weh.
Deine Fotobibliothek ist also der gesamten Welt unverschlüsselt zugänglich?
-1
ww
ww17.12.21 10:09
Wurzenberger
Skywalker04
Wenn ich nichts zu verbergen habe, tut mir diese eine sinnvolle Funktion nicht weh.
Deine Fotobibliothek ist also der gesamten Welt unverschlüsselt zugänglich?

Das Eine hat mit dem Anderen absolut nichts zu tun!

Deine Fotos werden so oder so gescannt - normalerweise einfach auf dem Cloud-Server. Das ist wohl eine Vorgabe der Behörden.

Der Unterschied ist einfach WO und Wann gescannt wird! Wenn vor dem Upload auf dem iPhone gescannt würde und dann verschlüsselt hochgeladen würde, wäre der Aufschrei wahrscheinlich nicht so gross. Das wäre wohl Datenschutztechnisch auch der beste Weg.
Das generelle scannen ALLER Fotos mit oder ohne Upload geht eindeutig zu weit!
-1
dam_j
dam_j17.12.21 15:49

"was verdienst du denn so? schickst du mir mal ein paar kontoauszüge von dir?
auf welche sexpraktiken stehst du so? guckst du pornos? welche genau?
leidest du an krankheiten? nimmst du medikamente?
wen hast du bei der letzten wahl gewählt?
gibst du mir mal die zugangsdaten zu deinem mailpostfach?"

Interessant das (bis evtl. auf die Sexpraktiken) alle diese Informationen bereits im Netz existieren und div. Menschen spielend leicht Zugriff drauf haben.

Ändert also nicht wirklich was...
Das Leben ist Scheiße aber die Grafik ist geil !
-2
MacBlack
MacBlack22.12.21 04:59
Gedankenschweif
Das Google, Amazon, Microsoft, etc. ALLE Daten auf deren Servern scannen (und die dabei gewonnenen Daten natürlich auch monetisieren) interessiert jedoch niemanden.

Ich würde mal sagen: Bei diesen Firmen setzt man das schon voraus. Wer Google, Amazon oder Microsoft seine Daten anvertraut, nimmt das in Kauf oder für den ist Datenschutz kein Thema. Apple hat aber explizit mit dem Thema für sich geworben und wollte nun sogar die Grenzen noch überschreiten, indem auf den kundeneigenen Geräten deren Daten gesichtet und ggf. markiert werden – und das (zumindest in Deutschland) ohne Rechtsgrundlage. Man stelle sich vor, dass ein Vermieter in Abwesenheit des Mieters in dessen Wohnung eindringt und sich dort schon einmal prophylaktisch umschaut, ob sich darin etwas Verbotenes befindet. Ähnlich aussehende Dinge werden vorsichtshalber ebenfalls markiert. Und wer weiß? Falls der Mainstream das irgendwann befürwortet, werden auch sozial geächtete Besitztümer (Pelze, Rauchwaren, Kriegsspielzeug) gleich mit einbezogen? Technisch alles machbar. Wenn der Mieter dann mit den markierten Dingen den Sensor an der Haustür zu Straße hin auslöst, erscheint der Hausmeister und bittet darum, sich zuvor die Gegenstände mal genauer ansehen zu dürfen, ob man sie denn mit nach draußen nehmen darf... Ich kann schon verstehen, dass sich dann viele bei Apple nicht mehr heimisch fühlen würden.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.