Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

iOS 14.3 und macOS 11.4 beinhalten bereits Code für Kinderpornografie-Erkennung

Apple kündigte Anfang August an, dass zukünftig ein lokaler Algorithmus die lokale Bilder-Bibliothek eines Nutzers nach kinderpornografischem Material durchforstet – und dies zuerst an Apple, und bei erhärtetem Verdacht an Behörden meldet. Viele Apple-Nutzer sind der Auffassung, dass Apple hier die eigenen Grundsätze bezüglich Datenschutz nicht ernst nimmt. Natürlich scannen auch andere Cloud-Anbieter (zum Beispiel Google und Microsoft) die hochgeladenen Daten ihrer Kunden nach solchem Material, trotzdem hinterlässt die Ankündigung von Apple zumindest ein befremdliches Gefühl bei den meisten Nutzern.


Ein findiger Reddit-User hat in iOS 14.3 bereits Hinweise auf die bevorstehenden Foto-Scans gefunden. Hinter unkenntlich gemachten Klassennamen verbirgt sich wohl bereits eine Vorabversion des zukünftigen Algorithmus – inklusive des Machine-Learning-Modells. "AsuharietYgvar" ist es sogar gelungen, das Model zu extrahieren und auszuführen. Den Code zum Konvertieren des Models zum ONNX-Format inklusive einer kurzen Anleitung hat der Reddit-Nutzer auf GitHub hochgeladen. Das Modell kann, nachdem man die Schritte in der Anleitung abgeschlossen hat, ausgeführt werden und es lassen sich so Hash-Werte von Bildern erzeugen. Diese gleicht Apple dann mit den Hash-Werten bekannter illegaler Bilder ab.

Auch in macOS 11.4 oder neuer
Übrigens finden sich die Modelle auch in macOS Big Sur 11.4 oder neuer unter folgenden Pfad wieder:

/System/Library/Frameworks/Vision.framework/Resources/

Vier Dateien sind im genannten Pfad von Interesse:

neuralhash_128x96_seed1.dat
NeuralHashv3b-current.espresso.net
NeuralHashv3b-current.espresso.shape
NeuralHashv3b-current.espresso.weights

Kein Hinweis, dass Apple den Code ausführt
Bisher fand sich noch kein Hinweis, dass Apple den Algorithmus zur Erkennung von kinderpornografischem Material in iOS oder macOS bereits verwendet. In der Vergangenheit ist es schon oft vorgekommen, dass sich Code für zukünftige Funktionen in den Betriebssystemen wiederfand, ohne dass er aktiv verwendet wurde. Beispielsweise fand sich bereits in iOS 13 der Code für die Integration der Apple AirTags wieder – und wurde erst mit iOS 14.5 aktiviert.

Gefahr durch manipulierte Bilder
ML-Modelle lassen sich austricksen: Eigentlich sollte das KI-Modell von Apple nur auf Bilder "anspringen", wenn diese sich in einer Hash-Datenbank mit bekannten, illegalen Bildern befinden. Das Apple-ML-Modell kann auch Bilder zuordnen, wenn diese gedreht, komprimiert oder zugeschnitten wurden. Doch genau hier liegt das Problem: Es ist möglich, legale Bilder zu erstellen, auf welche das ML-Modell "reinfällt" und eine Übereinstimmung mit einem illegalen Hash-Wert erkennt.

Somit könnte man durch das Einschleusen von legalen Bildern einen Nutzer bei Apple anschwärzen, ohne dass sich dieser im Besitz illegalen Materials befindet. Doch Apple hat hier zum Glück einen weiteren Schritt vorgesehen: Ein Apple-Mitarbeiter würde die Bilder kontrollieren und feststellen, dass das ML-Model hier nicht korrekt arbeitete – eine Meldung an Behörden würde ausbleiben.

Kommentare

Metti
Metti18.08.21 17:14
Ich möchte nicht, das Apple meine Bilder auf meiner Hardware prüft/vergleicht und ungefragt eine Kopie davon herunterläd und auch noch jemanden zum Begutachten vorlegt!
Ich finde das eine Frechheit.
Ich habe bereits den automatischen Upload für Fotos zu iCloud abgestellt, fürchte aber, dass das (auf lange Sicht) nicht genügt.
Das kommende Update werde ich wohl nicht einspielen.

Eigentlich war geplant, dass meine Frau ihr iPhone 7Plus durch das iPhone 13 tauscht.
Momentan überlege ich, ob es nicht sinnvoller ist, noch schnell ein iPhone 12 zu kaufen und auch dort keine Updates mehr mache.

Ich befürchte, dass sich Apple nicht vom aktuellen Shitstorm beeindrucken lässt.
Vor allem soll das laut EU-Parlament ja auch demnächst verpflichtend in alle Betriebssysteme eingebaut werden.
+26
KingBradley
KingBradley18.08.21 17:23
Ich habe mich da jetzt nicht reingelesen:
Apple durchsucht nur auf iCloud hochgeladenen Bilder, richtig?

Wo ist eigentlich der Unterschied zu anderen Cloud Anbietern, haben diese nicht auch den Inhalt der User, also deren Dateien auf Copyright Verstöße gescannt? Illegale MP3, Filme, Bücher…

Aber man muss schon sagen, war von Apple nicht clever.

Ich frage mich auch wie der Algorithmus das erkennt?
Jemand fotografiert sein Kind in der Badewanne?

Was nun? Software schlägt an und Apple Mitarbeiter schaut sich das Bild an?
-18
Zony Zwenn18.08.21 17:25
Metti
Ich möchte nicht, das Apple meine Bilder auf meiner Hardware prüft/vergleicht und ungefragt eine Kopie davon herunterläd und auch noch jemanden zum Begutachten vorlegt!
Ich finde das eine Frechheit.
Ich habe bereits den automatischen Upload für Fotos zu iCloud abgestellt, fürchte aber, dass das (auf lange Sicht) nicht genügt.
Das kommende Update werde ich wohl nicht einspielen.

Eigentlich war geplant, dass meine Frau ihr iPhone 7Plus durch das iPhone 13 tauscht.
Momentan überlege ich, ob es nicht sinnvoller ist, noch schnell ein iPhone 12 zu kaufen und auch dort keine Updates mehr mache.

Ich befürchte, dass sich Apple nicht vom aktuellen Shitstorm beeindrucken lässt.
Vor allem soll das laut EU-Parlament ja auch demnächst verpflichtend in alle Betriebssysteme eingebaut werden.

So lange Du keine Foto in iCloud hoch lädst, so lange wird auch kein einziges Foto von Apple gescannt. Erst beim Hochladevorgang soll gescannt werden.
+1
Mostindianer18.08.21 17:43
Naive frage, kann man den Zugriff per Ordner-Berechtigung oder Firewall auf MacOS unterbinden? Bei iOS müsste es ja ein gejailbreaktes iPhone sein um so etwas zu bewerkstelligen.
0
Terendir18.08.21 18:36
Toll. Damit verpufft mein geplanter iOS 15 / macOS 12 Boykott. Cleverer Zug, Apple.

Durchziehen werde ich es trotzdem. Wenn Apple diesen Weg beschreitet, dann ohne mich. Zur Not bleib ich halt bei der alten Software, bin schließlich auch ewig lang bei iOS 6 geblieben, bis die meisten (für mich) UI-Sünden mit iOS 10 beseitigt wurden. Habe es also bereits geschafft, Updates wegen wesentlich banaleren Dingen zu boykottieren. Und die meisten Apple-Kunden die Kröte trotzdem schlucken (die meisten sind ja leider naiv genug, ich traue denen das zu) und Apple bei den Plänen bleibt, sind meine aktuellen Apple-Geräte halt die letzten ihrer Art für mich.

Warum diese Technik problematisch ist, wurde an anderen Stellen (auch auf dieser Seite) ja schon zur Genüge erläutert.
+1
Hanterdro18.08.21 18:43
Terendir
Toll. Damit verpufft mein geplanter iOS 15 / macOS 12 Boykott. Cleverer Zug, Apple.

Durchziehen werde ich es trotzdem. Wenn Apple diesen Weg beschreitet, dann ohne mich. Zur Not bleib ich halt bei der alten Software, bin schließlich auch ewig lang bei iOS 6 geblieben, bis die meisten (für mich) UI-Sünden mit iOS 10 beseitigt wurden. Habe es also bereits geschafft, Updates wegen wesentlich banaleren Dingen zu boykottieren. Und die meisten Apple-Kunden die Kröte trotzdem schlucken (die meisten sind ja leider naiv genug, ich traue denen das zu) und Apple bei den Plänen bleibt, sind meine aktuellen Apple-Geräte halt die letzten ihrer Art für mich.

Warum diese Technik problematisch ist, wurde an anderen Stellen (auch auf dieser Seite) ja schon zur Genüge erläutert.
Du kannst immernoch das gendern boykottieren und deswegen bei iOs 14 bleiben.
+3
nane
nane18.08.21 18:47
Sehr gute Täuschung, links angezeigt und rechts überholt.
weiss halt einfach, wie man Vertrauen zurückgewinnt.

Na dann, kann ich ja getrost auf iOS 15 updaten. Grandioser Umgang mit Kunden, muss man einfach lassen. #sarkasmus
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
+21
Mendel Kucharzeck
Mendel Kucharzeck18.08.21 18:58
nane

Wie meinen?
-3
adiga
adiga18.08.21 18:59
KingBradley

Ich frage mich auch wie der Algorithmus das erkennt?
Jemand fotografiert sein Kind in der Badewanne?

Was nun? Software schlägt an und Apple Mitarbeiter schaut sich das Bild an?
Nicht ganz. Aus bekannten (kinderpornografischen) Bildern wird ein Hashwert erzeugt. Man könnte es auch als "Fingerabdruck" der Datei bezeichnen. In der Cloud wird dann verglichen, ob dieser "Fingerabdruck" gefunden werden kann. Wenn ja, dann wird der Treffer angezeigt, wenn nein, dann nicht. Stellt sich nur die Frage, wo die Hashwerte der eigenen Bilder erzeugt werden. Passiert das auf dem eigenen Gerät, so wird nichts als ein bisschen Performance benötigt. Die Bilder landen aber so nicht bei Apple. An und für sich ist das sehr gut gelöst. Nur bleibt die Problematik, dass das Thema "Kinderpornografie" so als Türöffner für weitere Suchkriterien dient, z. B. für regimekritische Personen, Trinken in der Öffentlichkeit, unverschleierte Frauen usw.

Wie immer ist gut gemeint nicht gut gemacht. Das ist dann die Kehrseite der Medaille.
+11
Michael Lang aus Rieder18.08.21 19:01
Also, ich glaube hier wird viel Aufhebens gemacht und schlußendlich werden es die meisten einfach weiter nutzen und vergessen....

Im Zweifelsfalle halt nicht mehr die iCloud für Photos nutzen und gut ist. Auf der Hardware geschieht ja lokal nichts.
-16
Werk3218.08.21 19:18
Wenn nicht ständig überall die iCloud Klingeln würde, damit man in ihr was ablegt. Notizen zb. Und andere Sachen die iTunes nicht mehr synchronisieren darf.
+2
Mr.Tee18.08.21 19:24
An sich eine gute Sache, so geht man den lebensunwürdigen Hunden die sowas besitzen an den Kragen! Die, die am meisten aufschreien scheinen ja betroffen zu sein.
-46
tippmam
tippmam18.08.21 19:33
Mr.Tee

Teil 1 deiner Aussage = 100% Zustimmung

Teil 2 = ganz dünnes Eis 🙈
-3
Warp18.08.21 19:37
Mr.Tee
An sich eine gute Sache, so geht man den lebensunwürdigen Hunden die sowas besitzen an den Kragen! Die, die am meisten aufschreien scheinen ja betroffen zu sein.
Wieder einer der nichts verstanden hat.

Ich frage mich, wie schon der eine oder andere, in wie weit als "Aushängeschild" von Regierung(en) oder Industrie (Film, Musik, Druck) hat vor den Karren spannen zu lassen um was einzuführen was später noch für ganz ander Sachen verwendet werden kann. Dinge wo dann schlagartig alle betroffen wären (Gendert man richtig oder ist man ein ganz böser ). Ich würde mich nicht wundern wenn das in der Apple-Welt eingeführt ist, dass dann Microsoft, Google usw. dann nachzieht. Dann kann man sich fast schon wieder das verschlüsseln sparen und würde so über eine Hintertür ausgehebelt werden. Ähnlich wie das mit der Impfpflicht macht. Der Gesetzgeber sagte wir machen kein Gesetz um das vorzuschreiben. Jetzt geht das halt über die Schiene, dass z. B. Fluggesellschaften, Transportwesen usw. Vorschriften macht was notwendig ist um eintreten zu können. Ich will da jetzt keine Diskusion diesbezüglich lostreten sondern nur als Beispiel nehmen wie solche Sachen im Prinzip laufen können.
+9
WollesMac
WollesMac18.08.21 19:45
Ich begreif das hier immer noch nicht so richtig.

Auf dem lokalen Mac oder iPad wird von allen Bildern ein Hashwert angelegt. Nur bei den Bildern, die in die iCloud hochgeladen werden, prüft Apple diese Hashwerte und checkt ggf. ein verdächtiges Foto. Ist das soweit richtig? Wofür braucht es für den Check von Fotos in der Cloud einen auf einem Endgerät produzierten Hash? Das geht doch dann auch direkt in der Cloud?
+2
bmac18.08.21 20:03
Das Einzige was in meiner iCloud an Daten liegt ist die Bedienungsanleitung des Kaffeevollautomaten.
Dieses ganzes Geschwafel wie Cloud ist ein "have must" und die Versuche selbst einfachste Text-Editordateien standardmässig gleich in die iCloud vom System speichern zu wollen - hab ich noch nie verstanden.

Fotos? Hab ich persönlich noch nie online auf oder in irgendwelchen Drives gespeichert. Allein für die idR früher oder später hierdurch anstehende kostenpflichtige Speicherplatzverwaltung bin ich in dieser Hinsicht viel zu geizig.

Wohl sein.
+9
bmac18.08.21 20:08
Wenn Google und Co seit langem selbst den Emailinhalt ihrer Klienten durchscannen, schätze ich die Anbieter scannen auch den Inhalt in den jeweiligen Clouds..
te=Warp]
Mr.Tee
An sich eine gute Sache, so geht man den lebensunwürdigen Hunden die sowas besitzen an den Kragen! Die, die am meisten aufschreien scheinen ja betroffen zu sein.
Wieder einer der nichts verstanden hat.

Ich frage mich, wie schon der eine oder andere, in wie weit als "Aushängeschild" von Regierung(en) oder Industrie (Film, Musik, Druck) hat vor den Karren spannen zu lassen um was einzuführen was später noch für ganz ander Sachen verwendet werden kann. Dinge wo dann schlagartig alle betroffen wären (Gendert man richtig oder ist man ein ganz böser ). Ich würde mich nicht wundern wenn das in der Apple-Welt eingeführt ist, dass dann Microsoft, Google usw. dann nachzieht. Dann kann man sich fast schon wieder das verschlüsseln sparen und würde so über eine Hintertür ausgehebelt werden. Ähnlich wie das mit der Impfpflicht macht. Der Gesetzgeber sagte wir machen kein Gesetz um das vorzuschreiben. Jetzt geht das halt über die Schiene, dass z. B. Fluggesellschaften, Transportwesen usw. Vorschriften macht was notwendig ist um eintreten zu können. Ich will da jetzt keine Diskusion diesbezüglich lostreten sondern nur als Beispiel nehmen wie solche Sachen im Prinzip laufen können.
[/quote]
-1
Leselump18.08.21 20:25
"Auch in macOS 11.4 oder neuer"
Firmentechnisch ist Apple bei mir wohl Geschichte wenn dies aktiviert wird.
Michael Lang aus Rieder18.08.21 19:01
Im Zweifelsfalle halt nicht mehr die iCloud für Photos nutzen und gut ist. Auf der Hardware geschieht ja lokal nichts.
Eben doch, die iCloud könntens meinetwegen ungeschützt ablegen und scannen, wer so etwas nutzt dem ist ja Datenschutz sowieso egal.
0
pentaxian
pentaxian18.08.21 20:26
Mr.Tee
An sich eine gute Sache, so geht man den lebensunwürdigen Hunden die sowas besitzen an den Kragen! Die, die am meisten aufschreien scheinen ja betroffen zu sein.

Wer hat Dir denn das Gehirn "gewaschen"?
mine is the last voice that you will ever hear (FGTH)
+13
stefan18.08.21 20:38
Ein Apple-Mitarbeiter würde die Bilder kontrollieren und feststellen, dass das ML-Model hier nicht korrekt arbeitete – eine Meldung an Behörden würde ausbleiben.
Ja, ne is klar. Wenn die genauso zuverlässig sind wie die bei der Prüfung für den AppStore, bezweifle ich, dass das wirklich funktioniert.
+11
Wurzenberger
Wurzenberger18.08.21 20:38
MTN
Es ist möglich, legale Bilder zu erstellen, auf welche das ML-Modell "reinfällt" und eine Übereinstimmung mit einem illegalen Hash-Wert erkennt.
Das ist ja total überraschend.
+9
iMan
iMan18.08.21 20:43
KingBradley
Ich frage mich auch wie der Algorithmus das erkennt?
Jemand fotografiert sein Kind in der Badewanne?

Was nun? Software schlägt an und Apple Mitarbeiter schaut sich das Bild an?

Eben nicht. Die Bilder werden NICHT gescannt. Es wird nicht geschaut ob auf einem Foto eine nackte Person zu sehen ist, sondern beim Upload in die iCloud werden die Bilder auf dem Gerät gehasht und die Hashnummer verglichen mit Hashnummern einer Datenbank mit bekannten einschlägigen Bildern. Zudem erst bei einer Trefferanzahl von 30, schaut Apple sich die markierten (und nur die markierten) Bilder an. Laut Jörn von MacTV ist es zudem noch so, dass zum Vergleich nur eine schemenhafte und niedrig aufgelöste Version der Bilder für den Apple Mitarbeiter zu sehen ist.

Ich glaube viele reagieren im Moment zu emotional ohne sich genau mit der Technik zu beschäftigen. Da wird alles mögliche wild zusammengewürfelt. Wenn ich schon lese, dass Apple dann später nach Regimekritikern oder bestimmten Personen suchen könne, was totaler Schmarrn ist, weil die Fotos eben nicht so durchsucht werden.

Lustigerweise macht ja die App "Fotos" genau das ja aber schon ewig, indem der ML-Algorithmus nach Objekten in den Fotos schaut, also z.B. Katze oder ein Gesicht. Komischerweise beschwerte sich da niemand obwohls bekannt ist. Genau diesen Mechanismus könnte man aber für die Horroszenarien missbrauchen, weil er aktiv die Bilder durchschaut. Jetzt werden wieder welche einwenden, ja gut, es läuft ja aber nur auf dem Gerät lokal ab und Apple weiß nichts davon. Aber hier könnte man dann aber genauso kritisch hinterfragen, woher weiß man, dass Apple das nicht doch einsehen kann.
Always look on the bright side of life!
+6
Bonzo8718.08.21 21:20
Ich sag nur „adversarial attacks“. Setzt Apple das um, dann kaufe ich zukünftig kein Gerät mehr von denen. Da lass ich lieber mein Nutzungsverhalten analysieren und versuche die Tracker zu blockieren aber habe wenigstens echte E2E Encryption in der Cloud (Ja, Google bietet das). Schade wie Apple seinen Trumpf verspielt…
+4
KarstenM
KarstenM18.08.21 21:54
Für diejenigen, die sich wundern, warum sich andere darüber aufregen, möchte ich mich auch noch mal zu Wort melden. Es geht bei der ganzen Aufregung nur bedingt um die unmittelbar Nutzung der Technik im Zusammenhang mit der Kinderpornografie, sondern um die potenzielle Ausweitung der Technik.

1. Beispiel: Der Staatstrojaner
Anfangs ins Feld geführt um gegen Kinderpornografie und Terrorismus vorgehen zu können. Nun sind wir dabei, dass der Trojaner "nicht nur, wie bislang, bei schwersten Straftaten, sondern auch bereits präventiv" eingesetzt werden darf.

2. Beispiel: Funkzellenabfrage
Während früher eine schwere Straftat als Grundlage diente, reicht es nun einen gesteigerten Anfangsverdacht zu haben.

Und hier rede ich über das im Großen und Ganzen gemäßigte Deutschland. Andere Länder andere Sitten, sage ich da nur. Wenn diese Technik da ist, wird es Mittel und Wege geben, Apple so zurechtzubiegen, dass die ehrenwerten Ziele dahin sind.
Und ja, natürlich machen die großen Cloud-Anbieter ein Scanning der hochgeladenen Bilder, aber sie machen es auf ihren Servern und wenn man das nicht will, dann lässt man es.
Nun sagen ja viele hier: "Apple sagt, sie scannen nur die Bilder, die hochgeladen werden sollen, wo ist das Problem?" Das Problem ist, Apple rollt eine Technik aus, die es auch lokal kann, unabhängig von jeglicher Cloud. Und wer sagt, dass nicht irgendein Geheimdienst, Land oder NSO-Group den Schalter in die Hand bekommt (ob nun von Apple oder durch Sicherheitslücken), dass Scannen global auf dem iPhone anzumachen und eben doch alle Bilder zu scannen. Und gerade im Zusammenhang mit der NSO-Group sollte auch klar sein, dass Apple nicht gerade das sicherste Handybetriebssystem hat.

Mr.Tee
An sich eine gute Sache, so geht man den lebensunwürdigen Hunden die sowas besitzen an den Kragen! Die, die am meisten aufschreien scheinen ja betroffen zu sein.

Als Vater widert mich dein Kommentar genauso an, wie das Thema Kinderpornografie selbst.
+12
Holly
Holly18.08.21 23:56
Apple lässt sich nicht beirren. Anscheinend will man die Agenda gegen jeglichen Gegenwind und und Imageverlust durchziehen. Unfassbar...
+7
evanbetter
evanbetter18.08.21 23:59
iMan
Lustigerweise macht ja die App "Fotos" genau das ja aber schon ewig, indem der ML-Algorithmus nach Objekten in den Fotos schaut, also z.B. Katze oder ein Gesicht. Komischerweise beschwerte sich da niemand obwohls bekannt ist. Genau diesen Mechanismus könnte man aber für die Horroszenarien missbrauchen, weil er aktiv die Bilder durchschaut. Jetzt werden wieder welche einwenden, ja gut, es läuft ja aber nur auf dem Gerät lokal ab und Apple weiß nichts davon. Aber hier könnte man dann aber genauso kritisch hinterfragen, woher weiß man, dass Apple das nicht doch einsehen kann.

Das ist genau der Punkt: Apple erklärte bisher nachvollziehbar, dass sie nicht in deinen Daten schnüffeln. Diesen unglaublich starken Trumpf haben sie einfach so verspielt (was mich immer noch glauben lässt, dass sie sehr stark unter Druck stehen, was es aber nicht besser macht).

Das Ganze stinkt zum Himmel:
Hätten Sie vermeldet, dass Bilder in der Cloud durchsucht werden, dann wäre das verschmerzbar gewesen. "Hmm" - aber ok, dann halt.
Nun fummeln sie aber direkt auf deinem Gerät rum, das macht keinen Sinn - wo liegt der Vorteil, wenn sie es auf dem Gerät machen - erwischen sie dann mehr Böse, als wenn sie es erst in der Cloud machen würden???? NEIN! Es gibt technisch keinen Grund, es lokal auf dem Gerät zu prüfen, wenn Sie (wie sie sagen) eh nur die zu uploadenden Bilder prüfen.

"Aber sie vergleichen nur den Hash, nicht das Bild!" - Schwachsinn: 1. weiss ich nicht mehr, ob ich Apple da wirklich glauben kann - 2. ALLE Bilder lassen sich Hash-vergleichen, es ist nur die Frage, nach was man sucht – Horror-Szenario: Organisation X: Ich will alle Personen mit Bildern von Julian Assange - abgeglichen mit Hashes aus unserer Datenbank.

Also:
# Was machen die sonst noch alles auf meinen Geräten? - Jetzt wo herauskommt, dass das schon in den aktuellen OS-Versionen drin ist, ist bei mir jedes Quäntchen Vertrauen dahin.

Apple: Das ist eine verdammte Sauerei! Wieso Ihr? Ihr hättet es in der Hand gehabt! Ihr habt uns Kunden in den letzten Tagen gezeigt, dass wir für euch nichts mehr als eine kalkulierbare Masse an Geldbeutel-Träger sind. Mein Gott, was habe ich dieser Firma vertraut!
Wer zuletzt lacht, hat's zuletzt geschnallt.
+10
iMan
iMan19.08.21 02:11
evanbetter
Das Ganze stinkt zum Himmel:
Hätten Sie vermeldet, dass Bilder in der Cloud durchsucht werden, dann wäre das verschmerzbar gewesen. "Hmm" - aber ok, dann halt.
Nun fummeln sie aber direkt auf deinem Gerät rum, das macht keinen Sinn - wo liegt der Vorteil, wenn sie es auf dem Gerät machen - erwischen sie dann mehr Böse, als wenn sie es erst in der Cloud machen würden???? NEIN! Es gibt technisch keinen Grund, es lokal auf dem Gerät zu prüfen, wenn Sie (wie sie sagen) eh nur die zu uploadenden Bilder prüfen.

So wie ich das verstanden hab wird es genau deshalb auf dem Gerät lokal gemacht, damit es auf dem Server nicht unverschlüsselt gemacht werden muss.

Es funktioniert wohl so, dass zusammen mit dem Hash-Wert des Bildes ein Teilschlüssel angelegt wird. Erst bei erreichen des Grenzwertes von 30 Bildern, ist der Schlüssel für die Verschlüsselung aller als bedenklich markierten Fotos vollständig und Apple kann diese Bilder einsehen. Vorher nicht. Deshalb geschieht das auf dem Gerät lokal, somit hat Apple keinen Einfluss drauf.

Ich kann da den Thread auf mac-tv.de allen ans Herz legen, weil Jörn dort das echt sehr gut erklärt und ich dadurch das auch viel besser verstanden hab. Ist leider etwas lang, aber ganz interessante Diskussion:

evanbetter
"Aber sie vergleichen nur den Hash, nicht das Bild!" - Schwachsinn: 1. weiss ich nicht mehr, ob ich Apple da wirklich glauben kann - 2. ALLE Bilder lassen sich Hash-vergleichen, es ist nur die Frage, nach was man sucht – Horror-Szenario: Organisation X: Ich will alle Personen mit Bildern von Julian Assange - abgeglichen mit Hashes aus unserer Datenbank.

Nochmal: das geht eben nicht. Das würde nur gehen, wenn deine besagte Organisation eine Datenbank hat mit Hash-Werten von ALLEN JEMALS gemachten Fotos von Julian Assange. Das ist unmöglich. Viel einfacher ist das System, wenn ein normaler Machine Learning Algorithmus benutzt wird, der auf das Gesicht von Julian Assange trainiert ist und aktiv alle Bilder durchsucht. Das würde gehen. Das hat aber nix mit dem System von Apple zu tun.

Ich verstehe ja die Bedenken bei solchen Systemen. Denn 100%ige Sicherheit gibt es ja nicht und man kann sowas immer umgehen. Auch glaube ich leider nicht, dass dadurch so der große Gegenschlag gegen Kinderpornografie gelingt. Die Leute werden dann leider andere Wege finden
Always look on the bright side of life!
+2
Weia
Weia19.08.21 05:39
Mr.Tee
lebensunwürdige Hunde
Ohne Worte.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+8
Terendir19.08.21 09:04
Hanterdro
Du kannst immernoch das gendern boykottieren und deswegen bei iOs 14 bleiben.

Naja da kann ich die Sprache notfalls in englisch ändern. Gendern regt mich zwar auch auf, wäre für mich aber jetzt kein alleiniger Grund, Apple den Rücken zu kehren solange man halt die Sprache noch ändern kann. So mal fast alle "hippen" IT-Firmen gendern, ist wohl nur eine Frage der Zeit, bis auch Microsoft und Google das in ihre Systeme einbauen. Ich fürchte, diesen bildungsferne Ideologie (sprachliches Geschlecht =/ reales Geschlecht, siehe "das Mädchen") müsste man schon gesetzlich verbieten, damit man es aus der Hipster-Szene rauskriegt.
+1
pogo3
pogo319.08.21 11:12
Weia

Ich kann nur zustimmen. Es würgt mich ob der verrohten Sprache, die einem verrohtem Geiste entspringen muss. Lebensunwürdige Hunde - lebensunwürdige Menschen. Entsetzen.
Ich schmeiss alles hin und werd Prinzessin.
+4
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.