Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Schriftverkehr enthüllt Aussagen von Apple-Manager: Apple die „größte Plattform für die Verbreitung von Kinderpornos“

Apples Ankündigung, mit einem Bündel an Maßnahmen gegen die Verbreitung kinderpornografischen Materials vorzugehen, findet nicht nur Zustimmung: So äußerten etliche Organisationen und Experten Kritik an der automatisierten Foto-Analyse, die der Konzern mit iOS 15 einführen möchte. Tatsächlich zeigen sich viele überrascht, wieso das Unternehmen einen so drastischen Schritt geht, obwohl es stets beteuert, der Privatsphäre seiner Kunden höchste Aufmerksamkeit zu schenken. Nun zeigt der Schriftverkehr zweier hochrangiger Apple-Mitarbeiter, dass das Thema den Konzern bereits in der Vergangenheit vor ein Problem stellte.


Gerichtsakten offenbaren Interna
Der Gerichtsprozess zwischen Epic und Apple ist in mehrerlei Hinsicht aufschlussreich: Neben der eigentlichen Sache sind es vor allem Unterlagen, welche die beiden Parteien zur Verfügung stellen. Aus diesen gehen oftmals bemerkenswerte Geschehnisse und Aussagen hervor – so offenbaren sie etwa die Bereitschaft Cupertinos, Netflix privilegiert zu behandeln (siehe hier). Auch Phil Schillers emphatische Wortwahl, als dieser auf zahlreiche Scam-Apps hinweis, bleibt durchaus in Erinnerung. Nun bringen weitere Unterlagen das Unternehmen in Bedrängnis.

Eric Friedman: Andere Prioritäten als Facebook
Der Sicherheitschef Apples, Eric Friedman, führte eine Unterhaltung mit einem Kollegen via iMessage. In dieser äußert sich Friedman über das Augenmerk Facebooks: Beim Sozialen Netzwerk stehe Vertrauen und Sicherheit im Mittelpunkt. Beim Thema Privatsphäre sei der Zuckerberg-Konzern indes „grottig“. Apple habe umgekehrte Prioritäten: Dies sei der Grund, warum das Unternehmen die größte Plattform für die Verbreitung von unter anderem Kinderpornos sei. Auf Nachfrage, ob es wirklich so viele im Ökosystem gebe, antwortet Friedman lapidar: „Ja“. Das entsprechende Dokument ist mit dem Vermerk „Streng vertraulich – nur für Anwälte“ versehen.


Wie kommt Apple zu dieser Einschätzung?
Der Schriftverkehr könnte erklären, wieso Apple nun so ambitioniert gegen kinderpornografisches Material vorgehen möchte. Allerdings stellt sich die Frage, wie der Konzern von der Tragweite des Problems wissen kann: iMessage ist Ende-zu-Ende-verschlüsselt und laut offiziellen Statistiken meldet das Unternehmen im vergangenen Jahr nur 265 Fälle an die US-Organisation National Center for Missing and Exploited Children (siehe hier).

Kommentare

TiBooX
TiBooX20.08.21 17:42
Echt Klasse von euch. Not!

HIGHLY CONFIDENTIAL - ATTORNEY‘S EYES ONLY

jetzt auch bei MTN

Habt ihr das wirklich nötig?
Ihr solltet mal eure Standards überprüfen.

Findet besser mal her aus warum Apple hier so proaktiv und vor allem gegen seine eigenen Prinzipien verstösst.
Persönlich Betroffene?
Staatlicher Druck?
Q-Maulwürfe bzw. Saboteure?

Sicher ist:
Sowas macht ein Konzern nicht einfach aus einer Laune heraus.
People who are really serious about software should make their own hardware [A. Kay]
-30
chill
chill20.08.21 17:45
Irgendwann heisst es. Du als Apple User, gehörst zur grössten Gruppe KiPo zu verteilen. Und wundert dann ja nicht, das du gegen diesen Scan bist ...

Aber woher gewusst wird, das Apple einen Anteil hat, das ist interessant. Scannen die entsprechenden Seiten, das da oft Safari genutzt wird?
MBP M1 256/16 Monterey 12.1 . iPhone 11 128 GB, iOs 15.2
+6
macusr20.08.21 17:52
1) Ohne QR Code nicht vertrauenwürdig
2) Wenn das stimmt, scheint Apples Datenschutz ja ein erheblich grösseres Problem zu haben, als bislang angenommen.-
Meine Kommentar: Überwacht und bespitzelt eure Clouds, nicht den Endnutzer
resp. dessen Computer. Mehr gibts m. M. n.dazu eigentlich nicht zu sagen.
+8
TiBooX
TiBooX20.08.21 17:58
chill
Irgendwann heisst es. Du als Apple User, gehörst zur grössten Gruppe KiPo zu verteilen. Und wundert dann ja nicht, das du gegen diesen Scan bist ...
Da ist auch schon Apples nächstes Problem:
Alle Apple-User unter Generalverdacht zu stellen ist nach Deutschen Recht schlicht unverhältnismässig.

Es gibt ausserdem recht banale Gründe auf einem Mobilgerät keine Scanner laufen zu lassen (erhöhter Energieverbrauch, geminderte Rechenleistung, Backdoors für Kriminelle und Totalitäre Überwachung, …)
Dabei gibt es reichlich Gelegenheit diese ekelhaften Straftäter an anderen Stellen zu kriegen. Auf der Server-Seite!
People who are really serious about software should make their own hardware [A. Kay]
+14
Motti
Motti20.08.21 18:03
Schlimm.. wie hier private Nachrichten veröffentlicht werden. Egal ob der Inhalt gut oder schlecht ist.

Am besten gar nicht mehr austauschen...
-6
awk20.08.21 18:46
Motti
Schlimm.. wie hier private Nachrichten veröffentlicht werden. Egal ob der Inhalt gut oder schlecht ist.

Diese Nachrichten sind Teil eines Gerichtsprozesses der nach unserem Rechtsverständnis öffentlich ist.

Wenn Apple davon gewusst, aber nichts unternommen hat, dann ist das schlimm.

Dafür werden jetzt alle Besitzer von Apple Geräten unter Generalverdacht gestellt. Das ist schlimm!

Mein erster Rechner war ein Apple IIe. Ich kenne die Lisa und den ersten Macintosh. Wir standen andächtig vor diesen Geräten. Mein erstes Smartphone war ein iPhone 4. Ich habe mir das erste iPad und danach alle Weiteren gekauft. Erst kürzlich habe ich in einem nostalgischen Anfall mein iPad 2 und iPad 3 mal wieder angemacht. Ich habe noch ein Air 2 und ein iPad Pro im Einsatz. Genauso hatte ich bisher jedes Apple TV. Aber ich denke ernsthaft darüber nach mich aus der Apple Welt zu verabschieden.
+14
bmac20.08.21 18:50
Aha,
Apple Manager bezeichnen ihr eigenes "Ökosystem" als größte Kinderpornoschleuder - wie und unter Zuhilfenahme von was wird diese Einschätzung getragen? Das dürfte alles wohl noch interessant werden...
+12
thejerry70
thejerry7020.08.21 20:23
Also ich weiß nicht recht, wie ich zu dem Umgang Apples mit der Thematik stehen soll…

Einerseits agiert Apple sicher nicht bloß aus eigenem Gutdünken heraus, sondern aufgrund einer Problematik (unangemessene Inhalte werden über die eigene Plattform verteilt). Dass es als Unternehmen da auch handeln muss, dürfte somit klar sein. Im besten Falle eben auch nicht erst, wenn Inhalte per richterlicher/polizeilicher Anordnung entfernt werden müssen - also schon verteilt wurden.

Die Idee, anhand von Hashes (so wie ich es verstehe: abstrahierte Merkmale entsprechender Bilder), solche auf der eigenen Plattform auszumachen, finde ich auch nachvollziehbar.

Ungut finde ich aber dabei das „Ermitteln“ durch einen Algorithmus, der dann Fälle zur Entscheidung an Mitarbeiter weitergibt. Da geht es ja nicht mehr bloß um das (proaktive) Löschen von solchen Inhalten oder das Verhindern der Weitergabe über die eigene Plattform. Da wird vielmehr eine Aufgabe übernommen, die nach meinem Verständnis in andere Hände gehört.

Warum nicht einfach alle Inhalte schlicht und ergreifend blocken bzw. löschen (aus der Cloud)? Und klar, das stellt nach wie vor einen Eingriff durch Apple dar. Aber wer Daten auf eine Cloud schiebt oder über cloud-basierte Dienste Daten tauscht, muss eben auch damit leben, dass das nach deren Regeln geschieht. Und bei rechtswidrigen Inhalten darf ich mich nicht wundern, dass der Anbieter entsprechend handeln muss.

Mich stört aber, wie gesagt, der Ermittlungsansatz an dem Verfahren. Das sollen doch bitte lieber staatliche Stellen federführend machen!
+3
MikeMuc20.08.21 21:02
TiBooX
Auf der Server-Seite!
Pappnase, du.
Apple will den Kram nicht auf ihren Servern. Und da bleibt nur ein Ort für das Scannen über. Nämlich der, von dem der Mist hochgeladen wurde. Also auf allen Geräten, die bei iMessage teilnehmen.
Letztendlich ist es egal, ob es erst auf dem Server oder schon vorher geprüft wird. Apple weiß bei einem vermeintlichen Treffer immer, wo das Foto her kam
-9
Murkel201220.08.21 21:29
bmac
Aha,
Apple Manager bezeichnen ihr eigenes "Ökosystem" als größte Kinderpornoschleuder - wie und unter Zuhilfenahme von was wird diese Einschätzung getragen? Das dürfte alles wohl noch interessant werden...
Möglicherweise, weil deren Geräte schon lange fleißig nach Hause telefonieren.🤔 Die haben ja nicht nur auf das eigene Netzwerk zugriff, sondern könnten ja auch über weitere eingerichtete Konten Daten abgreifen z.B. auf die ganz großen wie Google, Microsoft usw., natürlich nur um ihre Dienste zu nutzen zu können 😉
Das finde ich alles etwas beunruhigend, wenn ich da an die KI denke und welche Möglichkeiten sich da bieten. Vielleicht sollte man wirklich langsam über Linux nachdenken, mehr kann man ja nicht tun...
+2
Weia
Weia20.08.21 21:34
MacTechNews
Apple habe umgekehrte Prioritäten: Dies sei der Grund, warum das Unternehmen die größte Plattform für die Verbreitung von unter anderem Kinderpornos sei.
Öhm, nein, das steht da nicht. Da steht, Apple sei die am besten geeignete Plattform für Kinderpornographie & Co., nicht die größte.

Der kleine feine Unterschied zwischen great und big/large …

Und ob das der Fall ist, ist eher eine Frage der Einschätzung als faktisch messbar (vor allem, wenn man doch angeblich gar nicht mitlesen kann, was die Nutzer so treiben …).

Da haben also einige Verantwortliche bei Apple ihren persönlichen (natürlich ganz wertfreien) Einschätzungen Ausdruck verliehen …
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+21
iQuaser
iQuaser20.08.21 21:43
Allerdings stellt sich die Frage, wie der Konzern von der Tragweite des Problems wissen kann: iMessage ist Ende-zu-Ende-verschlüsselt und laut offiziellen Statistiken meldet das Unternehmen im vergangenen Jahr nur 265 Fälle an die US-Organisation National Center for Missing and Exploited Children

Man kann davon ausgehen, dass eine Firma wie Apple sich regelmäßig mit den Ermittlungsbehörden austauscht. Und da wird schon mal einer gesagt haben, was auf Apple-Geräten abgeht.

Woher die Ermittlungsbehörden das wissen? Von beschlagnahmten iPhones, iPads, Macs usw.
Wenn (gerade in den USA) ein "Deal" angeboten wird, "Passwort raus oder 20 Jahre mehr Knast" - da wird mit Sicherheit der ein oder andere Pädophile schwach.
+5
Weia
Weia20.08.21 21:55
TiBooX
Echt Klasse von euch. Not!

HIGHLY CONFIDENTIAL - ATTORNEY‘S EYES ONLY

jetzt auch bei MTN

Habt ihr das wirklich nötig?
Ihr solltet mal eure Standards überprüfen.
Was gibt’s denn da zu überprüfen?

Es ist doch geradezu die Pflicht eines investigativen Journalismus, solchen Quellen nachzuspüren, auch, und insbesondere wenn die Betroffenen das gar nicht mögen. Diese Unterlagen sind wohl einfach durch das Gerichtsverfahren öffentlich geworden; aus rechtlicher Sicht geheimzuhaltende Passagen sind in dem Dokument ja geschwärzt.

In jedem Fall hat The Verge dieses Dokument auf einem öffentlich zugänglichen Server abgelegt; da ist nun zumindest MacTechNews nicht der geringste Vorwurf zu machen, wenn sie darüber berichten.

Ich verstehe die ganze Stoßrichtung Deiner Aufregung nicht – sind Wikileaks für Dich die Bösen?
Findet besser mal her aus warum Apple hier so proaktiv und vor allem gegen seine eigenen Prinzipien verstösst.
Ja wie sollen sie das denn, Du Scherzkeks, wenn Du investigativen Journalismus bäh-bäh findest?
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+13
Weia
Weia20.08.21 22:14
MikeMuc
Apple will den Kram nicht auf ihren Servern.
Ich will auch vieles nicht. Z.B., dass der Grillgeruch meiner Nachbarn auf meine Terrasse zieht. Da muss ich aber auf meinem Grundstück irgendwas unternehmen, dass der Geruch nicht ungehindert rüberziehen kann, und kann doch nicht kurzerhand mit einer Gießkanne zum Nachbarn gehen und die über dem Grill ausschütten.
Und da bleibt nur ein Ort für das Scannen über. Nämlich der, von dem der Mist hochgeladen wurde.
Wieso? Der Ort, wo, um mich Deiner gewählten Ausdrucksweise zu befleißigen, der „Mist“ ankommt, ginge doch genauso?
Also auf allen Geräten, die bei iMessage teilnehmen.
Mit Nachrichten (iMessages) hat das alles nicht das Geringste zu tun. Es geht ausschließlich um iCloud Foto.

Das Problem mit dem Nacktfoto-Scan in iMessages von Kindern und Jugendlichen ist wieder was völlig anderes.
Letztendlich ist es egal, ob es erst auf dem Server oder schon vorher geprüft wird.
Das ist nicht egal, das ist der entscheidende Unterschied. Auf iCloud hat Apple Hausrecht, auf Deinem Mac oder iOS-Gerät solltest Du es haben. Hast es aber erstmals nicht mehr. Das ist ein riesiger Unterschied.
Apple weiß bei einem vermeintlichen Treffer immer, wo das Foto her kam
Aber darum geht es überhaupt nicht.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+12
chessboard
chessboard20.08.21 22:19
Also, Facebook legt seinen Fokus auf Vertrauen und Sicherheit, ist aber dagegen beim Schutz der Privatsphäre schlecht. Und Apples Prioritäten sind genau anders herum? Wie soll man das jetzt verstehen? Apple findet Privatspäre total wichtig, aber Vertrauen und Sicherheit stehen bei denen nicht so im Fokus? Na, schönen Dank auch. Wie wäre es vielleicht mit Vertrauen, Sicherheit UND Privatsphäre?

Und warum meldet Apple "nur" 265 Fälle, wenn die Leute, die es wissen sollten, eigentlich davon ausgehen, dass sie eine "großartige" Plattform für KiPo bieten? Wurden jetzt wer weiß wie viele Fälle unter den Tisch fallen gelassen und nicht gemeldet, oder hat Eric Friedmann doch nicht so den Durchblick, was auf Apples Servern so abgeht?

Das alles lässt Apple nicht wirklich gut dastehen. Kombiniert mit den Problemen beim App Store bekommt man langsam den Eindruck, dass es hinter der tollen Marketingfassade ganz schön was zu reparieren gibt. Da wird gerade ein ganzer Porzelanladen zu Bruch geschlagen...
+2
Weia
Weia21.08.21 01:13
TiBooX
Sicher ist:
Sowas macht ein Konzern nicht einfach aus einer Laune heraus.
Ja, das sollte man meinen. Selbst bei Aktionen, die man selbst ablehnt, geht man ja doch davon aus, dass die Akteure gute Gründe für ihr Handeln hatten.

Ich habe da erstmal dieselbe Intuition wie Du.

Aber manchmal kommen mir Zweifel, ob an den Schaltstellen der Macht wirklich völlig rational agiert wird. Da ist erstmal der bemerkenswerte Satz von Craig Federighi, der ihm beim Wall-Street-Journal-Interview rausgerutscht ist (wofür er sich seitdem sicherlich hundertfach auf die Zunge gebissen hat), dass Apple die Algorithmen zum Erkennen von Nacktfotos (die in iMessages an und von Kindern und Jugendlichen eingesetzt werden sollen) entwickelt hat, ohne zum Training oder Test Nacktfotos überhaupt oder jedenfalls hinreichend zu benutzen, da dies ja den Mitarbeitern nicht zugemutet werden konnte.

Wohlgemerkt: An dieser Stelle geht es nicht etwa um kinderpornographische Bilder, sondern schlicht um Bilder, auf denen Menschen nackt zu sehen sind. Oder, wie Apple es so schön auf der Warnmeldung ausdrückt, die die Kinder und Jugendlichen dann ggf. zu sehen bekommen werden: Sie könnten, wenn sie sich entscheiden, diese Bilder zu betrachten, Schaden nehmen, da auf den Bildern möglicherweise private parts von Menschen zu sehen wären, das seien die, die man beim Schwimmen mit seiner Badekleidung bedecke. (Sowas kann man sich als Persiflage nicht ausdenken.)

Apple trainiert also irgendwie einen KI-Algorithmus auf das Erkennen nackter Menschen, ohne Bilder zu benutzen, auf denen nackte Menschen zu sehen wären, weil das den Mitarbeitern nicht zugemutet werden könne. Sagt Sonnyboy Federighi aus dem vermeintlich unverklemmtesten Staat der USA.

Und jetzt gibt es da also auch noch Eric (FEAR(??)) Friedman, der mutmaßt, Apples Plattformen seien die bestgeeigneten für den Vertrieb von Kinderpornographie, weil … ja, wie kommt er eigentlich zu dieser Einschätzung? Hat er einen Vergleichstest in einem Monatsmagazin für Kinderpornographieproduzenten gelesen? Oder denkt er, dass Apples Plattformen, da vergleichsweise sicher für Nutzer, deshalb bestimmt auch zwielichtige Gestalten anzögen – spricht da der Sicherheitschef aus Inbrunst, der in jeder nicht überwachten Ecke eigentlich finstere Machenschaften vermutet (und was könnte finsterer sein als Kinderpornographie)?

Klar, das sind zwei winzige Schlaglichterchen aus dem Innenleben des größten Unternehmens der Welt, die man nicht überbewerten sollte, und vermutlich tragen sie überhaupt nichts zur Klärung der Vorgänge bei, die zu den hier diskutierten Entscheidungen geführt haben. Aber sie beleuchten doch eine eigentümliche interne Schwüle in dem Unternehmen, das Anstalten macht, sich zum moralischen Wächter der Welt aufzuschwingen, die mich manchmal zweifeln lässt, ob Apples Vorgehen hier durch und durch rational gesteuert ist.



Für diejenigen, die das Interview nicht kennen, hier ist eine ungeglättete Wort-für-Wort-Verschriftung der Passage, in der der sonst brillante Rhetoriker Federighi ins Stottern gerät. Dabei handelt es sich um die vollständige Antwort auf die Frage; mehr sagt er dazu nicht mehr:

Wall Street Journal: This feature is using on-device machine learning to look for photos that might contain nudity. How confident are you in this, the algorithms that are looking at these photos? I mean, how confident are you guys gonna be that this is a nude image and not a rocket ship?

Craig Federighi: Right. So, this is a machine learned classifier. It’s very good. It’s very accurate. It will, it can make a mistake, right? It could, it could say a photo that – It’s unlikely to be a rocket ship, but, you know, we’ve, we’ve had a tough time coming up with images that we can fool it with, to do, to do our testing with, ’cause we wanted to be able to go through flows in the feature without all looking at nudity, and it’s very hard to fool it, but it can be fooled.


(Es gibt eine soziologische Disziplin namens Objektive Hermeneutik, deren Ansatz es ist, sozusagen zwischen den Zeilen dessen zu lesen, was gesellschaftliche Akteure sagen und tun, weil – so die Pointe des Ansatzes – die Antworten auf die Frage nach den tatsächlichen Motiven, Zielen usw. in den unkontrollierten Passagen solcher Äußerungen liegen, Versprechern z.B. (erinnert an das Konzept des Freud’schen Versprechers). Aus dieser Perspektive ist das Zitat ungemein aufschlussreich; statt die Antwort auf die Frage zu Ende zu bringen (ein Raumschiff würde nicht damit verwechselt, aber bei XY könnte es passieren), driftet Federighi plötzlich ab und erzählt ohne jede Not davon, dass der Algorithmus intern gar nicht gründlich mit Nacktbildern getestet wurde – die im übrigen ja gerade diejenigen Bilder wären, die den Algorithmus nicht foolen würden, sprich, logisch falsch ist der Satz auch noch.)
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+13
LoCal
LoCal21.08.21 09:41
MikeMuc
TiBooX
Auf der Server-Seite!
Pappnase, du.
Apple will den Kram nicht auf ihren Servern. Und da bleibt nur ein Ort für das Scannen über. Nämlich der, von dem der Mist hochgeladen wurde. Also auf allen Geräten, die bei iMessage teilnehmen.
Letztendlich ist es egal, ob es erst auf dem Server oder schon vorher geprüft wird. Apple weiß bei einem vermeintlichen Treffer immer, wo das Foto her kam

Was hier scheinbar auch keiner verstehen will: Wenn Apple die Hashes(!) schon auf der Geräteseitenprüft, dann können sie die Cloud endlich vor staatlichem Zugriff dicht machen … was sie wohl schon vor längere Zeit vorhatten, aber eben wegen dieser ganzen Thematik nicht durften.
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
-3
AndreasDV21.08.21 09:55
Vielleicht bin ich da naiv bei dieser Geschichte. Und ich beschäftige mich auch nicht ganz so wie hier hier. Aber wenn ich ein Gauner wäre, egal ob KP oder Drogen usw., dann würde ich niemals 2 Sachen benutzen. Android Handys und definitiv auch nicht WhatsApp. Dann nehme ich ein iPhone und nutze iMessage. Allein schon deswegen, kann man sich ausdenken, das viele Verbrecher wahrscheinlich eher ein iPhone nutzen. Also nicht die kleinen, sondern eben eher die etwas größeren und die ganz großen. Und deswegen habe ich keine Probleme damit, das Apple Bilder in der iCloud überprüft. Die schauen ja nicht direkt die Bilder an, sondern werden eben… ihr wisst schon wie. Ich selber habe Nacktbilder von meinen Kindern wie sie ganz klein noch waren und in der Wanne gebadet wurden. Aber ich denke, da wird Apple kein Treffer landen, da diese Bilder nur für mich und meine Frau sind und wir die Bilder auch nicht weitergegeben haben. Mein Segen hat Apple
-1
Weia
Weia21.08.21 10:24
LoCal
Was hier scheinbar auch keiner verstehen will: Wenn Apple die Hashes(!) schon auf der Geräteseitenprüft, dann können sie die Cloud endlich vor staatlichem Zugriff dicht machen …
Das versteht hier jeder. Was außer Dir vermutlich niemand hier versteht, ist, worin denn der Vorteil liegen soll, wenn eine Cloud überwachungssicher wird, weil die Überwachung bereits auf dem eigenen Rechner stattfindet. Auf eine Cloud kann man schließlich verzichten, auf den eigenen Rechner nicht.

Außerdem ist es ja reine Spekulation, dass Apple iCloud irgendwie sicherer macht. Niemand weiß, ob sie das tun werden, und sie haben sich diesbezüglich auch nicht geäußert.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+6
Weia
Weia21.08.21 10:41
AndreasDV
Und deswegen habe ich keine Probleme damit, das Apple Bilder in der iCloud überprüft.
Aber genau darum geht es hier doch eben nicht. Das Problem ist, dass Apple Bilder auf Deinen Geräten überprüft. Und dafür eine Überwachungsinfrastruktur auf Apple-Geräten installiert, die, einmal vorhanden, für alles mögliche benutzt werden kann, auch wenn Apple jetzt das Gegenteil beteuert. Und es ist ein prinzipieller rechtlicher Tabubruch, ohne richterlichen Beschluss Privatssphäre und Unverletzlichkeit der Wohnung auszuhebeln und das auch noch als Privatunternehmen.
Ich selber habe Nacktbilder von meinen Kindern wie sie ganz klein noch waren und in der Wanne gebadet wurden. Aber ich denke, da wird Apple kein Treffer landen, da diese Bilder nur für mich und meine Frau sind und wir die Bilder auch nicht weitergegeben haben.
Das stimmt.
Mein Segen hat Apple
Du erteilst einer digitalen Praxis Deinen Segen, deren physisches Pendant wäre, dass alle paar Tage ein Durchsuchungskommando Deine Wohnung betritt und nach einer bestimmten Sache schaut, bloß, weil Du diese Sache nicht hast und damit ja also nichts zu fürchten?
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+13
Stefan...21.08.21 10:54
Weia
TiBooX
Sicher ist:
Sowas macht ein Konzern nicht einfach aus einer Laune heraus.
Ja, das sollte man meinen. Selbst bei Aktionen, die man selbst ablehnt, geht man ja doch davon aus, dass die Akteure gute Gründe für ihr Handeln hatten.

Ich habe da erstmal dieselbe Intuition wie Du.

Aber manchmal kommen mir Zweifel, ob an den Schaltstellen der Macht wirklich völlig rational agiert wird. Da ist erstmal der bemerkenswerte Satz von Craig Federighi, der ihm beim Wall-Street-Journal-Interview rausgerutscht ist (wofür er sich seitdem sicherlich hundertfach auf die Zunge gebissen hat), dass Apple die Algorithmen zum Erkennen von Nacktfotos (die in iMessages an und von Kindern und Jugendlichen eingesetzt werden sollen) entwickelt hat, ohne zum Training oder Test Nacktfotos überhaupt oder jedenfalls hinreichend zu benutzen, da dies ja den Mitarbeitern nicht zugemutet werden konnte.

Wohlgemerkt: An dieser Stelle geht es nicht etwa um kinderpornographische Bilder, sondern schlicht um Bilder, auf denen Menschen nackt zu sehen sind. Oder, wie Apple es so schön auf der Warnmeldung ausdrückt, die die Kinder und Jugendlichen dann ggf. zu sehen bekommen werden: Sie könnten, wenn sie sich entscheiden, diese Bilder zu betrachten, Schaden nehmen, da auf den Bildern möglicherweise private parts von Menschen zu sehen wären, das seien die, die man beim Schwimmen mit seiner Badekleidung bedecke. (Sowas kann man sich als Persiflage nicht ausdenken.)

Apple trainiert also irgendwie einen KI-Algorithmus auf das Erkennen nackter Menschen, ohne Bilder zu benutzen, auf denen nackte Menschen zu sehen wären, weil das den Mitarbeitern nicht zugemutet werden könne. Sagt Sonnyboy Federighi aus dem vermeintlich unverklemmtesten Staat der USA.

Und jetzt gibt es da also auch noch Eric (FEAR(??)) Friedman, der mutmaßt, Apples Plattformen seien die bestgeeigneten für den Vertrieb von Kinderpornographie, weil … ja, wie kommt er eigentlich zu dieser Einschätzung? Hat er einen Vergleichstest in einem Monatsmagazin für Kinderpornographieproduzenten gelesen? Oder denkt er, dass Apples Plattformen, da vergleichsweise sicher für Nutzer, deshalb bestimmt auch zwielichtige Gestalten anzögen – spricht da der Sicherheitschef aus Inbrunst, der in jeder nicht überwachten Ecke eigentlich finstere Machenschaften vermutet (und was könnte finsterer sein als Kinderpornographie)?

Klar, das sind zwei winzige Schlaglichterchen aus dem Innenleben des größten Unternehmens der Welt, die man nicht überbewerten sollte, und vermutlich tragen sie überhaupt nichts zur Klärung der Vorgänge bei, die zu den hier diskutierten Entscheidungen geführt haben. Aber sie beleuchten doch eine eigentümliche interne Schwüle in dem Unternehmen, das Anstalten macht, sich zum moralischen Wächter der Welt aufzuschwingen, die mich manchmal zweifeln lässt, ob Apples Vorgehen hier durch und durch rational gesteuert ist.



Für diejenigen, die das Interview nicht kennen, hier ist eine ungeglättete Wort-für-Wort-Verschriftung der Passage, in der der sonst brillante Rhetoriker Federighi ins Stottern gerät. Dabei handelt es sich um die vollständige Antwort auf die Frage; mehr sagt er dazu nicht mehr:

Wall Street Journal: This feature is using on-device machine learning to look for photos that might contain nudity. How confident are you in this, the algorithms that are looking at these photos? I mean, how confident are you guys gonna be that this is a nude image and not a rocket ship?

Craig Federighi: Right. So, this is a machine learned classifier. It’s very good. It’s very accurate. It will, it can make a mistake, right? It could, it could say a photo that – It’s unlikely to be a rocket ship, but, you know, we’ve, we’ve had a tough time coming up with images that we can fool it with, to do, to do our testing with, ’cause we wanted to be able to go through flows in the feature without all looking at nudity, and it’s very hard to fool it, but it can be fooled.


(Es gibt eine soziologische Disziplin namens Objektive Hermeneutik, deren Ansatz es ist, sozusagen zwischen den Zeilen dessen zu lesen, was gesellschaftliche Akteure sagen und tun, weil – so die Pointe des Ansatzes – die Antworten auf die Frage nach den tatsächlichen Motiven, Zielen usw. in den unkontrollierten Passagen solcher Äußerungen liegen, Versprechern z.B. (erinnert an das Konzept des Freud’schen Versprechers). Aus dieser Perspektive ist das Zitat ungemein aufschlussreich; statt die Antwort auf die Frage zu Ende zu bringen (ein Raumschiff würde nicht damit verwechselt, aber bei XY könnte es passieren), driftet Federighi plötzlich ab und erzählt ohne jede Not davon, dass der Algorithmus intern gar nicht gründlich mit Nacktbildern getestet wurde – die im übrigen ja gerade diejenigen Bilder wären, die den Algorithmus nicht foolen würden, sprich, logisch falsch ist der Satz auch noch.)

Der Nacktscanner ist ein Teil von iMessage den Eltern OPTIONAL aktivieren können.
Und natürlich wird der MACHINE LEARNING Filter mit nackten Menschen trainiert. Nein, Machine Learning bedeutet nicht, dass das in größerem Umfang Menschen involviert sind.
-1
Weia
Weia21.08.21 11:16
Stefan...
Der Nacktscanner ist ein Teil von iMessage den Eltern OPTIONAL aktivieren können.
Das hat doch niemand bestritten?
Und natürlich wird der MACHINE LEARNING Filter mit nackten Menschen trainiert.
Sollte man meinen, ja.

Aber woher nimmst Du die Kenntnis, dass das hier auch tatsächlich so ist? Und wie verstehst Du dann we’ve had a tough time coming up with images that we can fool it with, to do, to do our testing with, ’cause we wanted to be able to go through flows in the feature without all looking at nudity?
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+4
Nightraider21.08.21 13:08
Weia
Aber genau darum geht es hier doch eben nicht. Das Problem ist, dass Apple Bilder auf Deinen Geräten überprüft. Und dafür eine Überwachungsinfrastruktur auf Apple-Geräten installiert, die, einmal vorhanden, für alles mögliche benutzt werden kann, auch wenn Apple jetzt das Gegenteil beteuert. Und es ist ein prinzipieller rechtlicher Tabubruch, ohne richterlichen Beschluss Privatssphäre und Unverletzlichkeit der Wohnung auszuhebeln und das auch noch als Privatunternehmen.

Genau - Daumen hoch!
+6
pogo3
pogo321.08.21 15:19
Aber genau darum geht es hier doch eben nicht. Das Problem ist, dass Apple Bilder auf Deinen Geräten überprüft. Und dafür eine Überwachungsinfrastruktur auf Apple-Geräten installiert, die, einmal vorhanden, für alles mögliche benutzt werden kann, auch wenn Apple jetzt das Gegenteil beteuert. Und es ist ein prinzipieller rechtlicher Tabubruch, ohne richterlichen Beschluss Privatssphäre und Unverletzlichkeit der Wohnung auszuhebeln und das auch noch als Privatunternehmen.
Jo, natürlich Daumen hoch (hab ich bei Weia aber eh fast immer ) Nun hoffe ich doch, dass diese Praxis dann bei den Gerichten hier im Lande landet, und entsprechend geahndet und/oder berichtigt wird. Das wäre in vielerlei Sicht in wichtiges Signal für Computeruser. Das BVG, oder EUGH sollte den Riegel wieder vorschieben, den Apple beseitigen will. Wann startet eigentlich ne Petition ? Oder gibt es schon eine ?

Übrigens fand ich Herr Federighi hat berichtet was man wusste oder eben befürchtete. Sein nonverbalen Verhalten erschien enorm verunsichert. Es war ihm sichtlich peinlich darüber aussagen zu müssen, und er erschien sehr unsicher. Oft sagt Mimik mehr als das Wort. Mir schien als war er nicht sicher, ob er das zu sagende auch wirklich innerlich mittragen soll/will.
Ich schmeiss alles hin und werd Prinzessin.
+1
AppleUser2013
AppleUser201321.08.21 17:11
Tja bei Android gibt man sozusagen in einigen Bereichen ja freiwillig seine Daten...
Und Apple geht jetzt den nächsten Schritt... Wir geben keine Daten mehr freiwillig weiter, sondern Apple scant einfach direkt ihre Geräte... Cool; Brave new world...

Das schlimmste Szenario: Apples Algorithmus generiert viele falsch positive Ergebnisse...
Ein Alptraum für jeden unbescholtenen Bürger...

Ich sage; Apple begibt sich da auf einen gefährlichen Pfad...sry...
+5
BarbedAndTanged21.08.21 17:32
awk
Motti
Schlimm.. wie hier private Nachrichten veröffentlicht werden. Egal ob der Inhalt gut oder schlecht ist.

Wenn Apple davon gewusst, aber nichts unternommen hat, dann ist das schlimm.

Dafür werden jetzt alle Besitzer von Apple Geräten unter Generalverdacht gestellt. Das ist schlimm!

„Apple macht nix gegen KiPo. Das ist schlimm.“ Ein Satz später: „Apple will was gegen KiPo machen. Das ist schlimm!“

Alle wollen, dass was getan wird aber keiner ist bereit, mitzuhelfen.
-7
chessboard
chessboard21.08.21 17:54
@BarbedAndTanged
Mir lägen zwar jetzt jede Menge zynische Anworten auf der Zunge, aber ich will es dennoch sachlich versuchen: Der Zweck heiligt nun einmal nicht die Mittel.

Man kann Apple durchaus dafür kritisieren, zu unentschieden gegen KiPo auf den eigenen Plattformen vorzugehen, und gleichzeit den jetzt gewählten Ansatz ablehnen. Letzteres gerade weil dadurch das eigentliche Problem der Verbreitung von KiPo nicht wirklich unterbunden wird (zum Beispiel unter anderem, weil erst ab dem 30. Bild überhaupt reagiert wird).
Anstatt nach einer Tat (Bildveröffentlichung) den Täter zu identifizieren, setzt Apple auf den Ansatz, JEDEM Nutzer zu unterstellen, ein Täter zu sein und präventiv dessen Bilder zu untersuchen.

Es gibt also bei Apples Vorgehen erst einmal gar keine Tat, aber dennoch quasi ein "Ermittlungsverfahren". Völlig anlasslos und unbegründet. Das ist eine Verkehrung unseres Rechtssystems ins Gegenteil.
+8
pogo3
pogo321.08.21 18:35
Jetzt aber ehrlich, was hier alles geschrieben und beschrieben wird, wissen jetzt eigentlich mittlerweile alle hier. Für alle die nicht dafür sind: Was tun wir ? Was sollten wir tun ? Gibt es eine Petition, sollten wir eine eröffnen ? Ohne öffentlichen Druck, und es wird immensen Druck benötigen, wird es kommen wie es kommt. Also Leute, genug rumgelabert, was tun wir ? Worauf warten wir ?
Ich schmeiss alles hin und werd Prinzessin.
+3
Claus Krüger21.08.21 19:47
Weia
Du erteilst einer digitalen Praxis Deinen Segen, deren physisches Pendant wäre, dass alle paar Tage ein Durchsuchungskommando Deine Wohnung betritt und nach einer bestimmten Sache schaut, bloß, weil Du diese Sache nicht hast und damit ja also nichts zu fürchten?

Ein Durchsuchungskommando eines privatwirtschaftlichen (!!) Unternehmens!
Apple: »Designed in California, Assembled in China, Purchased by You, Owned by Us.« (Ed Snoden)
+2
McErik21.08.21 19:48
pogo3
Jetzt aber ehrlich, was hier alles geschrieben und beschrieben wird, wissen jetzt eigentlich mittlerweile alle hier. Für alle die nicht dafür sind: Was tun wir ? Was sollten wir tun ? Gibt es eine Petition, sollten wir eine eröffnen ? Ohne öffentlichen Druck, und es wird immensen Druck benötigen, wird es kommen wie es kommt. Also Leute, genug rumgelabert, was tun wir ? Worauf warten wir ?

Die erste Frage ist ja, wie kann man Verantwortliche von Apple überhaupt erreichen.
Petitionen gibt es ja schon einige. Ich würde natürlich jede weitere unterzeichnen. Aber ob Apple das nicht auch nur als Kreischen einer Minderheit einstuft?

Ist eigentlich nicht mein Stil und ich habe auch gar keine Erfahrung damit, trotzdem mal als vielleicht unausgegorene Idee in die Runde:
Wie wäre es, wenn man sich mal mit entsprechenden Transparenten vor den Apple Stores aufstellt? Gibt ja nicht allzu viele davon in den DACH-Ländern. Könnte eventuell nach oben gemeldet werden.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.