Foto-Analyse gegen Kindesmissbrauch: Apple scannt iCloud Mail schon seit geraumer Zeit
Apple ergreift nicht erst ab der Veröffentlichung von iOS 15 diverse Maßnahmen gegen Kindesmissbrauch sowie sexuell konnotierte Inhalte, welche mit iMessage verschickt werden. Das kalifornische Unternehmen analysiert bereits seit zwei Jahren sämtliche Nachrichten, welche mit einem iCloud-Mail-Account empfangen oder verschickt werden. Analysiert werden dabei offenbar sowohl Texte als auch Anhänge.
Apple scannt iCloud-Mail schon seit 2019Der iPhone-Konzern teilte
9to5Mac jetzt auf eine entsprechende Anfrage hin mit, man fahnde in iCloud Mail schon seit 2019 nach kinderpornografischem Material. Hinweise auf ein solches Vorgehen gab es bereits, unter anderem in einer älteren Fassung der Webseiten zum Thema "Child Safety". Allerdings waren diese eher allgemein gehalten und nannten keine technischen Details. Apple behielt sich auch stets vor, bei entsprechenden Funden den jeweiligen Account zu sperren beziehungsweise ganz abzuschalten. Die Scans erfolgen im Unterschied zu der für iOS 15 angekündigten Foto-Analyse nicht lokal auf iPhones, iPads oder Macs, sondern finden auf Apples Servern statt.
Keine Analyse von iCloud-Backups und iCloud-FotosApple erklärte gegenüber 9to5Mac zudem, man scanne in begrenztem Umfang andere Daten, wollte sich zu den Einzelheiten jedoch nicht äußern. Das Unternehmen betonte allerdings, das betreffe weder iCloud-Backups noch iCloud-Fotos. Bei der Analyse von E-Mails und Anhängen könnte es sich ebenfalls um einen Abgleich mit den Hashwerten bereits bekannten kinderpornografischen Materials handeln. Apple zufolge nutzt das hauseigene System nämlich elektronische Signaturen, um illegale Bilder zu identifizieren. Das Verfahren ähnele einem Spam-Filter, so das Unternehmen auf der mittlerweile nicht mehr verfügbaren älteren Version der "Child Safety"-Webseite. Hinzu komme eine individuelle Überprüfung aller Verdachtsfälle.
Scans von Cloud-Inhalten sind nicht ungewöhnlichDass Cloud- und Mail-Anbieter insbesondere in den Vereinigten Staaten hochgeladene und verschickte Inhalte auf kinderpornografische Darstellungen überprüfen, ist keine Seltenheit. Microsoft und Google, aber auch andere Unternehmen nehmen solche Analysen schon seit Jahren vor und kommunizieren das auch in ihren Nutzungsbedingungen. Die von Apple seit 2019 durchgeführten serverseitigen Scans von iCloud-Mail stellen also keine Ausnahme dar und stehen in aller Regel auch nicht in der Kritik von Datenschützern oder Menschenrechtsorganisationen. Diese halten hingegen Apples angekündigte neue Maßnahmen unter anderem deshalb für gefährlich, weil das Unternehmen die Analyse auf die Geräte verlagert und einem Missbrauch somit Tür und Tor geöffnet würden.