Nacktbilder und Deep Fakes per KI erzeugen: Apple geht nun gegen Auszieh-Apps vor
Es hatte sich um eine etwas merkwürdige Grauzone im App Store gehandelt, denn eigentlich sind Nacktheit und Pornografie Kategorien, die Apple seit jeher nicht duldet. Zahlreiche Angebote im App Store, die der Erzeugung von Nacktbildern und Deep Fakes dienten, durften jedoch bestehen. Schon seit Ende 2022
gab es Kritik an jenen Angeboten, bislang erfolgte aber lediglich eine Reaktion Googles – in Form eines Verbots, das Werbenetzwerk in solchen Programmen einzusetzen. Apple hingegen winkte Apps zur "nicht-einvernehmlichen Erstellung von Nacktbildern" weiterhin durch.
Deep Fakes für Promi- und andere Nacktbilder eingesetztDerlei Angebote sind während des Überprüfungsprozesses nicht einfach zu erkennen, denn besagte App werben nicht immer offen mit dem Slogan "ziehe alle Promis aus oder sieh deine Freunde nackt". Stattdessen handelt es sich auch um Angebote, bei denen beispielsweise Gesichter in bestehende Fotos eingesetzt werden können – ungeachtet, ob diese unbekleidet oder bekleidet sind.
Selbst dedizierte "Auszieh-Apps" hatten teilweise BestandTeilweise gelang es aber solchen Programmen, lange Zeit im App Store zu verweilen, die sich ganz bewusst als "Undressing-Apps" darstellten. Von Meta und Google weiß man, dass entsprechende Werbekampagnen gelöscht wurden, sobald es Beschwerden von Nutzern gab. Apple schritt in mehreren Fällen ebenfalls zur Tat, wenn die Ausrichtung der App allzu offensichtlich war.
Apps werden konsequent(er) gelöschtInzwischen scheint es aber ein konsequenteres Vorgehen zu geben. Sofern KI-Apps das Ziel haben, die eingangs zitierten "nicht-einvernehmlichen" Nacktbilder zu erstellen, gibt es generell kein grünes Licht mehr. Sämtliche bestehenden Angebote dürfen ebenfalls nicht länger im App Store verweilen. Google setzt im Playstore fast identische Maßnahmen um und nimmt sich des Problems ebenfalls beherzter als in der Vergangenheit an.
Eigentlich hätte es schon immer Maßnahmen geben müssenKI-Apps an der Erstellung von Pornografie zu hindern, ist kein einfaches Vorhaben. Als wir bei Synium Software, Betreiber von MacTechNews, die bis dato erste Bilder-KI zur
Erzeugung von Vektorgrafiken direkt auf dem Gerät entwickelt hatten, mussten wir ebenfalls den eigentlich sehr eindeutigen Apple-Vorgaben gegenüber Nacktheit entsprechen. Da KIs zwar sehr intelligent wirken, im Falle von LLMs oder auch bei Bildgenerierung keine Ahnung haben, was sie dort gerade tun, ist aufwendig einzugreifen. Von blockierten Begriffen bis hin zu Bildanalysen reichen die Möglichkeiten – was im Falle von VectorAI beispielsweise die Nebenwirkung hatte, dass Sumoringer grundsätzlich als pornografisches Material abgelehnt wurden.