Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Nacktbilder und Deep Fakes per KI erzeugen: Apple geht nun gegen Auszieh-Apps vor

Es hatte sich um eine etwas merkwürdige Grauzone im App Store gehandelt, denn eigentlich sind Nacktheit und Pornografie Kategorien, die Apple seit jeher nicht duldet. Zahlreiche Angebote im App Store, die der Erzeugung von Nacktbildern und Deep Fakes dienten, durften jedoch bestehen. Schon seit Ende 2022 gab es Kritik an jenen Angeboten, bislang erfolgte aber lediglich eine Reaktion Googles – in Form eines Verbots, das Werbenetzwerk in solchen Programmen einzusetzen. Apple hingegen winkte Apps zur "nicht-einvernehmlichen Erstellung von Nacktbildern" weiterhin durch.


Deep Fakes für Promi- und andere Nacktbilder eingesetzt
Derlei Angebote sind während des Überprüfungsprozesses nicht einfach zu erkennen, denn besagte App werben nicht immer offen mit dem Slogan "ziehe alle Promis aus oder sieh deine Freunde nackt". Stattdessen handelt es sich auch um Angebote, bei denen beispielsweise Gesichter in bestehende Fotos eingesetzt werden können – ungeachtet, ob diese unbekleidet oder bekleidet sind.

Selbst dedizierte "Auszieh-Apps" hatten teilweise Bestand
Teilweise gelang es aber solchen Programmen, lange Zeit im App Store zu verweilen, die sich ganz bewusst als "Undressing-Apps" darstellten. Von Meta und Google weiß man, dass entsprechende Werbekampagnen gelöscht wurden, sobald es Beschwerden von Nutzern gab. Apple schritt in mehreren Fällen ebenfalls zur Tat, wenn die Ausrichtung der App allzu offensichtlich war.

Apps werden konsequent(er) gelöscht
Inzwischen scheint es aber ein konsequenteres Vorgehen zu geben. Sofern KI-Apps das Ziel haben, die eingangs zitierten "nicht-einvernehmlichen" Nacktbilder zu erstellen, gibt es generell kein grünes Licht mehr. Sämtliche bestehenden Angebote dürfen ebenfalls nicht länger im App Store verweilen. Google setzt im Playstore fast identische Maßnahmen um und nimmt sich des Problems ebenfalls beherzter als in der Vergangenheit an.

Eigentlich hätte es schon immer Maßnahmen geben müssen
KI-Apps an der Erstellung von Pornografie zu hindern, ist kein einfaches Vorhaben. Als wir bei Synium Software, Betreiber von MacTechNews, die bis dato erste Bilder-KI zur Erzeugung von Vektorgrafiken direkt auf dem Gerät entwickelt hatten, mussten wir ebenfalls den eigentlich sehr eindeutigen Apple-Vorgaben gegenüber Nacktheit entsprechen. Da KIs zwar sehr intelligent wirken, im Falle von LLMs oder auch bei Bildgenerierung keine Ahnung haben, was sie dort gerade tun, ist aufwendig einzugreifen. Von blockierten Begriffen bis hin zu Bildanalysen reichen die Möglichkeiten – was im Falle von VectorAI beispielsweise die Nebenwirkung hatte, dass Sumoringer grundsätzlich als pornografisches Material abgelehnt wurden.

Kommentare

rkb0rg
rkb0rg30.04.24 10:23
Von den interessantesten Dingen erfahre ich immer erst, wenn sie verboten werden…
+32
Nebula
Nebula30.04.24 15:21
Es ist echt erbärmlich, dass man in einer angeblich so aufgeklärten Zeit mit Nackheit so viel Geld verdienen kann. Gefühlt wird die Gesellschaft immer verklemmter.
»Wir werden alle sterben« – Albert Einstein
0
Plebejer
Plebejer30.04.24 15:32
Bei VectorAI reichte bei mir bereits das Wort pretty.
0
Gu Wen Lang30.04.24 23:45
Oh my God, that's disgusting! Where?!
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.