KI-Tool untersucht Apps auf sexuelle Inhalte – Apple wirft zehn Anwendungen aus dem App Store
iPhones und Smartphones anderer Hersteller werden bekanntlich nicht nur von Erwachsenen genutzt. Millionen von Jugendlichen und sogar Kindern verfügen ebenfalls über Mobiltelefone. Nicht wenige Eltern – vornehmlich in den Vereinigten Staaten – machen sich daher Sorgen, dass ihre Sprösslinge mit sexuellen Inhalten in Kontakt kommen könnten, welche in Apps zu finden sind. Apple hat deshalb bereits vor einiger Zeit Maßnahmen ergriffen, um Kinder vor sexuellem Missbrauch zu schützen, und stattete etwa iMessage mit einem Nacktfilter aus. Die Funktion ist unter der Bezeichnung Communication Safety bekannt und wird in iOS 17 auf weitere Anwendungen ausgeweitet (siehe
).
Apps schlüpfen manchmal durchs ReviewEntwickler, die ihre Anwendungen im App Store veröffentlichen wollen, müssen zudem strikte Regeln im Zusammenhang mit der Präsentation von sexuell konnotiertem Material einhalten. Angesichts der Vielzahl der vorhandenen und täglich neu eingereichten Apps stößt Apples Review Team aber bei der Prüfung immer wieder einmal an Grenzen und eine grenzwertige oder unzulässige App schlüpft ohne Beanstandung durch die Prüfung. Zudem ist nicht auszuschließen, dass Kinder in eigentlich unverdächtigen Anwendungen wie etwa Messengern oder Clients für Soziale Netzwerke mit anstößigen Texten und Bildern konfrontiert werden. Das
App Danger Project hat es sich zur Aufgabe gemacht, derartige Apps aufzuspüren und auf einer Webseite zu veröffentlichen. Eltern sollen damit in die Lage versetzt werden, sich zu informieren und ihre Kinder vor sexuellen Inhalten zu schützen.
KI-Tool untersucht User-RezensionenDas App Danger Project setzt dabei laut einem Bericht
der New York Times (Bezahlschranke) auf Maschinelles Lernen. Ein spezielles KI-Tool durchforstet automatisch die Rezensionen von Anwendungen, welche in App Store und Google Play Store zu finden sind. Die Macher konzentrieren sich auf Apps im Zusammenhang mit Kommunikation und sozialen Medien, also etwa Chat- und Dating-Anwendungen. Sind in den User-Reviews vermehrt Hinweise auf sexuelle Inhalte zu finden, landet die entsprechende App auf der Warnliste. Die Anwendungen selbst werden nicht überprüft. Derzeit fehlen dem Projekt zudem noch Ressourcen, um die Rezensionen sämtlicher Apps zu untersuchen.
Apple reagiert: Zehn Apps aus dem App Store entferntApple ist der New York Times zufolge vor Kurzem auf das App Danger Project aufmerksam geworden. Das kalifornische Unternehmen hat sich die Liste der möglicherweise das Kindeswohl gefährdenden Anwendungen genauer angeschaut und diese offenbar eigenen Checks unterzogen. Dabei stellte sich heraus, dass zehn Apps die App-Store-Richtlinien verletzen. Sie wurden mittlerweile aus Apples digitalem Softwareladen entfernt. Um welche Anwendungen es sich dabei handelt, teilte Apple der Tageszeitung nicht mit. In einer Stellungnahme hieß es lediglich, das Review-Team arbeite rund um die Uhr daran, neue Apps und Updates zu überprüfen und sicherzustellen, dass diese die Richtlinien einhielten.