„KI könnte die Menschheit auslöschen“ – Forscher und KI-Spitzenkräfte signieren offenen Brief
Auf einer eigens dafür eingerichteten Seite haben renommierte Forscher und Führungspersonal namhafter Firmen eine knappe Erklärung unterzeichnet. Dessen ernanntes Ziel ist es, die Hemmschwelle zu brechen und eine professionelle Diskussion über die mit KI einhergehenden Gefahren loszubrechen. Der offene Brief wurde mittlerweile von mehr als 350 Führungskräften, Forschern und Ingenieuren unterzeichnet, die allesamt im Gebiet KI tätig sind (siehe
). Bisher äußerten diese nur privat ihre Bedenken.
Viele, namhafte Größen vertretenGanz oben auf der Liste der Unterzeichner befindet sich KI-Forscher sowie Pionier auf diesem Gebiet, Geoffrey Hinton. Der 75-Jährige war zuvor bei Google engagiert, kündigte aber seinen dortigen Job in diesem Monat, um frei über die Risiken von KI
warnen zu können. Gleich darauf folgt Yoshua Bengio. Zusammen mit Yann LeCun erhielten die drei den von der Association for Computing Machinery vergebenen
Turing Award 2018 – den „Nobelpreis der IT-Branche“. Durch ihre Arbeit werden sie auch als „Väter der Deep-Learning-Revolution“ bezeichnet. Durch die aktuellen Tendenzen sehe Hinton sein Lebenswerk bedroht und bereue es schlussendlich. LeCun, Leiter der KI-Forschung bei Meta, hat bisher noch nicht unterzeichnet. Weitere Mitzeichner sind unter anderem die Spitzenkräfte der führenden KI-Unternehmen: Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) sowie Dario Amodei (Anthropic).
Was wird gefordert?Die Erklärung ist kurz, die Aussage jedoch prekär und auf den Punkt formuliert.
Erklärung zum KI-Risiko – www.safe.ai
„Neben anderen Risiken mit hohem gesellschaftlichem Ausmaß wie Pandemien oder einem Atomkrieg sollte es auch eine globale Priorität sein, das Risiko, durch künstliche Intelligenz auszusterben, zu minimieren.“
Seitdem im November letzten Jahres OpenAI mit ChatGPT den ersten Chatbot ins Rennen schickte, der in der Lage ist, komplexe Fragen zu beantworten, wächst hierüber die Besorgnis. Rasche Fortschritte nähren die Befürchtungen, künstliche Intelligenz könne in großem Maßstab Fehlinformationen und Propaganda verbreiten und außerdem Millionen von Jobs überflüssig machen. Diese und weitaus schlimmere Bedenken haben die Branchenführer selbst. Daher trafen sie sich in diesem Monat bereits mit US-Präsident Joe Biden, um staatliche Regulierungen anzufordern (siehe
). Zudem schlug unter anderem OpenAI-Chef Altman vor, eine internationale KI-Sicherheitsorganisation zu gründen, die ähnlich der Atomenergie-Organisation IAEA handeln solle. Auch sollten sich seiner Meinung nach Hersteller großer KI-Modelle staatlich registrieren und lizenzieren müssen.
Nicht zum ersten Mal werden Stimmen lautBereits im März unterzeichneten mehr als 1 000 Technologen und Forscher
einen offenen Brief, der sich zum Ziel nahm, eine sechsmonatige Pause bei der Entwicklung von KI-Modellen zu erwirken. Diese Zeit müsse man sich nehmen, um den außer Kontrolle geratenen Wettlauf wieder in richtige Bahnen zu lenken. Unter anderem signierten auch Elon Musk und Steve Wozniak diese Erklärung. Viele KI-Experten enthielten sich allerdings.
Weitere StimmenDurch die Kürze des neuen Briefes können nun auch jene, welche sich nicht einig über spezifische Risiken oder Maßnahmen sind, jedoch allgemeine Bedenken hegen, eine gemeinsame Grundlage entwickeln. In den USA setzt sich hierzu unter anderem auch Googles Ex-Chef Eric Schmidt für die Regulierung von KI ein. Als Vorsitzender der National Security Commission on Artifical Intelligence verfasste er mit 14 weiteren Experten einen
750-seitigen Bericht über Auswirkungen und Gefahren von KI.
KI und die EUDie EU geht schon einen Schritt weiter und stelle laut OpenAI-CEO Altman mit der geplanten
KI-Verordnung OpenAI „
unerfüllbare Auflagen“. Neben den KI-Regeln müsse man innerhalb der EU auch die Datenschutzgrundverordnung sowie den Digital Service Act einhalten. Das alles könnte dazu führen, dass sich ChatGPT vom europäischen Markt distanziere, so Altman. Auch die Staats- und Regierungschefs der G7 hatten diesen Monat
in Hiroshima getagt und sich über eine internationale Regulierung beraten.