Warnung vor KI-Gefahren: OpenAI- und DeepMind-Mitarbeiter äußern sich besorgt
Laut der Verfasser, gebe es derzeit keine wirksame Aufsicht über Unternehmen, die an der Entwicklung von KI-Technologien arbeiten. Dies berge erhebliche Risiken wie Verschärfung bestehender Ungleichheiten, Manipulation und Verbreitung von Fehlinformationen sowie den Verlust der Kontrolle über autonome KI-Systeme, die nach Ansicht der Verfasser sogar zur Auslöschung der Menschheit führen könnten. Sie weisen auch auf die starken finanziellen Anreize hin, welche KI-Unternehmen dazu veranlassen, ihre Entwicklung stur voranzutreiben und Informationen über ihre Schutzmaßnahmen und Risikoniveaus geheim zu halten. „Wir glauben nicht, dass sie alle freiwillig bereit sind, diese Informationen zu teilen“, heißt es
in dem Schreiben. Es liege daher an Mitarbeitern, sich zu äußern und Unternehmen zur Rechenschaft zu ziehen.
Mangelnde Aufsicht und Blockade durch VertraulichkeitsvereinbarungenDer Brief kritisiert fehlende staatliche Aufsicht über KI-Entwicklungsfirmen. Daher müssten Beschäftigte selbst aktiv werden, um die Öffentlichkeit zu informieren. Weitreichende Vertraulichkeitsvereinbarungen verhindern jedoch, dass Mitarbeiter ihre Bedenken äußern, außer gegenüber den Unternehmen selbst, welche möglicherweise nicht in der Lage sind, diese Probleme anzugehen. „Normale Maßnahmen zum Schutz von Whistleblowern sind unzureichend, da sie sich auf illegale Aktivitäten konzentrieren, während viele der von uns angesprochenen Risiken noch gar nicht geregelt sind“, betonen die Mitarbeiter.
Forderungen nach wirksamen SchutzmaßnahmenDie Unterzeichner verlangen von den KI-Unternehmen nicht nur solide Schutzmaßnahmen für Whistleblower. Zu ihren Forderungen gehören:
- Keine Schaffung oder Durchsetzung von Vereinbarungen, die Kritik an risikorelevanten Anliegen verhindern.
- Ein nachweislich anonymes Verfahren für Mitarbeiter, um risikobezogene Bedenken gegenüber dem Vorstand, den Aufsichtsbehörden und unabhängigen Organisationen mit einschlägiger Expertise zu äußern.
- Förderung einer Kultur der offenen Kritik, welche es Mitarbeitern ermöglicht, ihre Bedenken hinsichtlich der Risiken von Technologien öffentlich, gegenüber dem Vorstand, den Aufsichtsbehörden und anderen Stellen zu äußern, solange Geschäftsgeheimnisse gewahrt bleiben.
- Keine Vergeltungsmaßnahmen gegen Mitarbeiter, die vertrauliche risikobezogene Informationen öffentlich weitergegeben haben, nachdem andere Verfahren gescheitert sind.
Drohungen und EinschüchterungEinige der insgesamt 13 Unterzeichner, darunter sieben ehemalige Mitarbeiter von OpenAI, vier aktuelle Mitarbeiter von OpenAI, ein ehemaliger Mitarbeiter von Google DeepMind und ein aktueller Mitarbeiter von Google DeepMind, berichten von Drohungen seitens OpenAI. Es wurde mit dem Verlust erworbener Anteile gedroht und drakonische Geheimhaltungsvereinbarungen mussten unterzeichnet werden, um Kritik zu unterbinden.
Zeitpunkt der VeröffentlichungDer offene Brief erscheint zu einem interessanten Zeitpunkt, da Apple kurz davor steht, mehrere KI-basierte Funktionen für iOS 18 und andere Software-Updates anzukündigen. Apple arbeitet an eigenen KI-Funktionen, die nicht nur in Apps, sondern auch im Betriebssystem integriert werden sollen, und hat außerdem einen Vertrag mit OpenAI geschlossen, um ChatGPT-Funktionen in iOS 18 zu integrieren.