KI außer Rand und Band? 22 Länder und viele Tech-Größen legen gemeinsame Sicherheitsforderungen vor
Es ist ein bekanntes Sci-Fi-Szenario, dass die künstliche Intelligenz plötzlich selbstbewusst wird, Rechte einfordert oder sich gar gegen ihre Erschaffer richtet. Trotz des massiven KI-Booms, der vor allem in den letzten 12 Monaten von massiven Fortschritten geprägt war, ist sicherlich nicht mit einem Aufstand der ChatGPTs, Siris oder anderen Assistenten zu rechnen. Die Risiken liegen an ganz anderer Stelle, denn die "digitalen KI-Geister" sind bei weitem nicht so neutral, objektiv und manipulationssicher, wie man denken könnte – und wie sie entwickelt und trainiert sind, ist von außen kaum nachzuvollziehen. Das britische "National Cyber Security Centre" hat einen
Forderungs-Katalog vorgelegt, dem sich 22 andere Länder anschlossen – und viele große Tech-Unternehmen ebenfalls. Unter anderem Amazon, Google, IBM, Microsoft und OpenAI kommen zu Wort, Apple fehlt merkwürdigerweise.
Ziele bei Entwicklung, Veröffentlichung und BetriebDarin gibt es vier wesentliche Ziele, deren Einhaltung für sichere Systeme sorgen soll. Um zu verstehen, welcher Natur entwickelte KI-Anwendungen überhaupt sind, bedürfe es von Anfang an guter Dokumentation. Dazu zähle der komplette Produktzyklus, von Konzeption bis hin zum Betrieb und Pflege bestehender Angebote. Als Hauptpunkte enthält das Papier die Säulen:
- Sicheres Design
- Sichere Entwicklung
- Sicheres Veröffentlichen
- Sicheres Beitreiben und Warten
Zum sicheren Design zähle beispielsweise, von Anfang an Risikoanalysen zu erstellen, welche Probleme die gewählte Herangehensweise oder die Nutzung des KI-Dienstes mit sich bringen könnte. Nicht nur die Entwickler, auch Teammitglieder sollen verstehen, woran man eigentlich arbeitet. Genaue Dokumentation der eingesetzten Daten, Modelle oder Verschlüsselungsverfahren seien ebenso wichtig wie regelmäßige Verfahren zur Überprüfung.
Das NCSC betont zudem die große Bedeutung abgesicherter Infrastrukturen sowie Schutz der Modelle, um ungewollte Einflussnahme von außen zu verhindern. Gerade bei KI-Anwendungen ist es nämlich besonders schwer, Manipulationen zu erkennen, welche auf die Gewichtung von Informationen abzielen. Kontinuierliches Monitoring der Eingaben und Ausgaben seien essenziell.
Es klingt gut, doch...In jedem Fall ist es zu begrüßen, wenn landes- und unternehmensübergreifende Positionspapiere zu derart wichtigen Themen entstehen. Ob es jedoch bei Forderungen und Selbstverpflichtungen bleiben kann, bleibt fraglich – denn gewissenhaften Entwicklern sind die oben genannten Punkte ohnehin bereits vertraut. Rechtliche Rahmenbedingungen werden daher teilweise sogar von den Unternehmen und namhaften Forschern
gefordert. Vom Deutschen Ethikrat gab es Anfang des Jahres eine ausführliche Beurteilung der Lage mit Titel "
Mensch und Maschine", in der auf 280 Seiten die vielfältigen Chancen, gleichzeitig jedoch Risiken zur Sprache kommen.