KI-Regulierung: USA werden eingreifen und Beschränkungen erlassen
Bereits im März hatte die EU ein Paket vorgelegt, welches die Ausbreitung von KI-basierten Funktionen von Anfang an in geregelte Bahnen lenken will. So geht es nicht nur um eine Kennzeichnungspflicht von KI-erzeugten Inhalten, sondern auch um das Verbot zum Einsatz für Social Scoring, biometrische Identifikation und biometrische Echtzeit-Erkennungssysteme (etwa Gesichtserkennung).
Nun sind auch die USA einen ersten großen Schritt gegangen und haben einige Monate nach Gründung des Artificial Intelligence Safety Institute Consortium (AISIC) eine weitere Gesetzesvorlage auf den Weg gebracht. Zum aktuellen Zeitpunkt ist die Einhaltung der "AI Safety Guidelines" zwar noch
nicht verpflichtend – hierzu bedarf es natürlich erst der Verabschiedung konkreter Bestimmungen – dennoch sicherten die großen Tech-Unternehmen Apple, Amazon, Google, Meta, OpenAI sowie Microsoft bereits Unterstützung zu.
Generelles Verbot von "Deep Fakes"Während die EU auf verpflichtende Kennzeichnung von erzeugtem Material setzt, will der Gesetzesvorschlag noch einen Schritt weitergehen und bestimmte Inhalte komplett
untersagen. Alles, was in den Rahmen von "Deep Fakes" fällt, wäre damit illegal. Damit ist gemeint, Personen in einen Kontext zu setzen oder Aussagen treffen zu lassen, die so niemals stattgefunden haben. Dies ist eine realistische Gefahr, erst kürzlich hatte Elon Musk beispielsweise ein Video mit 130 Millionen Aufrufen auf X
verbreitet, in dem Kamala Harris angeblich von sich sagt, nur eine Quotenfrau und Marionette des ominösen "Deep State" zu sein. Damit wollte er seine Aussage untermauern, Harris sei eine "Ausrotterin", die den "Holocaust über die Menschheit bringe".
Deepfakes umfassen jedoch nicht nur Politiker und Prominente, sondern können auch im Alltag Schaden anrichten – als Beispiel sind Tools genannt, welche Nacktbilder zu Personen anfertigen, ohne dass diese damit einverstanden sind.
Sicherheitsüberprüfungen schon vorherGleichzeitig will man frühzeitigen Zugriff auf wegweisende Technologien und KI-Modelle, um bereits in der Entstehungsphase sicherheitsrelevante Fragen zu stellen. Der OpenAI-CEO Sam Altman kündigte diesbezüglich an, das AISIC schon vor Veröffentlichung der nächsten Version von ChatGPT einzuladen. Das Gremium werde sich demnach eingehend mit dem neuen Modell beschäftigen und dieses sicherheitstechnisch überprüfen können.
Zwar wurde die Gesetzesvorlage von der US-Regierung eingebracht, es handelt sich jedoch um eine überparteiliche Initiative. So könnte es zwar noch einige Änderungen geben, dennoch dürfte der "Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2024" innerhalb der kommenden Monate in die Tat umgesetzt werden.