KI soll verständlicher und sicherer werden: Meta, IBM, Intel und viele andere gründen „AI Alliance“
KI-Chatbots wie Googles Bard oder ChatGPT von OpenAI sowie Bildgeneratoren wie DALL-E machten in den vergangenen Monaten verstärkt Schlagzeilen. Sie riefen allerdings auch zahlreiche Bedenkenträger auf den Plan, welche in der zugrundeliegenden Technik potenzielle Gefahren ausmachen. Im März dieses Jahres forderten beispielsweise Steve Wozniak, Elon Musk und über 1.000 weitere Experten einen temporären Stopp der Weiterentwicklung von Künstlicher Intelligenz (siehe
). Vor Kurzem veröffentlichten zudem 22 Länder und zahlreiche Tech-Größen gemeinsame
Sicherheitsforderungen im Hinblick auf Design, Betrieb und Wartung von KI-Modellen.
AI Alliance setzt sich für verantwortungsvolle KI-Entwicklung einEiner der Gründe für solche und weitere Initiativen ist die Tatsache, dass es sich bei der überwiegenden Mehrzahl aktuell verfügbarer und künftiger KI-Anwendungen um geschlossene Systeme handelt. Trainingsalgorithmen und weitere Techniken sind in aller Regel geheim, die Modelle entziehen sich somit jeglicher öffentlicher Kontrolle. Angesichts der Möglichkeiten, Chatbots, Bildgeneratoren und andere Dienste für diverse unlautere und sogar kriminelle Zwecke zu nutzen, stellt das eine potenzielle Gefahr dar. Hinzu kommt, dass ChatGPT, Bard & Co. häufig falsche Ergebnisse liefern und gern einmal „halluzinieren“, also alternative Fakten erfinden. Mehr als 50 Unternehmen, Forschungseinrichtungen und Institutionen haben jetzt die „AI Alliance“ ins Leben gerufen, welche sich für die verantwortungsvolle Entwicklung und einen ebensolchen Umgang mit Künstlicher Intelligenz einsetzt.
Intel, Meta, NASA und andere wollen quelloffene Modelle fördernZu den Gründungsmitgliedern der Organisation zählen unter anderem große Unternehmen wie Meta, IBM, Sony und Intel. Ebenfalls an Bord sind Linux Foundation, NASA und AMD sowie etliche renommierte Universitäten wie die ETH Zürich und Harvard. Die AI Alliance hat sich unter anderem zum Ziel gesetzt, quelloffene KI-Modelle zu fördern. Damit soll nicht nur mehr Transparenz geschaffen, sondern auch die Weiterentwicklung beschleunigt sowie auf eine breitere wissenschaftliche Basis gestellt werden. Gleichzeitig sorge Open Source für mehr Sicherheit und Vertrauen in KI-Modelle, heißt es in einer
Mitteilung der Organisation; die mit der Technik einhergehenden Risiken würden minimiert. Darüber hinaus gebe es durch den quelloffenen Ansatz mehr Chancengleichheit, Startups und Einzelentwickler böten sich dadurch dieselben Chancen wie großen Tech-Unternehmen.