Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Warnung vor KI-Gefahren: OpenAI- und DeepMind-Mitarbeiter äußern sich besorgt

Laut der Verfasser, gebe es derzeit keine wirksame Aufsicht über Unternehmen, die an der Entwicklung von KI-Technologien arbeiten. Dies berge erhebliche Risiken wie Verschärfung bestehender Ungleichheiten, Manipulation und Verbreitung von Fehlinformationen sowie den Verlust der Kontrolle über autonome KI-Systeme, die nach Ansicht der Verfasser sogar zur Auslöschung der Menschheit führen könnten. Sie weisen auch auf die starken finanziellen Anreize hin, welche KI-Unternehmen dazu veranlassen, ihre Entwicklung stur voranzutreiben und Informationen über ihre Schutzmaßnahmen und Risikoniveaus geheim zu halten. „Wir glauben nicht, dass sie alle freiwillig bereit sind, diese Informationen zu teilen“, heißt es in dem Schreiben. Es liege daher an Mitarbeitern, sich zu äußern und Unternehmen zur Rechenschaft zu ziehen.


Mangelnde Aufsicht und Blockade durch Vertraulichkeitsvereinbarungen
Der Brief kritisiert fehlende staatliche Aufsicht über KI-Entwicklungsfirmen. Daher müssten Beschäftigte selbst aktiv werden, um die Öffentlichkeit zu informieren. Weitreichende Vertraulichkeitsvereinbarungen verhindern jedoch, dass Mitarbeiter ihre Bedenken äußern, außer gegenüber den Unternehmen selbst, welche möglicherweise nicht in der Lage sind, diese Probleme anzugehen. „Normale Maßnahmen zum Schutz von Whistleblowern sind unzureichend, da sie sich auf illegale Aktivitäten konzentrieren, während viele der von uns angesprochenen Risiken noch gar nicht geregelt sind“, betonen die Mitarbeiter.

Forderungen nach wirksamen Schutzmaßnahmen
Die Unterzeichner verlangen von den KI-Unternehmen nicht nur solide Schutzmaßnahmen für Whistleblower. Zu ihren Forderungen gehören:

  • Keine Schaffung oder Durchsetzung von Vereinbarungen, die Kritik an risikorelevanten Anliegen verhindern.
  • Ein nachweislich anonymes Verfahren für Mitarbeiter, um risikobezogene Bedenken gegenüber dem Vorstand, den Aufsichtsbehörden und unabhängigen Organisationen mit einschlägiger Expertise zu äußern.
  • Förderung einer Kultur der offenen Kritik, welche es Mitarbeitern ermöglicht, ihre Bedenken hinsichtlich der Risiken von Technologien öffentlich, gegenüber dem Vorstand, den Aufsichtsbehörden und anderen Stellen zu äußern, solange Geschäftsgeheimnisse gewahrt bleiben.
  • Keine Vergeltungsmaßnahmen gegen Mitarbeiter, die vertrauliche risikobezogene Informationen öffentlich weitergegeben haben, nachdem andere Verfahren gescheitert sind.

Drohungen und Einschüchterung
Einige der insgesamt 13 Unterzeichner, darunter sieben ehemalige Mitarbeiter von OpenAI, vier aktuelle Mitarbeiter von OpenAI, ein ehemaliger Mitarbeiter von Google DeepMind und ein aktueller Mitarbeiter von Google DeepMind, berichten von Drohungen seitens OpenAI. Es wurde mit dem Verlust erworbener Anteile gedroht und drakonische Geheimhaltungsvereinbarungen mussten unterzeichnet werden, um Kritik zu unterbinden.

Zeitpunkt der Veröffentlichung
Der offene Brief erscheint zu einem interessanten Zeitpunkt, da Apple kurz davor steht, mehrere KI-basierte Funktionen für iOS 18 und andere Software-Updates anzukündigen. Apple arbeitet an eigenen KI-Funktionen, die nicht nur in Apps, sondern auch im Betriebssystem integriert werden sollen, und hat außerdem einen Vertrag mit OpenAI geschlossen, um ChatGPT-Funktionen in iOS 18 zu integrieren.

Kommentare

michimaier05.06.24 14:23
Die Rufe nach Regulierungen sind ja mittlerweile sehr laut... Die Frage die ich mir stelle ist ob es überhaupt noch Sinn macht -
Beispiel: "Deepfakes" - die Technologie ist inzwischen auf zig (privaten) Rechnern installiert, natürlich kann man für das Verbreiten Strafen einführen, aber Deepfakes verhindern, ist schlichtweg nicht mehr möglich.

Beispiel: "Auf Länder Ebene" - Was bringt es wenn die USA (nur ein Beispiel!) den Einsatz von KI regulieren würde, und Länder wie China (nur ein Beispiel!) das nicht machen... und unabhängig davon, ich kann mit Tensor Flow o.ä. mittlerweile selbst jede AI erstellen, wer weiss was auf einem Rechner irgendwo schlummert, was irgendeine Student / Nerd / Hacker gerade programmiert,... das ist schlichtweg nicht mehr regulierbar,...

Das hört sich so nach "die Kuh vom Eis holen" an - aber die ist schon längst eingebrochen,... Ist aber natürlich nur meine Meinung ( hab auch keine Anspruch auf Richtigkeit... mehr "zur Diskussion" )
+10
Bruce T. Warze
Bruce T. Warze05.06.24 14:31
Gewinnen wird am Ende die KI, der es möglich ist, andere KIs zu infiltrieren und zu übernehmen.
-2
BlueVaraMike
BlueVaraMike05.06.24 15:48
Skynet is knockin‘ …
Do what you want, but harm no one!
+2
piik
piik05.06.24 16:06
Für mich ist das in erster Linie Wichtigtuerei und erst in zweiter Linie ein Aspekt, der zu beachten ist.
-11
TotalRecall
TotalRecall05.06.24 16:10
Jaja die Gier, nach Geld und so. Ich mach ma nen Fass auf. Die Menschheit wird eher wegen der KI als wegen des Klimawandels den Bach runter gehen
-4
Sascha77
Sascha7705.06.24 16:16
Es macht schon etwas kribbelig, wenn sowohl die CEOs der KI-Firmen offene Briefe verfassen (vor ein paar Monaten) also auch Mitarbeiter ihren Job riskieren, um Denkpausen und Regulierung zu fordern.

Wer weiß, was da so Gruseliges in den Entwicklungsabteilungen schlummert. Da geht es sicher nicht um die Anwendungen, die bereits auf dem Markt sind.
+9
MacAlister05.06.24 17:37
Die Forderungen sind totaler Unsinn. Was passiert mit Open Source KI oder jener aus Diktaturen? Unkontrollierbar!
-4
typneun05.06.24 18:18
TotalRecall
Jaja die Gier, nach Geld und so. Ich mach ma nen Fass auf. Die Menschheit wird eher wegen der KI als wegen des Klimawandels den Bach runter gehen

Die KI wird die Menschheit vernichten - um den Planeten zu retten.
+1
der Wolfi
der Wolfi05.06.24 18:32
TotalRecall

Die Menschheit wird eher wegen der KI als wegen des Klimawandels den Bach runter gehen
Is doch egal. Zu retten ist sie eh nicht mehr. Ob dann der Klimawandel das vernichtet was von durch kranke Hirne missbrauchte Technologie über geblieben ist oder umgekehrt interessiert dann mangels Masse nicht einmal mehr “KI“-Wettanbieter.
Normal is für die Andern
+2
Roony05.06.24 22:28
passt gerade zu dem Thema:
habe gerade gelernt, daß die Datencenter von Microsoft, die für KI verwendet werden, soviel Strom verbraucht, wie unsere 3 Atomkraftwerke, die wir gerade abgeschaltet haben:
0
Phileas06.06.24 10:44
Roony
passt gerade zu dem Thema:
habe gerade gelernt, daß die Datencenter von Microsoft, die für KI verwendet werden, soviel Strom verbraucht, wie unsere 3 Atomkraftwerke, die wir gerade abgeschaltet haben:

Ein durchschnittlicher Roony atmet im Laufe seines Lebens etwa 350 Tonnen CO2 aus. Das ist so viel CO2, wie etwa 70 Elefanten wiegen.

Klingt nach einem fairen Vergleich. Ist es aber nicht. Denn hier fehlt einfach die richtige Vergleichsgröße.
0
Unwindprotect07.06.24 12:42
michimaier
Die Rufe nach Regulierungen sind ja mittlerweile sehr laut... Die Frage die ich mir stelle ist ob es überhaupt noch Sinn macht -
Beispiel: "Deepfakes" - die Technologie ist inzwischen auf zig (privaten) Rechnern installiert, natürlich kann man für das Verbreiten Strafen einführen, aber Deepfakes verhindern, ist schlichtweg nicht mehr möglich.

Ich glaube dass da vielleicht eine falsche Vorstellung vom Sinn von Regulierungen vorliegt. Vor allem Regulierungs-Gegner argumentieren oft mit einer Art Strohmann-Argument das impliziert das "Regulierung" bedeute das KI "verboten" würde. Dieser Strohmann lässt sich meist schnell zerlegen mit dem Argument "man kann das ja eh nicht verhindern, also warum Regulieren?".

Regulieren heißt aber nicht einfach nur "verbieten" es heißt vor allem mal gültige Regeln im Umgang damit definieren. Ein Beispiel: Kameras die Plätze überwachen sind zuerst mal ein Datenschutz-Thema. Fügt man jedoch auch eine Gesichtserkennung und weitere KI-basierte Werkzeuge zur aktiven automatischen Überwachung und Verfolgung, dann ist das auf einem ganz anderen Level. Klar: Ob irgendjemand eine Kamera aufstellt die das dann macht lässt sich nicht einfach verhindern, aber zumindest Behörden müssen sich an Vorgaben halten und wenn sie sich darüber hinwegsetzen und es kommt heraus, dann gibt es rechtliche Handhabe dagegen. Dazu muss aber reguliert werden, das eine solche KI-Nutzung mit Kameras auf öffentlichen Plätzen nicht erlaubt ist.

Du erwähnst das Beispiel Deepfakes. Klar - die Verbreitung von Deepfakes wäre ein Fall für Regulierung. Es ist wahrscheinlich, dass dies auch schon mit bestehenden Gesetzen in vielen Fällen strafbar wäre, aber vielleicht muss man diese dennoch erneut prüfen und eventuell anpassen oder erweitern.

Ob man das erstellen von Deepfakes strafbar macht kann man auch regulieren (also entscheiden ob/wann/wie usw.). Dein Argument ist, das man es ja nicht verhindern kann, weil das ja einfach auf privaten Rechnern geht. Das Argument ist allerdings schwach, denn es gibt jede Menge illegales Zeug was man auf dem privaten Rechner machen könnte oder haben könnte und nur weil man es nicht veröffentlicht macht es nicht plötzlich legal. Bei zB. einer Hausdurchsuchung können entsprechende Daten auch durchaus schnell die Hände der Behörden fallen und dann kann daraus ein strafbarer Tatbestand abgeleitet werden. Kurz: Die Möglichkeit, das man heimlich mit ganz vielen Straftaten zumindest manchmal oder über bestimmte Zeiträume "durchkommen" könnte macht nicht plötzlich die "Regeln" (z.B. Gesetze) unwirksam oder sinnlos. Man hat sowieso immer den Punkt, dass derartige Dinge dann nicht einfach beliebig offen getan werden können, weil die Täter immer mit einer Entdeckung rechnen müssen. Entscheidend beim "erstellen" von Deepfakes ist also grundsätzlich eher in welchen Fällen man überhaupt von einer illegalen Nutzung sprechen würde. Es kann ja möglicherweise völlig legitime Anwendungsbereiche z.B. im Bereich von Film & Kunst geben. Ebenso können Nutzungen ja auch im Einverständnis erfolgen. All das und die Regeln darum ist: Regulierung.
michimaier
Beispiel: "Auf Länder Ebene" - Was bringt es wenn die USA (nur ein Beispiel!) den Einsatz von KI regulieren würde, und Länder wie China (nur ein Beispiel!) das nicht machen... und unabhängig davon, ich kann mit Tensor Flow o.ä. mittlerweile selbst jede AI erstellen, wer weiss was auf einem Rechner irgendwo schlummert, was irgendeine Student / Nerd / Hacker gerade programmiert,... das ist schlichtweg nicht mehr regulierbar,...

Das ist das "Wettbewerbsargument"... auch ein beliebtes Argument der KI-Bros. Dabei will man Angst davor machen vom Ausland "abgehängt" zu werden. Wettbewerb und Gewinnstreben sind jedoch nicht die einzigen Dinge auf der Welt die eine Rolle spielen. Mit _guten_ Regeln kann ein Markt mitunter wesentlich besser gedeihen, weil die schlimmsten Auswüchse und Schäden hoffentlich vermieden werden können. Das schafft Vertrauen und Vertrauen ist auch in Bezug auf Ökonomie ein wichtiges Grundprinzip.

Für Dich noch ein paar nette Beispiele:

1) "Was bringt es wenn die USA (nur ein Beispiel!) Chimärenexperimente an Menschen regulieren würde und Länder wie China (nur ein Beispiel!) das nicht machen... und unabhängig davon kann ich zuhause mit Gen-Splicing auch Embryos mit Schafen verknüpfen! Das ist schlichtweg nicht mehr regulierbar...

2) "Was bringt es wenn die USA (nur ein Beispiel!) Lebensmittelsicherheit regulieren würde und Länder wie China (nur ein Beispiel!) das nicht machen... und unabhängig davon kann ich zuhause züchten und zusammenwischen was ich will... Das ist schlichtweg nicht mehr regulierbar..."

3) "Was bringt es wenn die USA (nur ein Beispiel!) Verkehrssicherheit regulieren würde und Länder wie China (nur ein Beispiel!) das nicht machen... und unabhängig davon kann ich fahren wie ich will... Das ist schlichtweg nicht mehr regulierbar..."
michimaier
Das hört sich so nach "die Kuh vom Eis holen" an - aber die ist schon längst eingebrochen,... Ist aber natürlich nur meine Meinung ( hab auch keine Anspruch auf Richtigkeit... mehr "zur Diskussion" )

Für mich hören sich solche (gängigen!) Argumente eher immer ein wenig an, als ob jemand Angst hat, dass irgendein Gesetz ihnen morgen ein neues Spielzeug wegnehmen will. Es stecken aber auch Ängste dahinter, das man als Land oder Wirtschaftsraum möglicherweise (noch mehr) abgehängt wird wenn man nicht völlig ungebremst jedes noch so kriminelle und schädliche Handeln erlaubt.

KI-Regulierung ist momentan ein richtiges Schauspiel mit unterschiedlichen Protagonisten:

1) Die aktuellen Erfolgskonzerne (z.B. OpenAI, Microsoft, Google)
Diese sind an KI-Regulierung interessiert, weil sie ihre ausgebaute Marktstellung gegenüber eine Gefahr vor "OpenSource" oder kleineren Mittbewerben absichern wollen. Sie betreiben Lobbyarbeit und zeichnen düstere Bilder von den "Gefahren". Dabei wird alles so hingedreht, dass nur sie die Fähigkeiten besitzen "KI" ausreichend zu kontrollieren. Mitarbeiter kriegen Knebelverträge und es wird massiv die Ultra-Hype-Marketingtrommel mit künstlich aufgeblasenen Demos und "Fake-Science-Papers" gerührt, dass "AGI" ja kurz davor ist realisiert zu werden, also dringender Handlungsbedarf bestünde. Es geht aber nicht um Sicherheit sondern um Monopolbildung: Man möchte das nächste "Google" werden (bzw. bleiben ).

2) Die OpenSource-Community
Wollen Regulierung teilweise verhindern weil sie sich bedroht fühlen, aber viele engagieren sich auch lobbyistisch um sicherzustellen, dass OpenSource auch im Rahmen von Regulierung möglich bleibt. Oft wird dabei auch auf die Gefahren einer Entwicklung hinter verschlossenen Türen gewarnt. Viele sind aber ideologisch auch extrem liberal eingestellt und wollen im Prinzip mit KI alles machen können was sie eben wollen. Das wollen die Erfolgskonzerne natürlich auch, aber eben hinter verschlossener Tür und heimlich.

3) Die KI-Bros
Das sind besonders leicht zu beeindruckende Persönlichkeiten welche die letzten Jahre vor allem dem Crypto-, Web3-, Blockchain-Hype hinterhergerannt sind. Unzählige Videos wurden gedreht und praktisch alles was man sich vorstellen kann mit einer Blockchain ausgestattet. Es gibt bestimmt sogar irgendwo ein Blockchain-Müsli. Diese Protagonisten zeichnen sich durch die extrem gefährliche Kombination aus gefährlichem... Achtelwissen mit einem unglaublich aufgeblasenen Sendungsbewusstsein aus. Mit der ChatGPT Marketing-KI-Blase sind diese "Jungs" jetzt auf den KI-Hype angesprungen. Manche davon wollen bestimmt auch KI bereits mit Blockchains verbinden . Die KI-Bros sind maximale Gegner jeder Regulierung. Sie haben meist ein fundamentales Misstrauen gegenüber Behörden oder dem Staat und wollen mit dem Hype eben unbehelligt andere Leute über den Tisch ziehen können.

4) Die Konservativen
Sehen in KI generell erstmal eine Bedrohung. Wobei sich die Ausprägung dazu aufteilt. Manche sehen insbesondere Jobs bedroht und verstehen "Regulierung" als Mittel um diesen Wandel verhindern zu können. Ich denke, dass dies zu einem bestimmten Anteil auch gelingen kann. Der KI-Hype kann teilweise schnell dazu führen, dass bestimmte Branchen oder Tätigkeiten verfrüht demotiviert/abgeschafft werden und wenn sich die Technologie dann irgendwann als doch nicht so hilfreich darstellt ist der Schaden bereits passiert und es fehlen entsprechende Fachkräfte. Andere dieser Konservativen sehen in KI aber auch eine Möglichkeit vor allem Druck auf menschliche Arbeitskräfte auszuüben um Löhne noch weiter drücken zu können. Letztere Konservative sind dann sogar manchmal gegen Regulierung wenn es darum ginge, dass ihre Geldbeutel einen Schaden davon hätten.

5) Die "normalen" Nutzer
Ganz normale Nutzer von diversen KI-Technologien insbesondere auch generativer KI sehen eine gewisse Nützlichkeit oder im Zweifel auch nur Spaß in den neuen Möglichkeiten. Regulierung klingt für sie vor allem so, als ob man ihnen das neue Spielzeug wieder wegnehmen will. Das ist natürlich doof!

6) Der Rest
Macht sich meist wenig Gedanken um KI oder Regulierung, weil sie eher darüber nachdenken wie sie eine neue Heizung finanzieren sollen oder sie ihren Keller trockenlegen können.
0
michimaier07.06.24 13:20
@unwind
Ich würde dir gerne antworten, aber ich bin nicht sicher was deine Aussage ist - dass ich den Begriff "Regulierung" falsch verstanden habe? Möglich...

Vielleicht lese ich das falsch, aber alle der 6 Protagonisten die du beschreibst, klingen negativ behaftet... das heisst jeder der sich mit KI beschäftigt, oder eben nicht weil er seinen Keller trocken legen muss ist... was? Lobbyist, KI-Bro, rückständig? Gibt es irgendeinen der "positiv" mit KI umgeht?

Deine 3 Beispiele zu Regulierung beziehen sich auf "lokale" Punkte - die Lebensmittel oder die Verkehrsregulierungen betreffen uns in DE / EU nur sekundär... (vereinfacht gesagt)
Aber eine Software oder irgendein Service kann auch ausserhalb eines Landes zum Einsatz kommen... Die Beispiele sind nicht perfekt, ich versteh worauf du hinaus willst
aber ich finde sie passen nicht 100%...
0
Roony11.06.24 03:45
@Phileas
Was will mir ein durchschnittlicher Phileas damit sagen?
Wenn ein wichtiger Speaker auf der letzten OMR in Hamburg darauf aufmerksam macht, daß die Datencenter —nur von microsoft— soviel Strom verbrauchen wie die 3 deutschen abgeschalteten Atomkraftwerke erzeugt hatten, finde ich das zumindest in dem Zusammenhang des hier besprochenen KI Themas, auch relevant. Um auch hier einmal die Energieproblematik dieser KI-Entwicklung anzusprechen.
Entschuldige, daß ich mit Deinen Elefanten nix anzufangen weiß
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.