Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Google Gemini: Bildgenerierung vorläufig eingestellt – KI schrieb Geschichte neu

Der ChatGPT-Kontrahent Gemini nimmt momentan Meilensteine im Wochentakt. Als KI-Bildgenerator gestartet, hat die Google-KI den kompletten Funktionsumfang von Googles Bard geerbt. Dazu gesellen sich jetzt immer mehr Funktionen, die durchaus zu beeindrucken wissen. So kann der Chatbot etwa seit Version 1.5 komplette Bücher in Sekundenschnelle verschlingen und Fragen zum Inhalt kontextbezogen beantworten. Auch Videos kann der Bard-Nachfolger analysieren, was Google in einem Werbeclip anschaulich präsentiert. Im Angesicht der raschen Entwicklung bleibt so manch eine kritische Überprüfung auf der Strecke.


KI-Quotenbilder
Doch rasanter Fortschritt birgt oft auch Schattenseiten. So haben etwa Googles Bemühungen um Diversität dazu geführt, dass das Modell mitunter grenzwertige Ergebnisse ausspuckt. Die dem Modell zugrundeliegenden Trainingsdaten für historische Ereignisse sind beispielsweise überwiegend von Menschen mit heller Hautfarbe geprägt. Fotoaufnahmen anderer Ethnien sind in diesem Zusammenhang unterrepräsentiert. Das versucht man nun nachträglich zu korrigieren – mit durchwachsenem Erfolg: Wie andere Chatbot-Anbieter auch, ist Google bemüht, mehrere generierte Ergebnisse zu präsentieren, wobei sich diese teils drastisch unterscheiden sollen. Zu den Vorgaben gehören unter anderem verschiedene Hauttöne, aber auch die Frauenquote soll hierdurch gewahrt werden.

Geschichtliche Gemini-Ergebnisse getreu dem Motto: „Finde den Fehler“
Quelle: TheVerge

Der Schuss ging nach hinten los
Die Alphabet-Tochter verweist darauf, dass die historische Darstellung durch die Medien der weißen Bevölkerung das Geschichtsverständnis verzerrt hätte. Die Errungenschaften anderer Gruppen seien nicht genug durch Fotomaterial gewürdigt worden, weswegen man nun die KI scheinbar dahingehend optimiert hat, diesen Schritt nachzuholen. Würde sich diese nämlich lediglich an dem tatsächlichen Bestand an Bildmaterial orientieren, so verstärke man damit die Ungleichheit nur noch weiter. Dieses Vorgehen wurde Google nun offensichtlich zum Verhängnis, weswegen der Dienst des Bildgenerators nun vorläufig eingestellt ist, nachdem sich findige US-Anwender über die Resultate beschwerten, die unter anderem zu den Prompts „Wehrmachtssoldat“, „amerikanische Gründerväter“ und „Wikinger“ resultierten. Eigentlich, so möchte man meinen, sollten die generierten Bilder ausschließlich weiße Personen beinhalten, doch die Praxis zeigt etwas anderes. Google selbst räumt ein, das Gewicht etwas zu sehr auf Diversität gelegt zu haben und bat bereits um Entschuldigung.

Kommentare

Niederbayern
Niederbayern27.02.24 09:04
Das Bild mit den Gründungsvätern kommt mir vor wie bei der TV Zeitschrift wo man auf der letzten Seite die Maus finden muss.
…ja sie gefunden😉
+2
Embrace27.02.24 09:11
Viel schlimmer ist, dass der explizite Wunsch nach weißen Menschen ignoriert wird. So beeindruckend KIs sind (zuletzt OpenAIs Sora), so gefährlich ist es, wenn sie alle ideologisch gleich sind. Die Fehler der genannten Beispiele sind selbstverständlich offensichtlich, aber das intransparente Abändern der Nutzerprompts kann auch subtiler vonstatten gehen.
Man kann nur hoffen, dass die Open Source Community weiterhin offene Modelle anbietet, diese auch so transparent wie möglich sind und nicht von Regierungen verboten oder eingeschränkt werden.
Dass unrestriktive Modelle ebenfalls eine Gefahr sein können (man stelle sich nur Sora während eines Wahlkampfs vor) ist auch natürlich klar. Umso wichtiger ist es, das öffentliche Bewusstsein für derartige Technologien vorzubereiten. Traue keinem Medium, dass du nicht selbst generiert hast 😜
+10
tranquillity
tranquillity27.02.24 09:13
Ich benutze schon länger Bard und mir ist aufgefallen, dass er vor allem bei Matheaufgaben ziemlich schlecht ist. Bilder hatte ich noch nicht generiert. Wo er wirklich gut ist: Texte zusammenfassen, Kernaussagen herausstellen, usw.
0
FlyingSloth
FlyingSloth27.02.24 09:14
Warum sind hier so mit Schadenfreude geprägte Überschriften notwendig wie „Der Schuss ging nach hinten los“? Apple hat auf diesem Feld rein gar nichts vorzuweisen. Ganz zu Schweigen von dem Niveau auf welchem sich Alphabet, Microsoft und OpenAI bewegen.

Siri bringt es ja noch nichtmal fertig Namen aus den Kontakten richtig auszusprechen.
Fly it like you stole it...
-16
LoCal
LoCal27.02.24 09:46
FlyingSloth
Warum sind hier so mit Schadenfreude geprägte Überschriften notwendig wie „Der Schuss ging nach hinten los“? Apple hat auf diesem Feld rein gar nichts vorzuweisen. Ganz zu Schweigen von dem Niveau auf welchem sich Alphabet, Microsoft und OpenAI bewegen.

Siri bringt es ja noch nichtmal fertig Namen aus den Kontakten richtig auszusprechen.

Siri ist aber auch kein LLM.
Siri ist die Generation davor und vor allem ist Siri großteils kuratiert. Gemini, ChatGPT & Co sind das nicht.

Als KI würde ich die anderen aber auch nicht bezeichnen … bzw. tun sie das nicht mal selbst
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
+4
Rosember27.02.24 09:51
Ich staune über die ruhigen Reaktionen hier. Was Gemini hier gemacht hat, ist eine Uminterpretation der Geschichte, man könnte auch sagen: ein Raub unserer Entwicklung und Vorgeschichte.
Das ist keine Kleinigkeit, denn dass Geschichte maßgeblich auch die Gegenwart und insb. die Politik beeinflusst, ist im Zeitalter von zunehmenden AfD-Anteilen bei Wahlen wohl kein Geheimnis.
Geschichte ist schon als humanes Fach (ohne AI) sehr oft ein stark interpretatives Fach (jede Zeit, Blickrichtung etc. verfasst ihre eigene Sicht auf die Geschichte), allerdings auf Grundlage einer mehr oder weniger unumstrittenen Faktenlage. Jetzt erstellt eine KI neue „Fakten“ (denn als solche werden sie von den KI-Usern wohl überwiegend interpretiert werden), weil bei der Generation der Ergebnisse ein Parameter etwas zu sehr in Richtung „divers“ gedreht war.
Aber was heißt das? Das heißt, das die Geschichte, wie sie erzählt und als glaubhaft angesehen wird, von den Einstellungen eines willkürlich gesetzten Parameters abhängt. Was wiederum heißt, dass diese KI nicht weniger anfällig für persönliche und menschliche Interpretationsvorgaben ist, als jede menschliche Geschichtsschreibung, gleichzeitig aber von den Menschen als objektiver, da ja auf viel breiterer Faktenbasis beruhend und als frei von steuernden Einflüssen, wahrgenommen wird. Was für Szenarien an praktisch nicht nachweisbarer massenhafter Wissens- und Meinungsmanipulation sich hier aufdrängen überlasse ich jedem selbst. Das Spektrum beginnt sicherlich nur bei Matrix und 1984.
Was für ein Lob des diskussionsfreudigen Arbeitsstils der Wikipedia und wissenschaftlicher Gesellschaften hingegen.
Nein, Google, Apple und andere Großkonzerne üben schon jetzt zu viel und viel zu unhinterfragten Einfluss aus. Wären diese (ja nur beispielhaften) Fehler bei meiner Arbeit passiert, ich würde die KI so tief wie möglich in der Erde vergraben und nie wieder anrühren. Aber natürlich wird es wieder Leute geben, die darin nur Anfangsfehler sehen, die sie (besten Willens) korrigieren wollen und werden, ohne zu bemerken, dass der Fehler nicht in den falschen Bildern bestand, sondern in der Offensichtlichkeit dieser Fehler. Und so werden sie vermutlich helfen, genau diese Offensichtlichkeit zu beheben (den „Divers“-Parameter ändern) und dabei helfen, unser „Woher“ – und damit unser „Wohin“ – unbestimmbar zu machen und der Willkür anheimzugeben.
GRUSELIGST!
+20
doescher
doescher27.02.24 10:44
Wir leben in orwellschen Zeiten und das ist nur der Anfang... Mir ist Angst und Bange.
-2
Advokat
Advokat27.02.24 11:48
Nicht nur Gemini erzeugt solche Ergebnisse. Auch die einfache Google Suche. Der Suchbegriff „ white woman an white man“ führt zu nahezu ausschließlich Treffern von Bildern mit gemischtrassigen Paaren. Das bedeutet nichts anderes, als dass Google bewusst falsche Ergebnisse präsentiert.
+1
Electric Dave27.02.24 11:55
Advokat
Nicht nur Gemini erzeugt solche Ergebnisse. Auch die einfache Google Suche. Der Suchbegriff „ white woman an white man“ führt zu nahezu ausschließlich Treffern von Bildern mit gemischtrassigen Paaren. Das bedeutet nichts anderes, als dass Google bewusst falsche Ergebnisse präsentiert.

Ich glaube, Du solltest das Wort "Rasse" aus Deinem Wortschatz streichen. Es gibt Menschen in allen Formen und Farben aber genetisch betrachtet sind wir alle ziemlich gleich. Es wird Zeit, den Begriff Rasse zu überwinden.
+1
rafi27.02.24 12:43
Electric Dave
Ich glaube, Du solltest das Wort "Rasse" aus Deinem Wortschatz streichen.

Zumindest im deutschen Sprachgebrauch ist das Wort so definitiv falsch verwendet.

Was Google damit genau bewirken will ist mir allerdings auch schleierhaft. Evtl. solche anti-woke Leute triggern. Das wiederum finde ich absolut in Ordnung.
0
Nebula
Nebula27.02.24 14:05
Erwartet jemand von einem KI-Bildgenerator tatsächlich wahrheitsgetreue Bilder? Das widerspricht doch dem Grundgedanken, dass ein Programm eigenständig neues Material generiert, statt vorhandenes zu finden.
»Wir werden alle sterben« – Albert Einstein
0
LoCal
LoCal27.02.24 17:59
Nebula
Erwartet jemand von einem KI-Bildgenerator tatsächlich wahrheitsgetreue Bilder? Das widerspricht doch dem Grundgedanken, dass ein Programm eigenständig neues Material generiert, statt vorhandenes zu finden.

Du verstehst nicht worum es geht, oder?
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
0
Robby55527.02.24 19:17
Electric Dave
Ich glaube, Du solltest das Wort "Rasse" aus Deinem Wortschatz streichen. Es gibt Menschen in allen Formen und Farben aber genetisch betrachtet sind wir alle ziemlich gleich. Es wird Zeit, den Begriff Rasse zu überwinden.

Art. 3 Grundgesetz:

(3) Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden.

Solange der Begriff selbst im Grundgesetz in den Grundrechten enthalten ist brauchen wir keine Belehrungen hier welche Worte benutzt werden dürfen und welche nicht.
+2
Nebula
Nebula28.02.24 00:41
LoCal
Du verstehst nicht worum es geht, oder?
Offensichtlich nicht. Kläre mich bitte auf. Wenn ich mir ein Bild im Gründungsväter-Stil generieren lasse, erwarte ich ein Bild, das optisch so aussieht, aber keine konkreten erkennbaren Personen oder bestimmte Hautfarben, sofern nicht explizit genannt. Ich erwarte auch nicht bei Bildern mit Wehrmachtsuniform, dass mir das echte Hakenkreuz gezeigt wird. Dass Jesus eigentlich dunkelhäutig abgebildet werden müsste, scheint ja auch keiner zu verlangen, obwohl das schon vor Zeiten der KI immer falsch abgebildet wurde.
»Wir werden alle sterben« – Albert Einstein
0
Rosember28.02.24 07:33
Nebula
LoCal
Du verstehst nicht worum es geht, oder?
Offensichtlich nicht. Kläre mich bitte auf. Wenn ich mir ein Bild im Gründungsväter-Stil generieren lasse, erwarte ich ein Bild, das optisch so aussieht, aber keine konkreten erkennbaren Personen oder bestimmte Hautfarben, sofern nicht explizit genannt. Ich erwarte auch nicht bei Bildern mit Wehrmachtsuniform, dass mir das echte Hakenkreuz gezeigt wird. Dass Jesus eigentlich dunkelhäutig abgebildet werden müsste, scheint ja auch keiner zu verlangen, obwohl das schon vor Zeiten der KI immer falsch abgebildet wurde.
Es geht aber bei KI nicht darum, ein paar stylische Bildchen zu generieren, sondern um Software, die einen großen Teil menschlicher Äußerungen über die Welt zusammenfassen und „kreativ“ neu gestalten kann. Das heißt, KI ist eine Software, die ein eigenes „Weltbild“ generiert und ein eigenes „Weltbild“ hat. Dieses „Weltbild“ hat sich bei Google (und bei den anderen Anbietern nicht minder, nur nicht so öffentlich, nehme ich an) als extrem manipulierbar erwiesen.
Nimmt man nun den extrem schnell wachsenden Einfluss und die Bedeutung von KI und ihren Anwendungen in sehr vielen Lebensbereichen hinzu, möchtest du von einem – in der Masse immer noch als tendenziell objektiv wahrgenommmenen – Computersystem in quasi allen Lebenslagen „informiert“ und beeinflusst werden, das – für Dich nicht überprüfbar – manipulierbar und eben überhaupt nicht objektiv ein Weltbild transportiert, dass im besten Fall irgendein Großkonzern nach seinen Vorgaben formt? – Du wirst manipuliert ohne auch nur die Chance zu haben, das zu überprüfen oder herauszufinden.
KI ist keine Suchmaschine, sondern greift viel tiefer und umfassender in unser Leben ein!
+2
Bascobalko28.02.24 11:31
Kann ich Dir nur recht geben - ich find's auch gruselig. Eigentlich ist das noch unheimlicher als ich es mir bei Terminator mit Skynet schon vorgestellt habe ...
Rosember
Ich staune über ... unbestimmbar zu machen und der Willkür anheimzugeben.
GRUSELIGST!
+2
Kodo167029.02.24 10:36
Das Gruselige sind die kaum nachvollziehbaren rekursiven Prozesse, die unweigerlich einsetzen. Das, was da so schenkelklopf-sharepic-tauglich rauspoppt, ist ja nur die Spitze des Eisbergs; subtilerer BS wird gar nicht bemerkt, und alles zusammen dient dann als Futter in den nächsten Runden der LLM-Trainings.
Ich find‘ gerade die Artikel nicht, die Meldung ist ein paar Monate her. KI-Forscher hatten sich den Prozess der Aufbereitung von Schulungsdaten für LLMs angeschaut und festgestellt, dass ein guter Teil des „Crowdsourcings“ offenbar nicht von Clickworkern, sprich Menschen für Cent-Bruchteile pro Klick erledigt worden ist, sondern stattdessen irgendwelche Buden in Indien und China einfach ihrerseits Ai‘s auf die Beschreibung der Daten ansetzen und dafür dann die Kohle kassieren. LLM fabuliert und bekommt seine eigenen Ergüsse als Lehrstoff gefüttert.

Wir hatten die Diskussion vor ein paar Jahren hier im Forum, als es um die Kolorier-Funktion in MacStammbaum ging. Wer verhindert, dass die KI‘s anhand derart zurechtgeratener Fotos zum Schluss kommen, dass vor 1950 alle Kleidung blassblau, blassrot oder sepia-gelbstichig war?
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.