Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

BBC wegen Apple Intelligence verärgert – aus Meldungen wird Unsinn

iOS 18.2 gilt hierzulande nicht unbedingt als aufsehenerregendes Update, in anderen Ländern sieht das anders aus: In den USA kamen viele neue Funktionen für Apple Intelligence dazu und das Vereinigte Königreich erhielt erstmals vollen Zugriff auf sämtliche Features der KI. Darunter ist auch die Möglichkeit, eingehende Nachrichten von der KI zusammenfassen zu lassen, um einen raschen Überblick zu erhalten. Bereits in der Vergangenheit zeigte sich, dass das Feature bisweilen etwas unzuverlässig seinen Dienst verrichtet (siehe hier). Nun meldet sich die BBC zu Wort und empört sich über einen ärgerlichen Fauxpas: Apple Intelligence leistete sich bei der Zusammenfassung einer Meldung der britischen Rundfunkanstalt einen ziemlichen Fehltritt.


Apple Intelligence: Zusammenfassungen mit Halluzinationen
Der Mord am CEO einer US-amerikanischen Krankenversicherung schlägt nach wie vor hohe Wellen. Der mutmaßliche Täter wurde festgenommen. Die BBC berichtete von den Geschehnissen per Push-Benachrichtigung der hauseigenen App und gab diese korrekt wieder, allerdings sorgte Apple Intelligence für eine überaus eigentümliche Interpretation der Wirklichkeit: Während einige Schlagzeilen wahrheitsgemäß zusammengefasst wurden, behauptete die KI, der mutmaßliche Täter habe sich erschossen.

Quelle: BBC

Für die BBC ist das ärgerlich: Cupertinos Tool erweckt den Eindruck, der Fehler liege bei ihr. In einem Artikel weist sie darauf hin, sich bei Apple beschwert und Bedenken angesprochen zu haben. Der US-Konzern habe jedoch eine Stellungnahme abgelehnt.

Kritik an AI-Zusammenfassungen
Natürlich betreffen Fehler dieser Art auch andere Medien: Als Beispiel dient der BBC die Zusammenfassung verschiedener Meldungen der New York Times. Letztere berichtete vom Haftbefehl des Internationalen Strafgerichtshofs gegen Benjamin Netanjahu. Apple Intelligence kürzte diese Nachricht etwas zu sorglos und behauptete, Israels Ministerpräsident sei inhaftiert worden. Die BBC zitiert einen Professor für Medienpolitik zu der Angelegenheit, dessen Urteil vernichtend ausfällt. Der Fehler von Apple sei „peinlich“, das Unternehmen habe seinen Namen „auf ein nachweislich unausgegorenes Produkt gesetzt“.

Kommentare

desko7516.12.24 14:22
Ja, diese Unzuverlässigkeit und Unvorhersehbarkeit, die jeder KI innewohnt, ist genau das Ding von Apple. Not!
+2
Ythcal
Ythcal16.12.24 14:44
Apropos Zusammenfassung:
Artikel
Der Mord des CEO einer US-amerikanischen Krankenversicherung

Nein, der Mord _am_ CEO
+9
Uschaurischuum!
Uschaurischuum!16.12.24 15:05
Was mich wirklich stört ist die Tatsache, dass diese und viele andere Ungenauigkeiten einer KI, allumfassend bekannt sind. Dennoch, getrieben vom Wirtschaftssystem, übertrumpfen sich die großen Technologiekonzerne dieser Welt in Sachen Geschwindigkeit 'neuer' KI Tools und Möglichkeiten diese zu nutzen. In vielerlei Hinsicht dient eine Gesellschaft mal wieder nur als Betatester ... koste es was es wolle.
Brauchen wir alles was wir können?
+4
te-c16.12.24 15:14
Im KI-Markt steckt so viel Geld und Energie, dass hier vermutlich niemand zurückrudert und Fehler einfach in Kauf genommen weder, nur um vorne mitmischen können. Sei es bei Text oder auch Bild.
+4
frankh16.12.24 15:21
Ythcal
Apropos Zusammenfassung:
Artikel
Der Mord des CEO einer US-amerikanischen Krankenversicherung

Nein, der Mord _am_ CEO

Aha, soso, hier wurde der Ermordete zum Mörder. Ganz ohne KI. Oder?
+1
sYn16.12.24 15:34
Uschaurischuum!
Was mich wirklich stört ist die Tatsache, dass diese und viele andere Ungenauigkeiten einer KI, allumfassend bekannt sind.
Hahahahaha... Nein.

Wieso sollte das allumfassend bekannt sein?
Wir leben in einer Welt wo das alles immer noch als KI bezeichnet wird obwohl es damit eigentlich eher weniger zu tun hat.
Wir leben in einer Welt in der das Internet voll ist von Berichten von Leuten die ChatGPT und Co für ihre Arbeit und/oder die Schule nutzen OHNE die Antworten großartig zu hinterfragen.
Wir leben in einer Welt wo völlig albernen Fake News eher geglaubt wird als der tatsächlichen Wahrheit.
Wir leben in einer Welt in der viele Menschen angeben dass YouTube ihre Haupt-Informationsquelle (oder gar die Einzige!) ist.

Warum sollten ausgerechnet die "Ungenauigkeiten" (eigentlich eher Totalausfälle.) bitte allumfassend bekannt sein?
+5
Uschaurischuum!
Uschaurischuum!16.12.24 15:54
sYn
Uschaurischuum!
Was mich wirklich stört ist die Tatsache, dass diese und viele andere Ungenauigkeiten einer KI, allumfassend bekannt sind.
Hahahahaha... Nein.

Wieso sollte das allumfassend bekannt sein?
Wir leben in einer Welt wo das alles immer noch als KI bezeichnet wird obwohl es damit eigentlich eher weniger zu tun hat.
Wir leben in einer Welt in der das Internet voll ist von Berichten von Leuten die ChatGPT und Co für ihre Arbeit und/oder die Schule nutzen OHNE die Antworten großartig zu hinterfragen.
Wir leben in einer Welt wo völlig albernen Fake News eher geglaubt wird als der tatsächlichen Wahrheit.
Wir leben in einer Welt in der viele Menschen angeben dass YouTube ihre Haupt-Informationsquelle (oder gar die Einzige!) ist.

Warum sollten ausgerechnet die "Ungenauigkeiten" (eigentlich eher Totalausfälle.) bitte allumfassend bekannt sein?

Ich meine damit die Betreiber von KI Systemen und Forscher solcher.
Bei denen sind diese Ungenauigkeiten bekannt und vereinzelt wird auch davor gewarnt. Die Gesellschaft weiß zu einem großen Teil nichts davon bzw. 'will es nicht wissen'. Umso verheerender ist diese Rallye nach immer neuen Tools.
Brauchen wir alles was wir können?
0
Casuda17.12.24 07:55
sYn

Wir leben in einer Welt in der viele Menschen angeben dass YouTube ihre Haupt-Informationsquelle (oder gar die Einzige!) ist.

Warum sollten ausgerechnet die "Ungenauigkeiten" (eigentlich eher Totalausfälle.) bitte allumfassend bekannt sein?
darf ich erweitern ?

Wir leben in einer Welt, in der das selbst denken und hinterfragen aus der Mode gekommen ist.

15 Sekunden und der Inhalt muss erklärt sein. Längere, detailliertere und mit Hintergrundinformationen gefüllte Texte, werde schon gar nicht mehr gelesen. Das klassische "Abstract", einen Text kompakt in 2-3 Sätzen zu beschreiben, wird heute nicht mehr vom Autor übernommen, das schickt man in die KI und freut sich über die "Zusammenfassung". Das klappt selten perfekt. Der Autor ist gefragt, nicht die KI, ob alles richtig ist.
Genauso sehe ich es beim Journalismus. Eine Schlagzeile geht schnell um die Welt, egal ob richtig oder falsch. Leider hat man heute eine Möglichkeit mehr es jemanden in die "Schuhe zu schieben". Sorgfalt sollte hier im Vordergrund stehen.
Was mir bei ChatGPT (Model 4o) aufgefallen ist, wenn ich in meinen Texten Fehler mache, die "durch ChatGPT" zur Korrektur schicke, dann kommt am Ende manchmal richtiger murks raus, und da ist nicht ChatGPT dran schuld....
+1
Raziel117.12.24 08:08
Uschaurischuum!
Was mich wirklich stört ist die Tatsache, dass diese und viele andere Ungenauigkeiten einer KI, allumfassend bekannt sind. Dennoch, getrieben vom Wirtschaftssystem, übertrumpfen sich die großen Technologiekonzerne dieser Welt in Sachen Geschwindigkeit 'neuer' KI Tools und Möglichkeiten diese zu nutzen. In vielerlei Hinsicht dient eine Gesellschaft mal wieder nur als Betatester ... koste es was es wolle.

Oder man lernt die Tools einfach als solche zu benutzen statt zu glauben das man jegliche Verantwortung abgeben kann. Es ist wirklich nicht schwer mit GPT und Co umzugehen und in den meisten Fällen, entspricht die Antwort auch der Frage die man gestellt hat. Wenn diese schwammig oder undefiniert ist, bekommt man auch eine dementsprechende Antwort
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.