Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Siri und die KI: Apple kämpft mit internen Streitigkeiten – und eigenen Datenschutz-Ansprüchen

Das Problemkind trägt einen bekannten Namen: Siri. Apples Sprachassistent galt bei seiner Einführung im Jahr 2011 als bahnbrechend, hat sich seither allerdings nicht entscheidend weiterentwickelt. Nutzer von iPhone, iPad, Mac und vor allem HomePod bescheinigen ihm in Foren immer wieder Begriffsstutzigkeit und mangelnde Fähigkeiten. Die Folge: Siri ist gegenüber den deutlich jüngeren Pendants namens Amazon Alexa und Google Assistant zunehmend ins Hintertreffen geraten. Gefahr droht allen Sprachassistenten, also auch dem digitalen Helferlein aus Cupertino, seit Kurzem darüber hinaus durch KI-basierte Chatbots wie etwa ChatGPT.


Bericht: Heilloses Durcheinander im Siri-Team
Apple ist sich dieser Situation durchaus bewusst und hat bereits Maßnahmen eingeleitet. Die Entwicklungsabteilung des kalifornischen Unternehmens beschäftigt sich schon seit geraumer Zeit mit einer eigenen KI-Lösung, die Siri leistungsfähiger machen soll. Dabei kämpft der Konzern jedoch wohl nicht nur mit etlichen Altlasten des hauseigenen Sprachassistenten (siehe ). Erschwert wird die Arbeit angeblich auch durch Abgänge einiger äußerst wichtiger Mitarbeiter sowie interne Auseinandersetzungen, die schon 2018 begannen. Vor fünf Jahren habe in dem für Siri zuständigen Team ein heilloses Durcheinander geherrscht, berichtet jetzt The Information (Bezahlschranke). Zudem seien heftige Auseinandersetzungen zwischen den leitenden Mitarbeitern an der Tagesordnung gewesen. Dabei ging es laut der Nachrichten-Webseite um die Richtung, in welche sich Siri entwickeln sollte.

Wichtige KI-Experten kehren Apple den Rücken
Die Streitigkeiten drehten sich unter anderem um die Frage, ob man Daten über die Interaktion der Nutzer mit Siri in großem Stil für die Weiterentwicklung auswerten solle. Der für Maschinelles Lernen und Künstliche Intelligenz zuständige Senior Vice President John Giannandrea war dafür und leitete entsprechende Maßnahmen ein. Diese wurden dann allerdings von höherer Stelle gestoppt, weil die Auswertung von Sprachaufzeichnungen durch externe Dienstleister für öffentliches Aufsehen sorgte (siehe ). Das warf die Weiterentwicklung von Siri signifikant zurück und führte dazu, dass in den Jahren danach etliche Mitarbeiter das Unternehmen verließen. Zuletzt wechselten Ende 2022 die drei bislang in Cupertino tätigen KI-Experten Srinivasan Venkatachary, Steven Baker und Anand Shukla zu Google, weil sie sich dort bessere Arbeitsbedingungen erhofften.

Datenschutz-Bedenken stehen Weiterentwicklung im Weg
Einer schnellen Weiterentwicklung oder gar grundlegenden Neugestaltung von Siri stehen laut The Information zudem Bedenken im Hinblick auf den Datenschutz und die Privatsphäre der Nutzer im Weg. Als Beispiel nennt die Webseite ein Projekt namens „Blackbird“, das 2019 in Angriff genommen wurde. Ziel war die Erstellung eines Assistenten, dessen Spracherkennung lokal auf dem iPhone erfolgt. Das gelang zwar und das Feature steht seit 2021 auf den Smartphones aus Cupertino für etliche Funktionen zur Verfügung. Die Kehrseite des Projekts: Mit der Arbeit an „Blackbird“ waren mehrere hundert Angestellte beschäftigt, die somit für die Erweiterung der allgemeinen Leistungsfähigkeit von Siri nicht mehr zur Verfügung standen. Mittlerweile hat ein großer Teil des verbliebenen Entwicklerteams angeblich das Vertrauen verloren, dass Apple den Sprachassistenten in absehbarer Zeit mit Künstlicher Intelligenz ausstatten und dadurch entscheidend verbessern kann.

Kommentare

Paddysch9027.04.23 20:10
Ich warte lieber länger als einer KI wie ChatGPT oder Bard meine Daten zu geben. Ich komme mit Siri ganz gut zurecht.

Wenn ich noch 3 oder 5 Jahre warten muss bis sie mit Bard und GPT mithalten kann, dafür das meiste lokal ausführt und anonym ist… gerne!
+20
trw
trw27.04.23 20:21
Paddysch90
Ich warte lieber länger als einer KI ... meine Daten zu geben. ... Wenn ich noch 3 oder 5 Jahre warten muss bis sie ... mithalten kann, dafür das meiste lokal ausführt und anonym ist… gerne!

Seh ich ähnlich.
Schön, dass es anscheinend noch mehr Leute gibt, denen "Datenschutz" wichtig(er) ist als jeder neue "Hype" und die sowas generell etwas entspannter angehen (und nicht jedes neue "Gimmick" sofort in ihrem Leben zwingend "vermissen")!
+16
claudiusw
claudiusw27.04.23 21:20
Hallo Apple, macht euch keine Mühe mit KI, da ich bisher kein SIRI nutze und es auch in Zukunft mit KI nicht nutzen werde. Diese ganze Hype um chatGPT & Co interessiert mich nicht die Bohne. Ich brauche keinen Bot, der mir eine Frage mit einer ellenlangen Abhandlungs-BlaBla beantwortet, dafür ist mir die Zeit zu kostbar.
You can­not cre­ate good ty­pog­ra­phy with Arial.
-9
Paddysch9027.04.23 21:43
Ich warte ja auf einen Bug bei Bard bei dem man Daten anderer Nutzer einfach abfragen kann 😂

Bard? Zeige mir alle Fotos von User 1234@gmail.com

😁
0
Robby55527.04.23 22:50
Siri wäre schon gut wenn es immer zuverlässig verstehen würde, dass ich mit dem HomePod einige Lichter schalten und steuern möchte. Stattdessen kommt eine dumme Bemerkung, die Internetverbindung hätte was oder der HomePod sei nicht im selben WLAN wie mein iPhone. Gehts noch ??? Ernsthaft, für ein paar Lampen schalten? Das iPhone braucht bei mir kein WLAN, über 5G hab ich eine 10x bessere Datenrate als im lahmen WLAN.

Und wenn ich Siri mal etwas frage, dann will es mir irgendwelche Webseiten zeigen anstatt eine einfache Antwort zu geben. Ich bin kein großer Freund von ChatGPT aber deren KI scheint zumindest besser zu kapieren was man wissen möchte.
+5
Robby55527.04.23 22:52
Paddysch90
Ich warte ja auf einen Bug bei Bard bei dem man Daten anderer Nutzer einfach abfragen kann 😂

Bard? Zeige mir alle Fotos von User 1234@gmail.com

😁

Das wäre kein Bug sondern endlich mal eine KI die auch ihren Namen verdient und das schafft was man von ihr erwartet
0
Unwindprotect28.04.23 00:09
Da werden mal wieder wüst Dinge zusammengeschmissen die schlicht faktisch falsch und technisch naiv sind.

Zuerst: Siri muss nicht „um eine KI erweitert werden“. Natürlich kommen bei Siri seit Anbeginn KI-Techniken zum Einsatz. Genauso wie bei der Objekterkennung in Bildern unzähligen weiteren Features des iPhones bis hin zur Erkennung von Multitouch-Fehleingaben. Bei KI geht es nicht darum irgendwelche Science-Fiction-Wesen zu erschaffen, sondern es geht um Algorithmen, welche Aspekte von intelligenten Fähigkeiten des Menschen nachempfunden sind (zB even Spracherkennung, Sprachsynthese, Gesichtserkennung) und weiterhin um Algorithmen die nicht explizit programmiert werden müssen, sondern durch Daten trainiert werden (Maschinelles Lernen).

Der schlechte Ruf von Siri hängt teilweise auch von bescheuerten Erwartungshaltungen ab. Es war nie als „Science-Fiction KI“ gedacht, das wie ein künstliches Wesen agiert sondern ist schlicht und einfach nicht mehr als eine Spracherkennung die Sprache flexibler versteht, als die vorherigen auf ganz einfachen festen Sprachmustern bestehenden Systeme. Mit seiner Einführung war Siri damit durchaus fortschrittlich. Heute ist das natürlich ein alter Hut. Auch wenn man Sätze etwas flexibler gestalten kann, stehen bei Siri am Ende dennoch eine kleine Menge von „Schablonen“ dahinter, die man gewissermaßen wie ein Formular sprachlich befühlt und dann absendet. Schablonen wie „Timer stellen“, „Erinnerung anlegen“, „Musik lauter“ usw. Siri kann nicht allgemein irgendwelche Fragen beantworten - das wird dann meistens als „Schablone für Suche in Web“ interpretiert.

Der nächste Schwachsinn ist, LLMs (Large Language Models) heute wieder genauso wie damals als Siri neu war als „Science-Fiction-KI-Wesen“ zu sehen, das selbst denken kann und das einen versteht. Das ist Quatsch. Ein LLM versteht überhaupt nichts. Es ist ein Sprachmodell - das bedeutet es gibt genau eine Sache die es wirklich gut kann: Es kann menschliche Sprache in extrem authentischer Form erzeugen. Wenn bestimmte Sachverhalte die in den Trainingsdaten vorhanden waren, dann kann es diese wiedergeben und es kann sich auch innerhalb mehr oder weniger schmaler Grenzen adaptieren. Das Abstraktionslevel ist dabei aber sehr flach… was Tests zeigen die zB Planungsaufgaben in Blockwelten umfassen, bei welchen extrem geringe erfolgreiche Ergebnisse erzielt werden. LLMs sind toll um Texte zusammenzufassen, umzuformulieren, zu übersetzen oder beim kreativen Schreiben. Last not least sind sie ein interessanter neuer Schritt beim „Mensch-Maschine-Interface“. Rechnen, Fakten benennen oder irgendwelche Dinge zu folgern sind jedoch keine guten Anwendungsfälle - weshalb solche Dinge aktuell mittels „Retrievers“ als Zugriff auf spezialisierte Systeme (zB Wolfram Alpha) durchgeführt werden.

Einige Entwicklungstrends bei LLMs dienen dazu die Modelle zu vereinfachen und sie auf einfacherer Hardware laufen zu lassen. Man kann davon ausgehen, dass auch Apple zu zukünftigen Apple Silicon Chips auch im weitere Features erweitert um da am Ball zu bleiben. Man stelle sich vor solche LLMs in Zukunft tatsächlich lokal auf dem iPhone laufen zu haben - um zB E-Mails besser zu schreiben oder andere nützliche Aufgaben. Für Sachen wie „Stelle mir einen Timer“ braucht man aber kein LLM.

Ich gehe davon aus, das Apple diesen Markt erst noch beobachten wird und intern entwickelt. Apple war fast nie der erste bei neuen Technologien, aber wenn sie etwas dann bringen werden so oft technologieführend.
+19
MacAlister28.04.23 07:10
Man kann einfach zusammenfassen, Siri ist der größte Schrott auf dem Markt, funktioniert hinten und vorne nicht, kann außer Teewasser Timer stellen rein garnichts. Apple Entwickler haben bereits unlängst die vermurkste Programmierung von Siri bestätigt.

Apple hat hier komplett den Anschluss verpasst. Wenn Apple in diesem Jahr in Sachen KI nichts maßgebliches liefert ist der Zug abgefahren.
-2
Frost28.04.23 07:31
MacAlister
Wenn Apple in diesem Jahr in Sachen KI nichts maßgebliches liefert ist der Zug abgefahren.

Das sehe ich ganz genau so. Apple haette eigentlich mit Siri Jahre an Vorsprung haben koennen, was den Einsatz eines persoenlichen Assistenten basierend auf starker KI angeht. Eigentlich haette ich erwartet, dass Apple mit deren finanzieller Aussattung und deren Personaldecke, schon vor einigen Jahren so etwas vorgestellt haette wie man jetzt mit Auto-GPT sehen kann.

Aber es kahm nichts und Siri ist bis heute Dumm geblieben und hat sich nicht viel weiter entwickelt. Dies zeigt mal wieder, Apple kann einfach keine Software und ihre ganzen Innovationen im Bereich Software haben sie in der Vergangenheit eigentlich immer dadurch erhalten, dass sie bestehende Firmen die innovative Ideen gehabt haben aufgekauft hatten. Es erfolgte nur ganz wenig an organischer Entwicklung aus Apple selbst heraus. Und selbst die aufgekauften Projekte haben sich unter Apple meist nicht gross weiterentwickeln koennen.

Aber in diesem Fall hatt Apple einfach die Zeichen der Zeit verpennt gehabt und Microsoft hatte zugeschlagen und sich mit OpenAI diese in Zukunft strategisch wichtige Firma gesichert.
-8
konnektor28.04.23 08:49
Einige Anmerkungen hier sind echt der Witz. Weit ab von KI, Auswertungen und maschinellem lernen, Siri ist einfach scheiße programmiert. Bestes Beispiel CarPlay-Integration: Karten - Zielsuche per Siri - "Mustermann, Berlin" - Siri fragt zurück "Meinst Du Max Mustermann?" und befindet sich damit nicht mehr in Karten - Antwort "Ja (den meine ich)" - Siri: "Du befindest Dich nicht (mehr) in der Navigation. Öffne zuerst ..."
Sorry aber selbst meine Telefonanlage kann sich (programmiert) merken, was ich als letztes getan habe und somit situationsabhängig reagieren. Dazu braucht es Intelligenz nur beim Programmierer, nicht bei der Software.

P.S dazu fällt mir ein Cartoon ein: stehen zwei vor einer Firmenzentrale, "Künstliche Intelligenz? Wir haben ja schon Probleme mit der natürlichen Intelligenz!"
+6
Raziel128.04.23 11:28
Robby555
Siri wäre schon gut wenn es immer zuverlässig verstehen würde, dass ich mit dem HomePod einige Lichter schalten und steuern möchte. Stattdessen kommt eine dumme Bemerkung, die Internetverbindung hätte was oder der HomePod sei nicht im selben WLAN wie mein iPhone. Gehts noch ??? Ernsthaft, für ein paar Lampen schalten? Das iPhone braucht bei mir kein WLAN, über 5G hab ich eine 10x bessere Datenrate als im lahmen WLAN.

Und wenn ich Siri mal etwas frage, dann will es mir irgendwelche Webseiten zeigen anstatt eine einfache Antwort zu geben. Ich bin kein großer Freund von ChatGPT aber deren KI scheint zumindest besser zu kapieren was man wissen möchte.

Oder mit anderen Worten: Dein Netzwerk sollte mal überprüft werden. Ernsthaft, deine Beschreibungen deuten start darauf hin das es da mit deiner Netzkonfiguration Problem gibt die dir bisher vermutlich nicht bewusst waren.
-1
eriks28.04.23 12:14
Unwindprotect
Das Abstraktionslevel ist dabei aber sehr flach… was Tests zeigen die zB Planungsaufgaben in Blockwelten umfassen, bei welchen extrem geringe erfolgreiche Ergebnisse erzielt werden.

Konkrete Einschränkungen von LLMs zu kennen ist sicher bedeutend, die Technologie und ihre Auswirkungen zu verstehen.
Gibts mehr Infos zum Hinweis auf Tests mit Planungsaufgaben in Blockwelten? Links etc.? Danke schon einmal!
0
Dunkelbier28.04.23 13:44
konnektor
Einige Anmerkungen hier sind echt der Witz. Weit ab von KI, Auswertungen und maschinellem lernen, Siri ist einfach scheiße programmiert. Bestes Beispiel CarPlay-Integration: Karten - Zielsuche per Siri - "Mustermann, Berlin" - Siri fragt zurück "Meinst Du Max Mustermann?" und befindet sich damit nicht mehr in Karten - Antwort "Ja (den meine ich)" - Siri: "Du befindest Dich nicht (mehr) in der Navigation. Öffne zuerst ..."
Sorry aber selbst meine Telefonanlage kann sich (programmiert) merken, was ich als letztes getan habe und somit situationsabhängig reagieren. Dazu braucht es Intelligenz nur beim Programmierer, nicht bei der Software.

P.S dazu fällt mir ein Cartoon ein: stehen zwei vor einer Firmenzentrale, "Künstliche Intelligenz? Wir haben ja schon Probleme mit der natürlichen Intelligenz!"
Hä? Wenn ich sage "Navigiere mich zu NAME", dann klappt das eigentlich immer. Also was genau machst Du?
-1
konnektor28.04.23 13:53
Dunkelbier
Also was genau machst Du?
Das was ich geschrieben habe. Wie soll ich das noch genauer erklären? "Navigiere mich zu NAME" sage ich natürlich nicht, da bei CarPlay der Button für die Suche ja bereits in Karten vorhanden ist. Logik: ich bin in Karten = ich will navigieren, Suche = ich gebe Namen an. Logik Siri: Name gefunden = ich hab vergessen was ich damit anfangen soll und dass Du mich in Karten danach gefragt hast bedeutet gar nichts.
+1
Robby55528.04.23 15:27
Raziel1
Robby555
Siri wäre schon gut wenn es immer zuverlässig verstehen würde, dass ich mit dem HomePod einige Lichter schalten und steuern möchte. Stattdessen kommt eine dumme Bemerkung, die Internetverbindung hätte was oder der HomePod sei nicht im selben WLAN wie mein iPhone. Gehts noch ??? Ernsthaft, für ein paar Lampen schalten? Das iPhone braucht bei mir kein WLAN, über 5G hab ich eine 10x bessere Datenrate als im lahmen WLAN.

Und wenn ich Siri mal etwas frage, dann will es mir irgendwelche Webseiten zeigen anstatt eine einfache Antwort zu geben. Ich bin kein großer Freund von ChatGPT aber deren KI scheint zumindest besser zu kapieren was man wissen möchte.

Oder mit anderen Worten: Dein Netzwerk sollte mal überprüft werden. Ernsthaft, deine Beschreibungen deuten start darauf hin das es da mit deiner Netzkonfiguration Problem gibt die dir bisher vermutlich nicht bewusst waren.

Meine anderen 8-10 Geräte haben im WLAN kein Problem nur der HomePod ist so strunzdoof und vergisst hin und wieder was er tun soll. Gerade frage ich welche Termine habe ich heute, was kommt … „entschuldige ich habe ein Problem, bitte überprüfe ob dein iPhone im selben WLAN ist wie dieser HomePod“. Natürlich nicht, mein iPhone hab ich zwar für die Einrichtung verwendet (geht ja nicht ohne) aber im Alltag verwende ich nur 5G. Was ist so schwer daran das Siri darauf ohne iPhone diese einfache Aufgabe erledigt. Persönliche Anfragen sind an !
+1
Dunkelbier28.04.23 22:49
konnektor
Dunkelbier
Also was genau machst Du?
Das was ich geschrieben habe. Wie soll ich das noch genauer erklären? "Navigiere mich zu NAME" sage ich natürlich nicht, da bei CarPlay der Button für die Suche ja bereits in Karten vorhanden ist. Logik: ich bin in Karten = ich will navigieren, Suche = ich gebe Namen an. Logik Siri: Name gefunden = ich hab vergessen was ich damit anfangen soll und dass Du mich in Karten danach gefragt hast bedeutet gar nichts.
Also für mich ist das ganz und gar nicht logisch. Und warum sollte ich das tun? Ich sage einfach, was ich will. Und das klappt meistens. Egal, wo ich grad in dem System bin.
+1
Unwindprotect29.04.23 10:10
eriks
Konkrete Einschränkungen von LLMs zu kennen ist sicher bedeutend, die Technologie und ihre Auswirkungen zu verstehen.
Gibts mehr Infos zum Hinweis auf Tests mit Planungsaufgaben in Blockwelten? Links etc.? Danke schon einmal!

Hier zum Beispiel

https://bdtechtalks.com/2022/07/25/large-language-models-cant-plan/

Irgendwo habe ich auch etwas gelesen, wo untersucht wurde wie GPT-4 dann teilweise besser abschnitt, man das aber darauf zurück führte, das entsprechende Beispiele im Trainingsmaterial wären - aber das finde ich gerade nicht.
+2
Unwindprotect29.04.23 10:49
Frost
Das sehe ich ganz genau so. Apple haette eigentlich mit Siri Jahre an Vorsprung haben koennen, was den Einsatz eines persoenlichen Assistenten basierend auf starker KI angeht.

Keines der heute bekannten Systeme kann als “starke KI” angesehen werden.

Leider gehen alle Diskussionen bezüglich KI immer sofort um “persönliche Assistenten” mit denen man sprechen kann und die wie ein Mensch handeln sollen. KI ist jedoch ein wesentlich umfangreicheres Feld und Apple nutzt KI en masse in seinen Produkten - Apple ist bei KI auch nicht so schlecht wie es in solchen Diskussionen hingestellt wird - nur verwenden sie KI eben in vielen Fällen sehr unbemerkt. Schon bei der Touchbedienung kommt KI zum Einsatz.

Mit dem Aufkommen von Siri und Alexa dachten die Leute schlicht es handelt sich um “persönliche AI Assistenten” die tatsächlich intelligent sind und bestimmt bald autonom arbeiten würden… im selben Zuge wie alle dachten, dass bald lauter Teslas vollautonom durch die Gegend fahren würden. Die Leute sind eben einfach leichtgläubige Science Fiction Fans, die leicht auf übersteigerte Werbung hineinfallen.

Siri und Alexa sind in erster Linie Stimmerkennungssysteme. Ihre Errungenschaft ist, das wir Befehle auslösen können indem wir einen mehr oder minder normalen Satz sagen - statt irgendwo hinzutippen. Das war es aber auch schon. Die Befehle sind fest verdrahtet. Die Illusion einer SF-KI verschwindet schnell, sobald man das Dutzend an Befehlspatterns mal erkannt hat und merkt, das man am Ende eben doch etwas aufpassen muss wie man etwas sagt.

Große Sprachmodelle sind da ein Fortschritt. Sie modellieren Sprache signifikant Umfangreicher und können Sätze umfassender sprachlich transformieren. Man könnte damit zB die Eingaben zu sowas wie Siri weniger pedantisch machen als es jetzt noch ist. Es ist auch leichter damit neue „Befehlspatterns“ praktikabel zu implementieren. Außerdem können die Antworten des Systeme dynamischer werden. All das Sind Kerntraits von LLMs. Nichts davon hat etwas mit „starker KI“ zu tun - aber es ist definitiv nützlich und wird sicherlich in Zukunft Anwendung finden.

Zu glauben, das Apple das nicht an Schirm hat ist naiv - allerdings haben LLMs aktuell noch sehr herausfordernde Probleme: Eines der größten ist rechtlich - Copyright und Datenschutz sind gigantische Baustellen. Die Fans ignorieren die gerne, weil es einfach so c0000l ist seinen „Kumpels“ tolle Tricks mit ChatGPT zu zeigen, aber das sind handfeste Probleme die in den nächsten Jahren immer präsenter werden. Weiterhin natürlich die Missbrauchsvermeidung, oder Schäden aufgrund unkontrolliertem emergenten Verhaltens. Menschen die sich nach halluzinierten „Diagnosen“ das Leben nehmen - oder einfach nur falsch behandelt werden. Menschen die verunglimpft werden durch halluzinierte üble Nachrede. Fake News usw.
+3
Pixelmeister29.04.23 10:52
Für mich sind es zwei verschiedene Schuhe, ob ich Fragen beantwortet haben möchte (dafür nehme ich lieber die Google-Suche als Siri) oder meine Geräte steuern möchte (das klappt mit Siri ganz gut). Für mich ist Siri einfach eine zusätzliche Eingabe-Möglichkeit neben Tastatur, Finger und Maus, die ich nutze, wenn ich meine Hände nicht frei habe (z.B. im Auto). Eigentlich gehört Siri in die Bedienungshilfen. Natürlich würde ich mir auch dort Verbesserungen beim Verständnis wünschen – aber ich benötige keine Antworten à la ChatGPT.
+2
konnektor29.04.23 11:38
Dunkelbier
Also für mich ist das ganz und gar nicht logisch. Und warum sollte ich das tun? Ich sage einfach, was ich will. Und das klappt meistens. Egal, wo ich grad in dem System bin.
Wir reden aber schon von CarPlay?
0
Dunkelbier29.04.23 20:14
konnektor
Dunkelbier
Also für mich ist das ganz und gar nicht logisch. Und warum sollte ich das tun? Ich sage einfach, was ich will. Und das klappt meistens. Egal, wo ich grad in dem System bin.
Wir reden aber schon von CarPlay?
Klar doch.
0
MacAlister30.04.23 15:43


Nein, Apple suggeriert keine Intelligenz in Sachen Siri *Ironie aus*

Ich bleibe dabei, Siri ist mit Abstand der schlechteste Assistent. Ich würde ihn im Schatten von ChatGPT nicht mehr bewerben. Wenn ChatGPT Whisper final ist, kann Siri in Rente gehen.
-2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.