Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples KI-Pläne: Siri 2.0 soll für neuen Höhenflug sorgen

Apple wird sich dem Trend nach mehr KI keineswegs entziehen: Für iOS 18 und die anderen großen Updates aller relevanten Betriebssysteme des Unternehmens stehen große Änderungen an, um mit der Konkurrenz in dieser Disziplin besser Schritt halten zu können. Unklar ist bislang, wie Cupertino die Umsetzung konkret realisiert. So gebe es etwa fortgeschrittene Verhandlungen mit OpenAI, wenngleich ungewiss ist, ob Apple womöglich lediglich die dahinterliegende Technologie lizenziert. Als denkbar gilt auch ein Chatbot, der getrennt von Siri existiert. Laut einem neuen Bericht der New York Times plant der Konzern jedoch weitreichende Änderungen für seinen Sprachassistenten.


Warum ist Siri ChatGPT unterlegen?
Mit Verweis auf Quellen, die mit der Angelegenheit vertraut seien, berichtet die New York Times von Apples Ambitionen hinsichtlich Siri. Anfang des vergangenen Jahres hätten Führungskräfte in Cupertino den Entschluss gefasst, den Sprachassistenten zu überarbeiten. Software-Chef Craig Federighi und John Giannandrea, Senior Vice President of Machine Learning and AI Strategy, hätten gar mehrere Wochen lang ChatGPT getestet, um herauszufinden, was Siri so veraltet erscheinen lässt. Der Artikel nennt einige Gründe hierfür: Apple habe dem für Siri zuständigen Team vergleichsweise wenig Aufmerksamkeit geschenkt und kaum Ressourcen zugewiesen. Ferner sei es dem Unternehmen schwergefallen, führende KI-Forscher zu gewinnen und zu halten.

Apples Angst, ins Hintertreffen zu geraten
Apples Führungskräfte hätten die Sorge geäußert, dass KI auf ein attraktiveres Betriebs- und Ökosystem als jenes des iPhones stoßen könnte. Der App Store werde so untergraben und der Marktanteil des iPhones sei in Gefahr – tatsächlich drohe aus dem Gerät schlimmstenfalls ein „dummer Ziegelstein“ zu werden, so die Befürchtung. Apple habe deshalb eine Umstrukturierung vorgenommen, sodass der KI-Bereich mehr Mitarbeiter hat und mit mehr Ressourcen ausgestattet ist. Diese Entwicklung habe dazu beigetragen, die Arbeit an einem eigenen Fahrzeug einzustellen. Laut dem Bericht trage das iPhone 16 den erweiterten KI-Features Rechnung, indem diese über mehr Arbeitsspeicher verfügen. So greifen möglicherweise alle Ableger der kommenden Baureihe auf 8 Gigabyte RAM zu (siehe hier).

Kommentare

der Wolfi
der Wolfi13.05.24 15:19
hätten gar mehrere Wochen lang ChatGPT getestet, um herauszufinden, was Siri so veraltet erscheinen lässt.
Die schönste Satire ist als Meldung getarnte Realsatire.
Normal is für die Andern
+29
skipper13.05.24 15:33
Seltsam, um das heraus zu finden, musste ich kein ChatGPT testen
der Wolfi
hätten gar mehrere Wochen lang ChatGPT getestet, um herauszufinden, was Siri so veraltet erscheinen lässt.
Die schönste Satire ist als Meldung getarnte Realsatire.
+5
derguteste
derguteste13.05.24 15:38
hätten gar mehrere Wochen lang ChatGPT getestet, um herauszufinden, was Siri so veraltet erscheinen lässt.

Allein der Satz, zeigt eindrücklich, warum Siri so ist wie sie ist.
+15
Macmissionar13.05.24 16:11
Siri und (mehr) KI schön und gut. Aber es sollte auch das Hörvermögen geschärft werden. Ich nutze Siri täglich, um mal eben stupide Rechenaufgaben lösen zu lassen (HomePod). Sie reagiert jedes Mal, aber auch fast jedes Mal versteht sie es erst beim zweiten oder dritten Mal.
"Hey Siri, was ist 994 minus 551?" — um grammgenau das Essen tracken zu können. Und meistens kommt dann deprimierend die Antwort "194 minus 151 ist 43.".
Schnell die Zahlen nicht vergessen, die die Waage gerade angezeigt hat, sonst hat man ein Problem …
A Mac is like a Wigwam: No Windows, no Gates, no Backdoors, Peace, Harmony – and an Apache inside.
0
TorstenW13.05.24 16:25
tatsächlich drohe aus dem Gerät schlimmstenfalls ein „dummer Ziegelstein“ werden

Wieso "werden"?
ich würde sagen, das ist der Status quo..
Ehrlich gesagt finde ich einen Ziegelstein noch recht nett ausgedrückt..
-5
Raziel113.05.24 16:44
TorstenW
tatsächlich drohe aus dem Gerät schlimmstenfalls ein „dummer Ziegelstein“ werden

Wieso "werden"?
ich würde sagen, das ist der Status quo..
Ehrlich gesagt finde ich einen Ziegelstein noch recht nett ausgedrückt..

Ach so ein Unsinn. Ich nutze Siri eigentlich täglich für alles mögliche und auch besonders für Hausautomatisierung, während der Autofahrt etc und das was sie tun soll tut sie einwandfrei. Klar ist die kein ChatGPT4 aber das sind Alexa, Google etc auch nicht. Alle 3 wurden wenn es um Fähigkeiten geht natürlich überholt aber das ist ja auch dem klar. Aber Siri ist weder dumm noch ein Ziegelstein. Sie tut das was sie tuen soll, nicht mehr nicht weniger.
-7
der Wolfi
der Wolfi13.05.24 17:16
Raziel1
Sie tut das was sie tuen soll, nicht mehr nicht weniger.
Ich nutze Siri auch täglich. Habe mich dabei aber sehr eingeschränkt. Timer klappt. Musik, Wegbeschreibung, funzt halbwegs. Fehlerquote ca. 20%. Alles andere lass ich weg.
Normal is für die Andern
+8
Unwindprotect13.05.24 17:30
Ich glaube viele machen sich da eine echt seltsame Vorstellung... weil man unter Laien seit eh und je alles mit "KI" in denselben Topf schmeißt und dabei noch dazu eine Vorstellung davon hat die vielmehr mit Hollywood gemein hat als mit Informatik.

Was hat Siri damals überhaupt ausgemacht? Geht man in die damalige Zeit zurück, so kannte man durchaus bereits "Sprachsteuerung" bei Geräten. Diese war allerdings ganz exakt auf bestimmte Schlüsselworte ausgelegt. Synonyme oder ganze Phrasen waren ebensowenig möglich wie ein echtes "Parameterisieren" also sowas wie "Sende Nachricht mit Text <beliebiger Text>".

Mit Siri hat man Spracherkennung soweit verbessern können, dass man verschiedene Phrasen zu einheitlichen Syntaxbäumen transformieren konnte und man konnte Bestandteile auch in beliebiger natürlicher Sprache einbetten. Es geht aber immer noch vor allem einfach um _Sprachmustererkennung_, also das Matchen von gesprochener Sprache mit irgendeinem festen Sprachpattern. Sobald man etwas einfach nur eintippt ist das nur noch rudimentär von dem eigentlichen Fortschritt von Siri tangiert. Dieses Feature hat man dann mit einem regelbasierten Assistenzsystem gekoppelt, welches bestimmte feste Anwendungsfälle verarbeiten kann.

Alleine die Tatsache, das man hier einfach als Eingabe sprechen konnte und als Antwort gesprochene Sprache (ebenso mit festen Patterns) zurückkam hat die Phantasie der Nutzer dazu verleitet sich darunter eine "Künstliche Intelligenz" im Hollywood Style vorzustellen. Es war und ist jedoch nicht wirklich viel mehr als ein Sprachassistenzsystem bei dem man eben ein bisschen freier formulieren konnte als bei den allerersten Ansätzen.

Bei der Konkurrenz war das nicht soo viel anders, nur hat man da eben etwas mehr Augenmerk auf den "Spielfaktor" gelegt um diesen "Hollywood-Faktor" etwas weiter zu befüllen und besser vorzustäuschen es handele sich wirklich um "Intelligenz".

Wenn ich jetzt diesen Bericht lese, dass Craig Federighi und John Giannandrea "wochenlang ChatGPT getestet haben", dann erzeugt das auch ein vollkommen falsches Bild. Mindestens John Giannandrea aber mit hoher Wahrscheinlichkeit auch Craig Federighi wussten sehr wohl um die technischen Unterschiede dessen was Siri zugrundeliegt und LLMs wie bei ChatGPT. Hier anzunehmen, die hätten da das erste mal kapiert, das ChatGPT "schlauer" sei als "Siri" ist eine ziemlich naive Vorstellung.

Große Sprachmodelle sind in der Informatik schon wesentlich länger bekannt und auch Apple hat mit Sicherheit (genauso wie Google, Meta usw.) intern damit geforscht. LLMs an sich waren nicht wirklich der große Coup den OpenAI da gelandet hat. Das was die meisten in der Industrie überrascht und überrumpelt hat war vielmehr, dass einer von ihnen bei dem Stand der Technik einfach versucht das so auf die Allgemeinheit loszulassen. Mit all den noch zum großen Teil ungelösten Problemen die damit einhergehen.

ChatGPT als _Demo_ hat gezeigt, das man selbst mit solchen Modellen bereits nützliche Anwendungsfälle konstruieren kann. Gleichzeitig ist aber auch wieder ein ähnlicher KI-Hype entstanden wie bei Siri/Alexa und co.... nur das die Demo-Beispiele eben beeindruckender waren.

Technisch gesehen macht ein LLM etwas vollkommen anderes. Mit Erkennung von gesprochener Sprache hat es erstmal nichts direkt am Hut, aber das hat man in den letzten Jahren durch Technologien wie Siri & Co. sowieso bereits gut gelöst und noch weiter verbessert. LLMs als "generative Sprachmodelle" erlauben es schlicht, dass man in hervorragender Qualität Sprache generieren kann die zu einem vorher angegebenen Inhalt als Fortsetzung passt. Das funktioniert so gut, das man eben "Anfragen" und "Vorbedingungen" einfach als Prä-Text eingeben kann und mit hoher Wahrscheinlichkeit etwas zumindest sprachlich passendes zurück bekommt. Für viele Anwendungsfälle kann das bereits verdammt nützlich sein. Allerdings hat man dann immer noch kein "Assistenzsystem" wie bei dem regelbasierten Hinterbau von Siri, Alexa und Co.

Allerdings kann man über die APIs der LLMs sogenannte "Function call extensions" hinterlegen. Dazu beschreibt man in normaler Sprache was eine Funktion macht und koppelt dies mit einer in einer herkömmlichen Programmiersprache wie JavaScript oder Python geschriebenen Funktion. Das kommt in den "Prätext" der Anfrage. Wenn die Sprachmodelle also eine Frage erhalten die sie mit den genannten Funktionen beantworten können, dann geben sie die "Function call Syntax" aus... das System liest diese dann aus, ruft die Funktion auf und schreibt das Ergebnis wieder heraus. Das herausgeschriebene Ergebnis kann vom Sprachmodell wieder seiner Generierung des Texts einfließen. Wirklich denken tut das Sprachmodell dabei nicht, aber die Eingabe und Ausgabe ist eben für uns Menschen sehr gut zu verstehen und fühlt sich fast wie ein Dialog an.

Man kann davon ausgehen, dass das was sich Craig Federighi und John Giannandrea bei ChatGPT EIGENTLICH angeschaut und sich gefragt haben war, inwiefern man eben mit diesen teils eben doch schwierigen (Halluzinationen, Bias...) Ergebnissen ein wirklich endnutzertaugliches Produkt machen kann. Wenn ein "Sprachassistent" wie Siri plötzlich durch Prompting-Tricks dazu verleitet werden kann menschenverachtende Dinge zu sagen, dann wird das durch alle Medien gehen. OpenAI kommt damit meist durch. Google wurde mit Gemini ja auch ziemlich gerüffelt und Image-Schaden angerichtet. Also die eigentliche Frage über die sie sich wohl so lange Gedanken gemacht haben ist weniger "Ist ChatGPT schlauer als Siri?", denn beide sind schlicht gleich dumm... sie dürften sich überlegt haben wie man mit der teilweise Unkontrollierbarkeit der Ergebnisse ein möglichst gutes Produkt machen kann. Dazu haben sie sich sicherlich auch angeschaut welche Tricks OpenAI anwendet um bestimmte Prompting-Attacken zu verhindern.
+16
killerspots13.05.24 20:29
Raziel1
TorstenW
tatsächlich drohe aus dem Gerät schlimmstenfalls ein „dummer Ziegelstein“ werden

Wieso "werden"?
ich würde sagen, das ist der Status quo..
Ehrlich gesagt finde ich einen Ziegelstein noch recht nett ausgedrückt..

Ach so ein Unsinn. Ich nutze Siri eigentlich täglich für alles mögliche und auch besonders für Hausautomatisierung, während der Autofahrt etc und das was sie tun soll tut sie einwandfrei. Klar ist die kein ChatGPT4 aber das sind Alexa, Google etc auch nicht. Alle 3 wurden wenn es um Fähigkeiten geht natürlich überholt aber das ist ja auch dem klar. Aber Siri ist weder dumm noch ein Ziegelstein. Sie tut das was sie tuen soll, nicht mehr nicht weniger.

na ist doch schön für dich. Bei mir macht Siri eben nicht was sie soll. Mal muss ich mein Handy entsperren damit sie was macht. Meistens sucht sie mir im Internet Suchergebnisse heraus anstatt ne konkrete Antwort zu liefern. Wenn ich was auf eine konkrete Einkaufsliste packen lassen möchte und auch konkret sage auf welche, fragt sie trotzdem nach und ich muss wieder Hand anlegen. Soll sie „Under Pressure“ abspielen, sagt sie mir dass sie „An der Pr in Escher leider nicht finden kann“. 🤷🏼‍♂️🤦‍♂️

Alles in allem bin ich kein Fan von Siri, weil sie in meinen Augen einfach zu unzuverlässig (und manchmal launig) ist
+1
rkb0rg
rkb0rg13.05.24 23:05
der Wolfi
hätten gar mehrere Wochen lang ChatGPT getestet, um herauszufinden, was Siri so veraltet erscheinen lässt.
Die schönste Satire ist als Meldung getarnte Realsatire.

Wenn’s nur nicht so traurig wäre
0
Frost13.05.24 23:19
Ich vermute OpenAI hat auch Apple so etwas hier gezeigt:
https://twitter.com/gdb/status/1790071008499544518

Und dann haben sie es versucht mit ihrer aktuellen Siri nachzustellen, tja da blieb dann fuer wohl nur einen Vertrag zum Einkauf der Dienstleistung zu machen.
Wenn das auf iOS ausgerollt wird, dann wird dies OpenAI Unsummen in ihre Kassen spuelen, wenn sie schlau sind lassen sie sich auch die benoetigte Hardware von ihrem Kunden finanzieren, denn diese wird gewaltig sein und sollte Apple in einem Jahr abspringen sitzt OpenAI auf Unmengen an dann fuer sie wertloser GPU Hardware.
0
Nebula
Nebula14.05.24 00:09
Wenn Apple wirklich OpenAI nutzt, dann vermutlich unter Lizenz auf eigenen Servern mit Anpassungen, damit man Siri nichts Negatives über Apple entlocken kann. Sie wird sicher nicht ungefiltert sowas beantworten.
ChatGPT auf die Frage: Hat Apple in seiner Geschichte schon mal gelogen?
Apple ist eines der größten und bekanntesten Technologieunternehmen der Welt und steht daher häufig im Fokus von Medien, Investoren und der Öffentlichkeit. Es gibt mehrere Fälle, in denen Apple beschuldigt wurde, irreführende Informationen zu verbreiten oder nicht die volle Wahrheit zu sagen. Hier sind einige bemerkenswerte Beispiele:

Batteriegate:
Ende 2017 kam ans Licht, dass Apple absichtlich die Leistung älterer iPhone-Modelle drosselte, ohne die Nutzer klar darüber zu informieren. Apple erklärte, dass diese Maßnahme notwendig sei, um plötzliche Abschaltungen zu verhindern und die Lebensdauer der Batterien zu verlängern. Viele Nutzer und Kritiker warfen dem Unternehmen jedoch vor, diese Praxis verschleiert zu haben, um die Verkaufszahlen neuer iPhone-Modelle zu steigern. Apple entschuldigte sich später und bot vergünstigte Batteriewechsel an.

Datenschutz und iCloud-Speicherung in China:
Apple betonte oft seinen Einsatz für Datenschutz und Datensicherheit. In China wurde jedoch bekannt, dass Apple seine iCloud-Dienste in Partnerschaft mit einem staatlichen Unternehmen betreibt und damit möglicherweise den Zugriff der chinesischen Regierung auf Nutzerdaten erleichtert. Diese Praxis steht im Widerspruch zu Apples weltweiten Aussagen zur Datenhoheit und Sicherheit.

Arbeitsbedingungen in der Lieferkette:
Trotz der jährlichen „Supplier Responsibility Reports“ und den angegebenen Maßnahmen zur Verbesserung der Arbeitsbedingungen in der Lieferkette, gibt es immer wieder Berichte von NGOs und Medien, die auf anhaltende Probleme hinweisen. Diese Berichte werfen Fragen auf, inwieweit die öffentlichen Aussagen von Apple mit der Realität übereinstimmen.

Marketing und Produktversprechen:
Es gab Fälle, in denen Apple wegen irreführender Werbung verklagt wurde. Beispielsweise gab es Klagen wegen übertriebener Angaben zur Wasserfestigkeit von iPhones. In einigen Fällen musste Apple Entschädigungen zahlen oder seine Werbung anpassen.

Steuerpraktiken:
Apple wurde in der Vergangenheit auch wegen seiner Steuerpraktiken kritisiert und beschuldigt, Gewinne in Niedrigsteuerländer zu verlagern, um Steuerzahlungen zu minimieren. Während diese Praktiken legal sind, stehen sie im Widerspruch zu Apples öffentlicher Haltung zu sozialer Verantwortung und Fairness.

Diese Beispiele zeigen, dass Apple, wie viele große Unternehmen, in der Vergangenheit sowohl transparente als auch weniger transparente Praktiken angewendet hat. Es ist daher wichtig, Informationen von Apple kritisch zu hinterfragen und zusätzliche Quellen und unabhängige Berichte zu konsultieren, um ein vollständiges Bild zu erhalten.
»Wir werden alle sterben« – Albert Einstein
+3
hifidelfi
hifidelfi14.05.24 03:10
Zum Thema der gut möglichen Apple Pläne mit KI:

Es dreht sich im Schwerpunkt um die Weiterentwicklung von Siri zu einem umgangssprachlichen, d.h.vollkommen natürlichen, Sprachassisten – ggf. mit Avatar auf einem Bildschirm.

Erreicht werden kann das, indem eine servergestützte KI vor und hinter des internen intelligenten Systems mit internationaler Spracherkennung und Sprachgenerierung fungiert. Intern arbeitet dann eine KI die umgangssprachlichen Text zu einem Set von immer allen möglichen Befehlen im heutigen Siri Universum oder darüber hinaus zu einer internetbasierte KI vom Schlage ChatGPT weitergibt. Die Antworten des natürlichen Sprachassistenten stammen dann zunächst primär von den immer mehr möglichen Siri Anfragen und, wenn dort nicht verfügbar, von einer generellen, Internet-basierten KI. Verpasst man der Sprachausgabe dann einen beliebigen Avatar, hat man einen umgangssprachlichen Assistenten auf dem Bildschirm, der sehr natürlich wirkt.

Na vielleicht kommt´s ja im Juni zur WDC 2024, das Geburtsjahr des„Apple Knowlwedge Navigators“:

https://youtu.be/umJsITGzXd0?si=K2Pat1rNWoxbl-KJ
0
Gu Wen Lang14.05.24 11:01
Raziel1
Ach so ein Unsinn. Ich nutze Siri eigentlich täglich für alles mögliche und auch besonders für Hausautomatisierung, während der Autofahrt etc und das was sie tun soll tut sie einwandfrei. Klar ist die kein ChatGPT4 aber das sind Alexa, Google etc auch nicht. Alle 3 wurden wenn es um Fähigkeiten geht natürlich überholt aber das ist ja auch dem klar. Aber Siri ist weder dumm noch ein Ziegelstein. Sie tut das was sie tuen soll, nicht mehr nicht weniger.
Provokante Frage: Liegt das an der Qualität von Siri, oder an der Qualität Deines Geistes, der sich erfolgreich um die Beschränktheiten der Maschine herum organisiert hat?
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.