Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Deal zwischen Apple und OpenAI steht angeblich – iOS 18 dennoch ohne große neue Siri-Funktionen

Apple-intern soll es sehr unterschiedliche Ansichten geben, welche Strategie bei generativen KIs zu verfolgen ist. Dies betrifft in erster Linie LLMs, also Chatbots wie beispielsweise ChatGPT. Diese bringen es auf beeindruckende Sprachfertigkeiten, die jedoch leicht darüber hinwegtäuschen, dass die Systeme keinerlei Verständnis mitbringen. Ein LLM ist zwar redegewandt, jedoch nur sehr bedingt als Recherchewerkzeug für präzise Fakten zu verwenden. Apples KI-Chef John Giannandrea steht Chatbots ablehnend gegenüber, wie es in mehreren Berichten hieß. Angeblich haben sich die Befürworter aber angeblich durchgesetzt, weswegen es laut Bloomberg jetzt zu einem Deal zwischen Apple und OpenAI kam. Es dürfte dabei um Technologien gehen, die ChatGPT zugrunde liegen.


Erst 2025 "Siri 2.0", nicht zum Start von iOS 18
Es heißt aber gleichzeitig, dass eine maßgebliche neue Generation von Siri weiter auf sich warten lässt. Mit iOS 18 im Herbst werde es keinesfalls schon so weit sein, erst 2025 sei mit einem größeren Wurf zu rechnen. Die Meldung steht in Einklang mit Berichten der vergangenen Wochen. Immer wieder hieß es nämlich, Apple könne zwar bald viele KI-Erweiterungen im System anbieten, benötige für weitreichendere Schritte jedoch mehr Zeit. Der aus Datenschutzgründen sehr zu befürwortende Ansatz, so viel wie möglich lokal ablaufen zu lassen, macht das Unterfangen zudem komplexer.

So viel wie möglich lokal – wenn die Leistung reicht
Bezüglich Siri mögen zwar zum Release von iOS 18 einige Funktionen nicht bereitstehen, doch Apple wolle auf der WWDC bereits Features zeigen, die im Laufe des nächsten Jahres erscheinen. Einiges sei jedoch schlicht nicht ohne Serveranbindung umzusetzen, denn die erforderlichen Modelle sind einerseits riesig, benötigen gleichzeitig aber auch enorme Rechenleistung. Erst kürzlich hieß es daher, Apple wolle auf den jeweiligen iPhones Analysen durchführen, ob die Performance für lokale Berechnungen ausreiche oder ob hierzu auf externe Server zu setzen sei.

Ziel: Alle Apps per Sprache bedienen
Als langfristiges Ziel für Siri arbeite Apple daran, App-Funktionen direkt über den Sprachassistenten zu steuern. Aktuell ist das nur in sehr begrenztem Umfang möglich, doch die kommende Siri-Generation soll laut interner Roadmap auch Ketten-Aufgaben wie "fasse den Inhalt dieses Textes zusammen, dann lege eine Notiz dazu an und schicke den Inhalt an folgende E-Mail-Adressen:" ausführen. Das System analysiere hierfür, wie Nutzer mit Apps interagieren und stelle Sprachfunktionen bereit.

Kommentare

holk10031.05.24 10:17
Ich hoffe nicht, dass es lange dauert. Siri wird nicht besser, sondern besser schlechter. „Zeige die Routenführung zu …)“ „Ich finde in Deinen Kontakten niemanden mit dem Namen Routenführung“
+12
Windwusel
Windwusel31.05.24 10:23
Na klasse, was sage ich nun meiner Frau? Nach all den Artikeln, dass Siri bald endlich deutlich besser werden wird hatte sie sich enorm gefreut und nun wieder ein Rückzieher.

Sie wird außer sich sein, gefolgt von einer anschließenden Nacht auf der Couch (für mich). Das nachdem ihr so eine Welle um KI gemacht habt. Danke Apple!

*Dieser Beitrag enthält teilweise Ironie.
Meine Apple Geräte: MacBook Pro mit Touch Bar (15-inch, 2018), iPhone 14 Pro Max, AirPods Pro (2. Gen), Apple TV 4K (2022) und HomePod mini (1. Gen)
+2
MacAlister31.05.24 10:32
Ich denke, ChatGPT im Apple Zaun zu halten, ist der größte Aufwand an dem Ganzen. Aber die wollen mir doch nicht erzählen, dass sie Siri nicht schon längst auseinandergenommen haben. Oder wollten sie allen ernstes den Müll erneut in iOS 18 wieder verkaufen?
+3
Electric Dave31.05.24 10:34
Siri 2.0? Muss Version 1.0 nicht erstmal das Beta-Stadium verlassen?
+14
Macmissionar31.05.24 10:36
Ich sage immer, Siri ist wie ein Goldfisch. Hat zwar manchmal erkennbare Logik, aber das Problem ist, sie hat nur ein Gedächtnis von maximal 4 Sekunden, eben wie ein Goldfisch. Danach weiß sie nicht mehr, worüber man gesprochen hat.
A Mac is like a Wigwam: No Windows, no Gates, no Backdoors, Peace, Harmony – and an Apache inside.
+10
mkummer
mkummer31.05.24 10:42
Das wichtigste Wort in der Überschrift ist "angeblich". Schönes Wochenende!
Wir sind die Guten! (Mac-TV)
0
evanbetter
evanbetter31.05.24 11:12
Windwusel
Na klasse, was sage ich nun meiner Frau? Nach all den Artikeln, dass Siri bald endlich deutlich besser werden wird hatte sie sich enorm gefreut und nun wieder ein Rückzieher.

Sie wird außer sich sein, gefolgt von einer anschließenden Nacht auf der Couch (für mich). Das nachdem ihr so eine Welle um KI gemacht habt. Danke Apple!

*Dieser Beitrag enthält teilweise Ironie.
Ich bin strikte gegen eine Kennzeichnung von Ironie – das nimmt den Lesern die Eigenverantwortung, etwas als Ironie zu erkennen, resp. lässt die einfacheren Gemüter vermuten, dass alles, was nicht gekennzeichnet* ist, auch nicht ironisch ist.

*Geht einher mit der US-Klage wegen an heissem Kaffe verbrühter Lippen oder Tod einer Katze im Microwave.

PS: Dein Beitrag war ein Volltreffer!
Wer zuletzt lacht, hat's zuletzt geschnallt.
+2
Garak
Garak31.05.24 11:46
Ich ahne, wie es weitergehen wird.

MacTechNews Artikel Mai 2034:
"Erst 2035 Siri 2.0, nicht zum Start von iOS 28 - Es heißt, dass eine maßgebliche neue Generation von Siri weiter auf sich warten lässt. Mit iOS 28 im Herbst werde es keinesfalls schon so weit sein, erst 2035 sei mit einem größeren Wurf zu rechnen. Apple könne zwar bald viele KI-Erweiterungen im System anbieten, benötige für weitreichendere Schritte jedoch mehr Zeit".

😜
+4
macuser22
macuser2231.05.24 13:56
Garak
Ich ahne, wie es weitergehen wird.

MacTechNews Artikel Mai 2034:
"Erst 2035 Siri 2.0, nicht zum Start von iOS 28 - Es heißt, dass eine maßgebliche neue Generation von Siri weiter auf sich warten lässt. Mit iOS 28 im Herbst werde es keinesfalls schon so weit sein, erst 2035 sei mit einem größeren Wurf zu rechnen. Apple könne zwar bald viele KI-Erweiterungen im System anbieten, benötige für weitreichendere Schritte jedoch mehr Zeit".
😜

Ach, bis dahin hat irgendeine KI bereits die Weltherrschaft an sich gerissen – kein Bedarf mehr für Mensch oder Smartphone
Erkenne dich selbst –//– Nichts im Übermaß
0
Kodo167031.05.24 17:48
Mit iOS 18 im Herbst werde es keinesfalls schon so weit sein, erst 2025 sei mit einem größeren Wurf zu rechnen.

Wie schön, noch ein Jahr mehr, das das XS völlig reicht, und das noch gar nicht erschienene iP16 ist dann schon wieder das Vorjahresmodell, gebraucht in ordentlichem Zustand 600 statt 1300 😋
0
Raziel103.06.24 09:10
Finde ich ja irgendwie amüsant das bestehende Funktionen plötzlich unbrauchbar werden sobald es am markt was besseres gibt ^^ Ich verwende Siri relativ intensiv im Auto, aber auch am Schreibtisch und sie macht immer das was ich will. Das sie kein LLM wie GPT ist sollte klar sein, aber sie hat immer ihren Zweck erfüllt. Bei manchen Kommentaren hier hat man ja das Gefühl das selbst das öffnen einer App oder die Frage nach der Uhrzeit niemals klappt.
0
Unwindprotect03.06.24 10:01
Macmissionar
Ich sage immer, Siri ist wie ein Goldfisch. Hat zwar manchmal erkennbare Logik, aber das Problem ist, sie hat nur ein Gedächtnis von maximal 4 Sekunden, eben wie ein Goldfisch. Danach weiß sie nicht mehr, worüber man gesprochen hat.

Genau DAS ist tatsächlich das größte Problem mit Siri... nicht die Technologie sondern jene Nutzer die eben glauben Siri würde "denken". Siri ist lediglich eine Sprachsteuerung mit einem in Bezug auf Grammatik und Synonymen breiteren Erkennungsspektrum der Aktionsmuster. Selbst ein Vergleich mit einem "Goldfisch" ist da kompletter Humbug. Das Problem mit Siri - wenn es denn eines gibt - ist einfach, dass es eine feste Menge von Aktionspatterns gibt die man damit tun kann und dass sprachliche Eingaben darauf abgebildet werden. Die Sprachsynthese erlaubt da bereits Freiheitsgrade was die Formulierungen angeht, aber man kann immer etwas finden was dann doch nicht korrekt auf ein Aktionspattern passt... und der Effekt ist dann, dass Siri entweder aussteigt oder etwas anderes macht als man wollte.

Das sind genau jene Nutzer die genauso denken das ChatGPT nun "denkt" weil es so nett zurückschwätzt... Dabei denkt ChatGPT auch überhaupt nicht sondern generiert nur statistisch passend korrekten klingenden Text auf einen gegebenen Prä-Text. Da ist kein "denken" und kein Gedächtnis.

Das Schlüsselwort hier ist "Mentales Modell". Wenn man ein korrektes mentales Modell einer Technologie hat, dann ist auch die Benutzung weniger von Anwendungsfehlern betroffen.

In Bezug auf Siri könnte man aber deren Funktion mittels LLMs heute verbessern. Mit dem sogenannten "Function Calling" kann man ein mit einem Sprachmodell ausgestatteten System ermöglichen definierte Funktionen aufzurufen wenn sie die entsprechende Syntax als Text ausgeben. Zusätzlich beschreibt man die Funktion so dass die _Verwendung_ der Funktion (also der Aufruf) statistisch passend für eine Konversation wäre. Stark vereinfacht ungefähr so:
-------------------------
Kontext:
Mit folgender Funktion kannst Du das Licht im Wohnzimmer ein und ausschalten
fn wohnzimmerLichtAnAus(anAus: boolean)

Mit folgender Funktion kannst Du einen Termin im Kalender angeben damit ich mich daran erinnern kann.
fn neuerKalendereintrag(Titel: string, datum: Date)

Mit folgender Funktion kannst Du das heutige Datum ermitteln
fn heute() : Date

Anfrage:
Bitte mache das Licht im Wohnzimmer aus und erstelle einen Termin "Auto abholen" für heute Mittag.

Antwort
Alles klar wird erledigt!
heute(): 03.06.2024
wohnzimmerLichtAnAus(anAus: boolean)
neuerKalendereintrag("Auto abholen", "03.06.2024:12:00")
-----------------------------

Die generierten Function calls würden typischerweise nicht an den Benutzer ausgegeben werden sondern nur im Hintergrund genutzt werden. Man sieht in dem Beispiel, dass diese Verwendung eines LLM immer noch sehr dem Siri-Funktionsprinzip gleicht. Die Function Calls bilden die möglichen Aktionspatterns nach und sie können auch verwendet werden um Informationen wie das aktuelle Datum abzurufen. Im Gegensatz zu Siri erlaubt ein solches System diese Patterns eben in einer natürlichen Konversation einzubetten. Dennoch ist auch dieses System nicht "denkend"!
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.