Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Craig Federighi erklärt die stufenweise Einführung von Apple Intelligence

Es ist Ende Oktober, das iPhone 16 ist im Handel, Anwender können iOS 18 seit einem Monat installieren – lediglich Apple Intelligence lässt auf sich warten. In einem Interview mit Craig Federighi fragte Joanna Stern vom Wall Street Journal nach dem Grund für Verzögerungen. Der Senior Vice President of Software Engineering gab zudem Einblicke in die Strategie, nach der Apple Intelligence gestaltet werde.


Federighi betonte, dass Apple sich von der Konkurrenz absetzen wolle, indem die Antworten auf persönliche Informationen der Anwender zugeschnitten sein sollen. ChatGPT sei sehr gut geeignet, um Fragen zu Quantenmechanik zu beantworten und dann ein Gedicht darüber zu schreiben. Apple nutze hauptsächlich lokale LLMs, welche Zugriff auf private Daten auf dem iPhone haben. Damit gehe eine große Verantwortung einher; Apple lege viel Wert auf Datenschutz und informationelle Selbstbestimmung.

Siri kann bereits viel – und soll besser werden
Joanna Stern konfrontierte Federighi mit ChatGPTs Advanced Voice Assistant, die umfangreiche Erläuterungen zu seiner Frisur liefert, während Siri nur eine magere Liste von Suchergebnissen aus dem Netz ausspuckt. Federighi verteidigte Apples nunmehr dreizehn Jahre alte Sprachassistenz: Siri sei bereits sehr nützlich, etwa um Timer zu stellen oder Garagen zu öffnen. Über das nächste Jahr wird Apple deren Fähigkeiten in mehreren Stufen erweitern. Konkret auf die Konkurrenz angesprochen, verdeutlichte Federighi: Überschneidungen zum Angebot von OpenAI sind ein erklärtes Ziel.

Gemischter Erfolg mit Zusammenfassungen
Die öffentliche Beta-Version von iOS 18.1 fasst in den USA bereits mehrere Nachrichten zusammen – mit wechselndem Erfolg. Jüngst wurde ein Fall publik, in der eine iOS 18.1-Beta das in zwei Nachrichten überbrachte Beziehungsende zusammenfasste. Darauf angesprochen, verwies Apples Software-Chef auf die Herausforderungen, welche sich beim Gestalten einer KI-Assistenz offenbaren. In bestimmten Fällen soll Apple Intelligence eigenständig entscheiden, Nachrichten nicht zu exzerpieren – etwa wenn es um lange Nachrichten oder komplexe Inhalte geht. Bei dem konkreten Beispiel sei das Resultat eine beinahe klinisch anmutende Zusammenfassung gewesen – kein fürchterliches Ergebnis, wie er findet. Vor allen Dingen möchte niemand per Textnachricht einen Laufpass bekommen, fügt er hinzu.

Die Beta von iOS 18.1 fasst ein via Textnachricht angekündigtes Beziehungsende zusammen. (Screenshot aus YouTube-Video)

Bei Fotos: Aufräumen, aber nichts dazu erfinden
Trotz großer Nachfrage und entsprechenden Angeboten der Konkurrenz hat sich Apple dazu entschieden, lediglich minimale Werkzeuge zur KI-gestützten Retusche anzubieten. Anwender werden Elemente wie ins Bild hängende Mikrofone oder Wasserflaschen neben einem Stuhl entfernen können. Das Hinzuzeichnen von Löwen oder Explosionen, wie es beispielsweise Google Reimagine bietet, wird mit iOS-Bordmitteln nicht möglich sein. Es sei Apple wichtig, die Authentizität fotografischer Abbildungen zu erhalten. Bei KI-gestützter Nachbesserung stelle der Konzern deshalb sicher, dass jede Veränderung in den Metadaten erkennbar sei.

"Große Aufgabe"
Joanna Stern fragte zudem nach dem Zeitplan für Apple Intelligence, insbesondere dem Grund für die Verzögerungen bei Einführung von Apple Intelligence. Federighi erklärte, die Entwicklung der hauseigenen KI sei eine große Aufgabe, und es koste Zeit, es richtigzumachen. „Apples Sichtweise ist: Lass uns versuchen, jede Komponente fertigzustellen – und zu veröffentlichen, wenn sie fertig ist.“ Apple Intelligence sei kein einmaliger Aufwand, sondern ein mehrjähriger, vielleicht sogar Dekaden überspannender Prozess, und Apple wolle ihn verantwortungsvoll umsetzen. Das Wall Street Journal behält das vollständige 25-minütige Interview zahlenden Abonnenten vor; auf YouTube veröffentlicht die amerikanische Tageszeitung eine elfminütige Zusammenfassung.

Kommentare

alephnull
alephnull24.10.24 09:09
„No longer in a relationship; wants
belongings from the apartment.“

Haben denn die beiden einzelnen Nachrichten noch irgendetwas anderes enthalten? Um bloß die zwei Teilsätze zusammenzufügen, braucht’s eigentlich keine KI. Oder habe ich da grundsätzlich etwas missverstanden?
-5
marcel15124.10.24 09:22
MTN
Siri kann bereits viel.
Stark übertrieben. Zumindest im Deutschen kann Siri echt nicht viel.
+10
innug24.10.24 09:26
alephnull

Um bloß die zwei Teilsätze zusammenzufügen, braucht’s eigentlich keine KI. Oder habe ich da grundsätzlich etwas missverstanden?

Zusammenfassung (also auf das Wesentliche reduziert), nicht Zusammenfügung!
+4
Unwindprotect24.10.24 09:42
marcel151
MTN
Siri kann bereits viel.
Stark übertrieben. Zumindest im Deutschen kann Siri echt nicht viel.

Da "viel" oder "wenig" für jeden sehr unterschiedlich ist, kann man das grundsätzlich _immer_ argumentieren .

Ich nutze es meistens um Timer zu stellen (oder zu fragen wie lang er noch läuft), Erinnerungen anzulegen, Dinge auf die Einkaufsliste zu setzen, Musikwiedergabe am HomePod zu steuern, Alle Lichter im Haus zu steuern, die Rollos zu Steuern, Szenen zu triggern. Neben diesen Sprachbefehlen nutze ich "Siri" auch am iPhone und Apple Watch um mittels Siri Widgets die kontextbezogene Vorschläge was ich als nächstes machen möchte zu erhalten. Weiterhin um z.B. in Mails Datums angaben aufzugreifen um Termine zu erzeugen. Weiterhin zur Suche nach Dingen in meiner Fotos Mediathek. Würde man von jetzt auf gleich alle diese Features streichen, würde ich sagen, dass man mir "viel" genommen hat... aber so ist das eben mit "viel" oder "wenig"
+13
Fontelster24.10.24 10:43
„Apples Sichtweise ist: Lass uns versuchen, jede Komponente fertigzustellen – und zu veröffentlichen, wenn sie fertig ist.“

Ob das vielleicht auch eine gute Strategie für macOS wäre?
+8
Paperflow
Paperflow24.10.24 10:54
Das iPhone reagiert mittlerweile auch super auf „Siri“…in Kombination mit einem Kurzbefehl wird es noch besser…z. B. „Siri schlafen“…Hörbuch wird abgespielt und schaltet automatisch nach 20 Minuten ab.

Früher habe ich dafür eine eigene App benötigt…jetzt reichen zwei einfache Worte.

2) Dass gesprochene Sprache in Text umgewandelt und von einem Silizium Chip „verstanden“ wird…nun in Star Trek TOS war das noch Science-Fiction in einem riesigen Raumschiff. Heute läuft es auf einem kleinen Gerät in der Hand.

Manche Menschen nehmen vieles, woran sie sich gewöhnt haben, als selbstverständlich an…mich fasziniert z.B. immer noch, dass aus einer elektromagnetischen Welle, ein MaterieTeilchen entstehen kann…und wir laufen täglich an diesen faszinierenden Umwandlungsmaschinen vorbei und Hunde pinkeln drauf.
+4
der Wolfi
der Wolfi24.10.24 11:03
marcel151
MTN
Siri kann bereits viel.
Stark übertrieben. Zumindest im Deutschen kann Siri echt nicht viel.
Mir reicht, Stand heute, was Siri kann. Mehr ist immer gut. Wichtiger finde ich das Siri zuverlässig tut was es kann. Die ständigen Fehlinterpretationen und falschen Aktionen auf einfachste Ansagen. Das nervt!
Normal is für die Andern
+5
macuser22
macuser2224.10.24 11:17
MTN
Es sei Apple wichtig, die Authentizität fotografischer Abbildungen zu erhalten. Bei KI-gestützter Nachbesserung stelle der Konzern deshalb sicher, dass jede Veränderung in den Metadaten erkennbar sei.
Das finde ich sehr gut und ist einer der Gründe, warum ich Apple-Nutzer bin.
Erkenne dich selbst –//– Nichts im Übermaß
+2
Raziel124.10.24 22:50
der Wolfi

Eigentlich eines der besonderen Stärken von Siri. Solche Probleme hatte ich seit V1 nicht mit ihr.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.