Prognose: Apples KI in iOS 18 arbeitet autonom, um Privatsphäre zu wahren und Zeit zu sparen
Vieles wurde in den letzten Monaten bereits angekündigt, prognostiziert, geraten und befürchtet, was Apples Engagement im Bereich der Künstlichen Intelligenz angeht. Mark Gurman, generell gut informierter Apple-Reporter bei Bloomberg News, widmete dem Thema in seinem wöchentlichen
Power-On-Newsletter einen umfangreichen Abschnitt. Seine Einschätzung ist, dass Apple ein eigenes Großes Sprachmodell (LLM) entwickele, um dies direkt in iOS 18 zu integrieren. Es werde KI-Berechnungen direkt auf dem iPhone vornehmen. Dieser Ansatz ermögliche das Maximum an Privatsphäre, denn so bleiben sowohl Analysedaten als auch KI-Berechnungen direkt auf dem Gerät.
Die lokale Analyse beduete zudem, dass Resultate auch weitaus schneller vorliegen, führt Gurman aus. Allerdings böte dieser Ansatz auch Nachteile: Eine KI auf dem Gerät wäre in der Qualität der Antworten nicht auf Augenhöhe mit servergetriebenen Ansätzen wie ChatGPT oder Gemini. Für Spezialfälle könnte Apple aber dafür die Zusammenarbeit von OpenAI oder Google suchen. In den letzten Wochen machten bereits Gerüchte über eine gezielte
Integration externer KIs die Runde, etwa in Form eines Sonderbereichs im App Store.
KI ohne Chat-InterfaceEine weitere Voraussage Gurmans betrifft die Form, wie iPhone-Nutzer mit der geräteinternen KI interagieren können. Apple verzichte wahrscheinlich über eine direkte Interaktion per Chat, wie sie etwa Microsoft in Form des Copilot-Assistenten anbietet. Stattdessen wolle Apple betonen, auf welche Weise künstliche Intelligenz im Alltag helfen könne – ohne die direkte Interaktion mit einer Quasi-Persönlichkeit. Das entspricht weitestgehend der aktuellen Integration von KI-Funktionen in Apples Betriebssystemen. Aktuell analysieren verschiedene Hintergrundprozesse aufgenommene Fotos und handschriftliche Notizen. Die erkannten Motive beziehungsweise Texte stehen dann über die Suchfunktion etwa der Fotomediathek zur Verfügung.
LLM-Analysen sind rechenintensiv, die Modellerzeugung noch viel mehrZwar ist der Rechenaufwand für den Analyseprozess recht gering im Vergleich zum gigantischen Bedarf, den das Training eines LLM erfordert. Für ein akkubetriebenes Endgerät bleibt er dennoch eine Herausforderung. Soll ein Großes Sprachmodell auf einem Smartphone Medien analysieren, müssen Entwickler die Faktoren Geschwindigkeit, Energieverbrauch und Korrektheit des Resultats gegeneinander abwägen. Außerdem fordert ein LLM einigen Speicherplatz – und auch der ist traditionell knapp bemessen.