Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Warum Apple Intelligence mindestens ein iPhone 15 Pro erfordert

Als auf der WWDC 2024 die zukünftigen KI-Features vorgestellt wurden, gab Apple auch die Hardware-Anforderungen bekannt. Für das iPhone galten die härtesten Anforderungen: Aus der aktuellen, im September 2023 vorgestellten Produktreihe erhalten lediglich die Pro-Modelle Zugriff auf Apple Intelligence. In der Live-Aufzeichnung des Podcasts "The Talk Show" von John Gruber darauf angesprochen, erklärt John Giannandrea die Beschränkung: Die Inferenzberechnungen, die bei lokal installierten LLMs auf dem jeweiligen Gerät ausgeführt werden, seien unglaublich rechenaufwendig, führte der Leiter der KI- und Machine-Learning-Abteilung aus. Die Kombination von Größe der Apple Neural Engine und genereller Leistungsfähigkeit des Geräts sorgten dafür, dass die notwendigen Berechnungen schnell genug ablaufen, um nützlich zu sein. Theoretisch könne man die Apple-Intelligence-LLMs auf sehr alten Geräten ausführen. Jedoch wäre das so langsam, dass dies nicht sinnvoll sei.


Auf die Nachfrage, ob das nicht vielmehr eine künstliche Beschränkung sei, um neue iPhones zu verkaufen, warf Greg Joswiak ein: "Nein, überhaupt nicht. Sonst wären wir schlau genug gewesen, auch nur die neuesten iPads und Macs" auf Apple Intelligence zugreifen zu lassen. Der im iPhone 15 Pro verbaute A17-Pro-Chip sei nicht das erste iPhone-SoC mit einer Neural Engine, diese sei aber weitaus größer als in vorherigen Modellen. Offenbar wird das im Herbst erscheinende iOS-Upgrade mehr Leistung herausholen: Jüngste Benchmarks zeigten eine deutliche Leistungssteigerung in KI-Berechnungen unter iOS 18 im iPhone Pro Max.

KI soll nützlich sein, Siri besser werden
In der gut zweistündigen Podiumsdiskussion sprachen Craig Federighi, Greg Joswiak und im späteren Verlauf dazugestoßene John Giannandrea auch über Motivation und Hürden bei der Umsetzung. Sorgen bereiteten den Entwicklern vor allen Dingen potenzielle Falschinformationen ebenso wie gefährliche, illegale oder unangemessene Vorschläge. Federighi berichtete, dass die Firma mit Ethikern zusammengearbeitet habe, um herauszufinden, wo die moralischen Grenzen liegen. ChatGPT, betonte Federighi, sei standardmäßig deaktiviert und erfordere ein aktives Einschalten; iOS 18 schlüge lediglich vor, dies zu tun. Wem selbst das zu weit ginge, könne diese Vorschläge unterbinden. Siri werde ebenfalls von LLMs profitieren und dadurch zukünftig Fehler vermeiden – "die machen uns auch wahnsinnig", gab Giannandrea zu. Die Fortentwicklung der Sprachassistenzfunktion sei abgekoppelt von Apple Intelligence.

Spott über den KI-PC – und sich selbst
Bei der Talkrunde kam Humor nicht zu kurz – besonders Microsofts KI-PC wurde Ziel einiger Spitzen. Eine gewisse Selbstkritik ließen die Apple-Manager aufblitzen, etwa bei Nachfragen, warum der iPad-Taschenrechner und die freie Anordnung von App-Icons denn erst mit iPadOS beziehungsweise iOS Realität wurden. Die Sendung lässt sich im Nachhinein als Audio-Podcast herunterladen oder auf YouTube betrachten.

Kommentare

McCrutio21.06.24 08:41
Aber hab ich dass dann bei der WWDC falsch verstanden? Sollte nicht Cloud Compute auch ältere Geräte unterstützen, um auch von Apple Intelligence zu profitieren? Sie haben doch dafür eigne M-Server angelegt. Kann much da jemand aufklären?
+2
MLOS21.06.24 08:43
McCrutio
Aber hab ich dass dann bei der WWDC falsch verstanden? Sollte nicht Cloud Compute auch ältere Geräte unterstützen, um auch von Apple Intelligence zu profitieren? Sie haben doch dafür eigne M-Server angelegt. Kann much da jemand aufklären?

Apple verfolgt den Ansatz „On-device first“. Private Cloud Compute kommt nur zum Einsatz, wenn es lokal zu komplex wird. Private Cloud Compute only ist hingegen nicht vorgesehen.
+12
Semmelrocc
Semmelrocc21.06.24 08:50
Ich hab mich als iPhone 15-User auch zuerst geärgert, dass nur das Pro in den Genuss der KI-Funktionen kommen soll. Die CPU- und GPU-Leistung des Pro ist nur etwa 15-20% höher. Aber die Neural Engine des verbauten A17 Pro ist doppelt so leistungsfähig im Vergleich zum A16 Bionic des Standard-iPhone 15. Das war wohl der ausschlaggebende Knackpunkt bei der Entscheidung.
+14
rkb0rg
rkb0rg21.06.24 08:52
MLOS
Private Cloud Compute only ist hingegen nicht vorgesehen.

Interessant, danke für den Hinweis.

Also hat es laut Apple mit der Neural Engine zutun und nicht mit dem RAM.
+4
Robby55521.06.24 09:04
Alternativ dazu könnte Apple es optional für ältere Geräte auch komplett in die Cloud auslagern aber klar, so verkauft man mehr neue Hardware.
-10
Frost21.06.24 09:04
rkb0rg
Also hat es laut Apple mit der Neural Engine zutun und nicht mit dem RAM.

Ich bin davon ueberzeugt es hat mehr mit dem verfuegbaren Arbeitsspeicher zu tun als mit der Neural Engine. Der M1 SoC hat eine verglichen mit dem A16 Bionic SoC (17 TOPS) im iPhone 15 (ohne Pro) weniger leistungsfaehige Neural Engine verbaut (nur 11 TOPS) (villeicht sind beide auch gleich Leistungsfaehig da ich nirgends eine Bittiefe finden konnte auf die der jeweilige Wert bezogen wurde, das ist auch so eine Unsitte bei den GPU Werten nie direkt die Bittiefe auf die man sich bezieht mit dazu zu schreiben) und bei den M1 Geraeten sind die AI Funktionen vorgesehen, schlicht weil alle M1 Geraete mindestens ueber 8GB Arbeitsspeicher verfuegen, das iPhone 15 aber nur 6GB mitbringt.
Und man darf ja nicht vergessen, das LLM muss fuer das Inferencing zwingend immer parallel zu der jeweiligen Anwendung und zu iOS selbst im RAM gehalten werden.
Apple wirbt ja damit dass die AI in allen Anwendungen verfuegbar sein wird.
Es wird daher nicht nur der Arbeitsspeicher fuer das LLM benoetigt sondern der Arbeitsspeicher muss auch den Speicherbedarf fuer die laufende Anwendung und des laufenden Betriebssystem vom iPhones abdecken koennen.
+7
doescher
doescher21.06.24 09:32
Ich höre schon die iPhone 15 User stöhnen, dass ihr iPhone bei simplen Fragen an Siri anfängt zu glühen (»...bei lokal installierten LLMs auf dem jeweiligen Gerät ausgeführt werden, seien unglaublich rechenaufwendig, führte...) und der Akku nur noch einen halben Tag hält...
+1
Frost21.06.24 09:54
Robby555
und der Akku nur noch einen halben Tag hält...

Davon gehe ich nicht aus, denn genau dafuer wurde ja die NPU im iPhone entwickelt. Apple hat das ja auch immer hevorgehoben da sie ihren iPhone SoC sogar den Beinamen "Bionic" gegeben haben.
Das eigentliche Problem fuer Apple sehe ich wo ganz anderst, sie wurden schlicht auf dem falschen Fuss erwicht bzw. haben die Entwicklung im Bereich AI die vergangenen Jahre voellig falsch eingeschaetzt.

Die ganzen letzten Jahre hat Apple schon in ihren Mobilgeraeten (iPhone, iPad, MacBooks) KI Beschlaeuniger verbaut die wesentlich leistungsfaehiger waeren als z.B. die NPUs in Android Geraeten (sofern diese ueberhaupt eine hatten)
Nur hatte Apple eigentlich nie Anwendungen gehabt mit denen sie die Leistungsfaehigkeit der verbauten Inferencing Beschlaeuniger haetten hervorheben koennen.
Nun ist seit den vergangenen 2 Jahren diese "Killeranwendung" nach der jeder Fragt und die jeder haben will in Form von LLMs im Massenmarkt angekommen und ausgerechnet diese Anwedung benoetigt fuer das Inferencing "Unmengen" an RAM um ueberhaupt sinvoll auf dem Geraet lokal zu funktionieren.

Ich wuerde mal sagen eine klassiche Fehlplanung bei den Geraeten, bei Apple waeren die leistungsfaehigen NPUs auch bereits in den aelteren Geraeten vorhanden und das waere fuer Apple ein super Schazug gewesen, wenn sie haetten sagen koennen, sehr her darum haben wir bereits jahrelang die Neural Engine in unsere "Bionic" SoCs verbaut, jetzt ist auch die passende Anwendug reif.
Leider hat ihnen der Speicherbedarf an RAM da einen Strich durch die Rechnung gemacht, diese schnelle Entwicklung bei den LLMs in den vergangenen paar Jahren (das jetzt 2024 jeder dies haben moechte) hatten sie bei Apple schlicht nicht kommen gesehen.
+6
berlin7921.06.24 10:04
Frost
Ich bin davon ueberzeugt es hat mehr mit dem verfuegbaren Arbeitsspeicher zu tun als mit der Neural Engine.

Vermutlich liegt es an beiden Punkten.

Falls die nächsten kommenden iPhones (also nicht nur die "Pro" Modelle) auf einmal alle mindestens 8GB RAM verbaut haben, ist die Überlegung wohl korrekt.
'daß' gibt es seit 1996 nicht mehr. https://www.das-dass.de/
+5
Gedankenschweif21.06.24 10:17
rkb0rg
Also hat es laut Apple mit der Neural Engine zutun und nicht mit dem RAM.
Jein. Es hat wohl mit allem zu tun.
John Gruber hat die Apple-Junx in der Talk Show auch genau danach gefragt und Craig Federighi hat eingeräumt, dass der RAM seinen Anteil daran hat.
Schaut man sich die Liste der Apple Intelligence geeigneten Geräte an, fällt auf, dass die iPhone15 Pro ebenso 8 GB RAM haben wie die M*-SOCs. Alle anderen iPhones haben weniger RAM.
+6
Frost21.06.24 10:19
berlin79
Falls die nächsten kommenden iPhones (also nicht nur die "Pro" Modelle) auf einmal alle mindestens 8GB RAM verbaut haben, ist die Überlegung wohl korrekt.

Kann sein, muss aber nicht zwingend. Es gibt ja eine noch recht neue Entwicklung bei Inferencing in Form von 4-bit Quantization, das hatten vor einger Zeit auch nur die wenigstens auf dem Schirm. Apple koennte daher auch ihre kommenden Neural Engings mit einer Unterstuetzung fuer die 4-bit Bittiefe ausstatten (der M4 hat dies moeglicherweise bereits integriert).
Damit kann noch einmal einiges an Arbeitsspeicher gespart werden, man erkauft sich dies aber mit weniger Flexibilitaet bei den Modellen (es kann sein das man dann bei Bestimmten doch 8-bit benoetigt), wenn man sich aber nur auf 4-bit beschraenkt hilft dies in Sachen Speicher, nur halt nicht den bestehenden Geraeten da deren Neural Engine noch keinen 4-bit Support eingebaut hat.

Ich gehe aber auch davon aus im Herbst werden wir 8GB als Minimum sehen (selbst im SE sollte da etwas vorgestellt werden) um bei der On-Device-AI zukunftsfaehig zu bleiben, die Pro werden sicher mit 12 bzw. 16GB erscheinen.
+5
Gedankenschweif21.06.24 13:16
berlin79
Falls die nächsten kommenden iPhones (also nicht nur die "Pro" Modelle) auf einmal alle mindestens 8GB RAM verbaut haben, ist die Überlegung wohl korrekt.
Ähh, Nein!
Die aktuellen iPhones haben unterschiedliche SOCs und damit einhergehend unterschiedlich viel RAM.
iPhone15 und Plus haben den A16 Bionic mit 6 GB,
iPhone 15 Pro und Pro Max haben den A17 Pro mit 8 GB.
Der Grund dafür wird im übrigen in den Nachteilen, dem hohen Preis und der geringen Verfügbarkeit des N3E Prozesses bei TSMC gesehen.

Die Gerüchteküche sagt schon seit etlichen Wochen, dass die kommende iPhone-Generation, aufgrund der negativen Aspekte des N3E Prozesses, von dem Apple so schnell wie möglich weg will, wieder über einen einheitlichen SOC – wohl den A18 – mit einheitlichem Arbeitsspeicher haben wird.
Daraus wird man also gar nichts ableiten können.
+2
Joseph_9845822.06.24 11:05
Ich bin froh das ich mein 12 Pro noch nicht abgelöst habe, werde dann mit der 16. Generation erst wechseln, da ich ich die Unterstützung der KI im Alltag sehr schätze.
0
Hoeni25.06.24 04:11
Joseph_98458
Ich bin froh das ich mein 12 Pro noch nicht abgelöst habe, werde dann mit der 16. Generation erst wechseln, da ich ich die Unterstützung der KI im Alltag sehr schätze.

Und nicht zu vergessen, kommt Apple noch mit der Meldungs ums Eck, dass in der EU die KI-Funktionen wegen des DME erst einmal nicht eingeführt werden.
Wer weiß wie viele Geräte-Generationen sich dieser Politik-Streit noch hinziehen wird. Möglicherweise ist das iPhone 15 da schon lange Geschichte.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.