Bloomberg: Apple wird KI-Serverfarmen mit M2 Ultra betreiben
Es gibt dutzende Hinweise, dass sich die Worldwide Developers Conference im Juni 2024 maßgeblich um Künstliche Intelligenz dreht – sogar Apple-Manager wiesen durch Wortspiele darauf hin. Unter anderem soll Apple Siri verbessern, Programme aus der iWork-Suite um KI-Features erweitern und auch in Safari soll Künstliche Intelligenz Einzug halten. Doch derartige KI-Modelle benötigen viel Rechenleistung – und offenbar baut Apple hierfür eine eigene Infrastruktur auf.
Bereits in den letzten Wochen kamen diverse Berichte auf, dass Apple eigene Server-Farmen speziell für KI-Funktionen plant. Die Herstellung derartiger Server soll bereits bei Foxconn, Apples Haus-Fertiger, angelaufen sein.
Bloomberg: M2 Ultra als ChipNun
vermeldet auch Mark Gurman von Bloomberg, dass Apple tatsächlich eigene Server einsetzen will. Diese sollen den aktuell schnellsten Chip, nämlich den M2 Ultra, einsetzen – zukünftig sei jedoch eine Umstellung auf den M4 geplant. Doch vom M4 existiert momentan nur die kleinste Ausbaustufe – erst gegen Ende 2024 oder Anfang nächsten Jahres soll ein M4 Pro, M4 Max und M4 Ultra erscheinen. Ob Apple jedoch jemals öffentlich einen Einblick in die eigene KI-Serverinfrastruktur gibt und ob diese auch Drittanbietern zugänglich sein wird, bleibt fraglich.
Neural Engine wohl nicht im FokusDass Apple auf den M2 Ultra statt auf den M4 setzt, lässt den Rückschluss zu, dass der Konzern es eher auf CPU- und GPU-Leistung abgesehen hat als auf die Performance der Neural Engine. Laut Apple-eigenen Informationen ist die Neural Engine des M4 (38 Billionen Rechenoperationen pro Sekunde) schneller als die des M2 Ultra (31,6 Billionen Rechenoperationen pro Sekunde). Bei CPU- oder GPU-intensiven Rechenoperationen ist der M2 Ultra dem M4 jedoch deutlich überlegen.
Die Neural Engine ist eine auf KI-Berechnungen optimierte Komponente der A- und M-Chips – ist aber in den möglichen Berechnungsaufgaben beschränkt. Die Neural Engine zeichnet sich jedoch dadurch aus, dass KI-Modelle äußerst energieeffizient ausgeführt werden.
Manches auf dem Gerät, manches auf Apple-ServernAus Datenschutz-, aber auch aus Kostengründen, will Apple möglichst viele KI-Funktionen lokal auf den Geräten ausführen – für die meisten komplexe KI-Modelle sind jedoch viele Apple-Geräte nicht geeignet. Die Hauptgründe sind, dass die meisten iPhone- und iPad-Modelle mit sehr wenig Arbeitsspeicher ausgerüstet sind und die meiste Zeit den eingebauten Akku als Stromquelle nutzen. Können KI-Funktionen nicht durch die Neural Engine abgearbeitet werden, verbraucht die CPU und GPU sehr viel Strom – und schränkt die Batterielaufzeit der Geräte empfindlich ein.
Daher wird Apple zweigleisig fahren: Alle Aufgaben, welche lokal auf der Neural Engine abgearbeitet werden können, werden auch hier ausgeführt – doch komplexe KI-Modelle, wie zum Beispiel Large-Language-Models für Siri, werden mit großer Wahrscheinlichkeit stets in Apples Datencentern abgearbeitet.