Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Windows-PCs mit „Neural Engine“ vor dem Durchbruch, prophezeien Marktforscher

Maschinelles Lernen (ML) und künstliche Intelligenz (KI) beherrschen seit Monaten die Schlagzeilen, und das nicht nur in der Fachpresse und auf Tech-Webseiten. Auf der diesjährigen Consumer Electronics Show (CES) in Las Vegas nehmen die beiden Themen ebenfalls breiten Raum ein. Apple steht im Ruf, der Konkurrenz auf diesen Feldern hinterherzuhinken, im Falle großer Sprachmodelle und KI-Chatbots wie etwa ChatGPT stimmt das sogar. In einer Hinsicht ist Apple den Mitbewerbern allerdings schon seit einigen Jahren deutlich voraus: Sowohl die A-Chips für iPhone und iPad als auch die im Mac verbauten M-Prozessoren verfügen über eine Neural Engine, welche für ML-Aufgaben zuständig ist.


Neural Engine sorgt für beeindruckende KI-Performance
Die leistungsstarke Neural Processing Unit (NPU) in Apples Smartphones, Tablets, Desktops und Laptops sorgt für eine beeindruckende Performance unter anderem bei Spracherkennung, Videoanalyse und Bildverarbeitung. Die Verarbeitung erfolgt dabei stets lokal auf den Geräten und äußerst energieeffizient. All diesen Fähigkeiten haben Windows-Rechner bislang nichts oder bestenfalls nur sehr wenig entgegenzusetzen. Grund dafür ist die Tatsache, dass x64-CPUs bis in die Gegenwart nicht über ein Äquivalent zu Apples Neural Engine verfügen. Das wird sich, glaubt man Canalys, in diesem Jahr jedoch ändern.

NPUs in Prozessoren von Intel, AMD und Qualcomm
Die Marktforscher gehen in ihrem jüngsten Bericht zur Entwicklung des weltweiten PC-Markts davon aus, dass die Hersteller von Windows-Rechnern in den kommenden Monaten spezielle KI-Komponenten in ihre neuen Geräte integrieren werden. Mit Intels Core-Ultra-Prozessoren der Meteor-Lake-Generation stehen ihnen dafür die entsprechenden CPUs zur Verfügung, AMD bietet unter anderem mit der neuen Serie Ryzen 8000G ebenfalls entsprechende Komponenten an. Gleiches gilt für Qualcomm, dessen neue ARM-SoCs namens Snapdragon X auch mit einer NPU ausgestattet sind.


Neural Processing Units in 20 Prozent aller verkauften PCs
Canalys rechnet damit, dass schon 2024 rund ein Fünftel aller verkauften PCs über eine Neural Processing Unit verfügen dürfte. Der Anteil derartiger Geräte wird den Marktforschern zufolge in den kommenden Jahren rasch ansteigen, sodass 2027 voraussichtlich insgesamt mehr als 170 Millonen PCs in der Lage sind, KI-Aufgaben lokal abzuarbeiten. 60 Prozent davon sollen laut der Prognose im gewerblichen Bereich eingesetzt werden und für gesteigerte Produktivität, verbesserte Sicherheit und geringere Kosten sorgen.

Kommentare

Unwindprotect11.01.24 18:04
Im Großen und Ganzen schon korrekt, aber dass man dem unter Windows bzw. Der x64 Plattform nichts entgegenzusetzen hat ist nicht ganz richtig. Dort sind für KI/ML-Algorithmen eben bislang GPUs verwendet worden.
+8
Michael Lang aus Rieder11.01.24 18:20
Sehe ich auch so. Die GPUs von Nvidia haben sehr leistungsstarke Recheneinheiten. Die werden auch für KI/ML über CUDA benutzt.
Ich glaube nicht, dass Apples NeuralEngine höhere Rechenleistung bietet.

quelle Nvidia:
Mit RAPIDS und NVIDIA CUDA können Datenwissenschaftler die Pipelines für maschinelles Lernen auf NVIDIA-Grafikprozessoren beschleunigen und Vorgänge zum maschinellen Lernen wie Laden, Verarbeiten und Trainieren von Daten von Tagen auf wenige Minuten reduzieren.
-1
Gedankenschweif11.01.24 18:39
Nur, was soll das bringen?
Für Softwareentwickler bringt das erst was, wenn sie mit einer hohen Wahrscheinlichkeit davon ausgehen können, dass ein Rechner einen solchen KI-Prozessor hat. Denn sollte dieser nicht vorhanden sein, wird eine Berechnung – wie heute – auf einen Server ausgelagert werden müssen. So lange die Entwickler diese Serverinfrastruktur für die externe Berechnung aufrecht erhalten müssen, ist der Nutzen der Programmierung für eine lokale Berechnung wirtschaftlich nicht gegeben.
Wahrscheinlich werden die KI-Prozessoren daher in den Windows-PCs über viele Jahre nutzlos nichts tun.

Hier spielt Apple ein ganz anderes Spiel. In Apples Ökosystem haben de facto alle Devices eine neural engine und Apple als ebenfalls Entwickler der OSes kann die onDevice Berechnungen einfach machen/vorgeben.
-1
torfdin11.01.24 20:43
ich denke, da gehören mehrere Dinge dazu.
Wenn die Hardware Unterstützung für eine Neuronal Engine beinhaltet, dann muss einerseits ein Betriebssystem das auch nutzen können und, genauso wichtig: die Programme müssen auch darauf ausgelegt sein.

Bestes Beispiel ist A. Photoshop mit Multiprozessor-Unterstützung: die hat Adobe immer wieder nur sehr rudimentär bei macOS genutzt (anders als bei bestimmten Versionen von Windows), Folge: Adobe verwendet bei einer Reihe von Versionen von Photoshop nur unzureichend die Leistungsfähigkeit von bei Apple verbauten Mehrkernprozessoren - verschenkt Leistung.

Genauso müssen Betriebssystem und Programme auch eine möglicherweise vorhandene Neuronale Engine benutzen. Beim Betriebssystem kann durch entsprechende Treiber die Nutzung einer Neuronalen Engine (NU) bei einer Windows-Installation zur Verfügung gestellt werden - diese muss dann aber auch von Programmen genutzt werden!

Und hier ist macOS (und diverse iOS-Varianten) deutlich im Vorteil: MacOS und iOS hat in Richtung NU bereits seit mehreren Prozessor- und Betriebssystem-Generationen Erfahrung damit - und die Entwickler konnten die zu Verfügung gestellten Möglichkeiten nutzen.
Microsoft traue ich durchaus zu, die Treiber zeitnah (6 -12 Monate) zur Verfügung zu stellen, nur: wie lange dauert das, bis Programme das effizient nutzen?

ingesamt 12 Monate (aka "dieses Jahr") halte ich für etwas ambitioniert
immer locker bleiben - sag' ich, immer locker bleiben [Fanta 4]
+4
Frost12.01.24 01:08
Michael Lang aus Rieder
Recheneinheiten. Die werden auch für KI/ML über CUDA benutzt.

Richtig, daher sind die in den Intel CPUs integrierten AI Einheiten der neuen Prozessoren auch primaer nur dort interessant, wo hauptsaechlich onboard Grafik zum Einsatz kommt, also einfachen Buerorechnern und Notebooks ohne eigene GPU.
Bei den Geraeten die ueber leistungsfaehige GPUs verfuegen sind die GPUs den AI Beschleunigern eindeutig vorzuziehen.
-2
Bodo_von_Greif12.01.24 08:39
Alex Ziskind erklärt und führt vor auf Youtube:



Gruss,

Bodo
[x] nail here for new monitor
+1
Unwindprotect12.01.24 12:49
Frost
Michael Lang aus Rieder
Recheneinheiten. Die werden auch für KI/ML über CUDA benutzt.

Richtig, daher sind die in den Intel CPUs integrierten AI Einheiten der neuen Prozessoren auch primaer nur dort interessant, wo hauptsaechlich onboard Grafik zum Einsatz kommt, also einfachen Buerorechnern und Notebooks ohne eigene GPU.

Nein das kann man so nicht sagen!
Frost
Bei den Geraeten die ueber leistungsfaehige GPUs verfuegen sind die GPUs den AI Beschleunigern eindeutig vorzuziehen.

Wie kommst Du darauf? Ok der Weichmacher in Deiner Aussage ist „leistungsfähige GPU“ - da möchte ich aber gerne mal die Notebook GPU sehen, die es mit AI-Beschleunigern aufnehmen kann. Am Ende hängt es natürlich davon ab ob die Programme darauf optimiert wurden, aber die AI-Beschleuniger sind gezielt darauf optimiert die gängigen ML und AI Algorithmen effizient zu unterstützen. Bei GPUs war das eher ein Nebeneffekt.

Ich behaupte, dass GPUs über mittelfristig eher auf dem Absteigenden Ast sind und man in den nächsten Jahren immer mehr dedizierte AI/ML Kerne/Beschleuniger sieht… Integriert mit den CPUs damit sie auch von großen RAM Mengen profitieren können und nicht auf Grafikkarten-RAM beschränkt sind.
+1
Brandy12.01.24 13:25
Bin gespannt, wie Intel Platz auf dem Die dafür schafft. Momentan setzen sie sogar mehr auf die platzsparenden E-Cores, um überhaupt mit mehr Kernen punkten zu können. Also, mal sehen, was dafür runterfliegen muß.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.