Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Macs mit ARM statt Intel: Die Chancen

ARM als effiziente Plattform
Für mobile Geräte glänzt die ARM-Plattform mit dem Vorteil effizienterer Chips - ein wesentliches Kriterium, wenn Energie nicht endlos zur Verfügung steht. Intel hatte diese Sparte komplett verschlafen und verpasste daher, auf den Smartphone-Boom aufzuspringen. Als Apple vor 13 Jahren den Intel-Umstieg ankündigte, lautete das Hauptargument "Performance per Watt". Intel-Prozessoren waren nicht nur deutlich schneller als alles, was zu dieser Zeit mit PowerPC-Architektur zu haben war, sie erledigten die Aufgaben auch effizienter. ARM im Mac, vor allem in Notebooks, würde erneut eine Architektur-Entscheidung zugunsten von Energieeffizienz darstellen. Performance stünde diesmal wohl nicht im Vordergrund, diese ist mit ARM-Prozessoren ausreichend vorhanden. 2005 hieß es, man könne einfach kein PowerBook mit G5-Prozessor bauen, da die Abwärme nicht in den Griff zu bekommen war. Intel hatte hier die wesentlich überzeugenderen Angebote. Inzwischen kehrte sich die Situation aber um - nicht mehr Intel führt in der Disziplin "Performance per Watt".


Gleiche CPUs, gleiche Grafikchips für alle Apple-Geräte
Ein Apple-Prozessor in einem Desktop-Mac wird mehr Leistung (und Abwärme) liefern als im wesentlich kompakteren und schwieriger zu kühlenden iPhone. Es steht daher nicht zu befürchten, dass der iMac Pro mit ARM-Chip nur noch ein sehr großes iPhone ist. Alle Geräte auf eine Hardware-Architektur zu stellen und die Plattformen gemeinsam zu entwickeln, bedeutet nicht, nur noch ein Apple-Gerät in verschiedenen Bauformen zu sehen. Für Apple bietet sich aber der große Vorteil, nicht mehr zwei komplett unterschiedliche Architekturen pflegen zu müssen. Jetzt bereits fließen Milliarden in die iPhone- und iPad-Chips. Dies noch um eine Performance-Serie für den Mac zu erweitern, würde die Ausgaben sicherlich nicht unkontrolliert in die Höhe schnellen lassen. Apple könnte auf vieles setzen, das bereits erforscht und erprobt ist - und da weniger Altlasten mitzuschleppen sind, auch schneller an neuen Generationen arbeiten.

Der Mac und die Marge
Intel-Prozessoren sind sehr teuer. Auch wenn Apple als Großabnehmer nicht die Preise wie auf dem freien Markt bezahlt, so geht dennoch ein beachtlicher Teil des Fertigungspreises direkt an Intel. Dies erspart Apple aber nicht die Entwicklung des gesamten Systems - siehe beispielsweise das Board-Design des iMac Pro, bei dem Apple weite Teile selbst in die Hand nahm. Wie im Absatz zuvor erwähnt, fließen jetzt schon Forschungsmilliarden in Apple-eigene Prozessoren. Geht man angesichts der momentanen Leistungsdaten davon aus, dass jetzt bereits die Performance schwächerer Macs zu erreichen ist, so bleibt viel Luft nach oben. Apple müsste nicht noch einmal von vorne beginnen, um auch dem Mac Apple-Prozessoren zu spendieren. Wie erwähnt ist ein beachtlicher Teil der Entwicklungsarbeit bereits gemacht. Die Fertigungskosten von Prozessoren liegen weit unter den Einkaufspreisen. Diese werden beim A11 Bionic des iPhone X beispielsweise auf gerade einmal 32 Dollar pro Stück geschätzt. Apple hätte damit die Möglichkeit, einen wesentlichen Kostentreiber beim Mac zu eliminieren - denn auch für Apple kostet ein Intel-Prozessor mehrere hundert Dollar.

Ausblick: Der Mac 2.0
Der Bloomberg-Artikel vom Wochenende erwähnte, dass Apple nicht einfach nur den Prozessor wechselt. Stattdessen handle es sich um einen Teilaspekt im Rahmen eines weitreichenden Masterplans. Im dritten Teil unserer Serie () werden wir darüber diskutieren, wie ein solcher "Mac 2.0", also ein grundlegend neues Computerkonzept, in der Praxis aussehen könnte.

Kommentare

haschuk03.04.18 13:03
Viele alte Hasen zeigten sich beim Intel-Switch schockiert, weil sie befürchteten, die Mac-Hardware könnte inflationär werden, neue Hardwarereleases alle 3 Monate, damit einhergehend ein Wertverlust der Plattform. Ich kann mich sehr gut an die Diskussionen in allen Apple-Foren erinnern.

Von diesem Bild ist nichts mehr übrig, im Gegenteil, Apple wird (teilweise zurecht) für zu langsame Releases kritisiert.

Die aufgegebene technische Abgrenzung zum PC-Lager war damals wirklich kein großes Thema.
-5
gritsch03.04.18 13:09
Performance stünde diesmal wohl nicht im Vordergrund, diese ist mit ARM-Prozessoren ausreichend vorhanden.

Wer definiert "ausreichend" und für was ausreichend?
Eine Ordnerstruktur anzuzeigen oder doch was CPU-Intensives zu erledigen?
-3
gfhfkgfhfk03.04.18 13:17
gritsch
Wer definiert "ausreichend" und für was ausreichend?
Apple richtet seit Jahren die Produktpalette immer mehr auf Mobile Devices aus. Für eine mobile Schreibmaschine mit Internetnutzung sind die ARM Designs ausreichend für FinalCut könnte man sicherlich einen iMacPro auf Basis eines Cavium ThunderX 48x2.0GHz zusammenbauen. Für angepasste Renderprogramme und NLE ist das ausreichend. Aber für typische Desktopaufgaben gibt es schnellere CPUs.
+1
gfhfkgfhfk03.04.18 13:28
Die Ablehnung des Intels Switch begründete sich damals, weil Jobs im wesentlichen die Kunden angelogen hatte. Der angeblich große Geschwindigkeitsgewinn resultierte bei den iMacs nur daraus, dass Apple es bewusst vermieden hatte die DualCore Variante der G5s in den letzten PowerPC iMacs zu verbauen. Die Intel Version kam aber mit DualCore CPUs, woraus auch sich der große Geschwindigkeitsvorteil herleitete.

PAsemi war damals bereit einen 64Bit PowerPC für Notebooks zu liefern. Der war so gut, dass Apple die Firma gleich ganz kaufte und das Design einstellte, damit es nicht auffiel was für einen Unsinn Jobs erzählt hatte. Einige der Designer von PAsemi sind bei Apple verblieben und haben dann die Apple ARM CPUs entwickelt. Die besten Entwickler haben aber Apple verlassen.
+3
Fenvarien
Fenvarien03.04.18 13:28
haschuk Da erinnerst du dich falsch. In den Foren herrschte der Glaubenskrieg, ob ein Mac mit Intel noch ein echter Mac mehr ist. Vorher galt Intel immer als Feind - und plötzlich sollte Intel Freund sein.
Up the Villa!
+12
sahomuzi03.04.18 13:30
Wieso heißt es von Intel zu ARM? Schließlich besteht ja auch die Möglichkeit, dass Intel die ARM-Chips für Apple herstellt, dann wäre es sicherlich auch möglich einen CPU-Kern für x86 Befehle zu implementieren.
0
gfhfkgfhfk03.04.18 13:35
sahomuzi
Wieso heißt es von Intel zu ARM? Schließlich besteht ja auch die Möglichkeit, dass Intel die ARM-Chips für Apple herstellt, dann wäre es sicherlich auch möglich einen CPU-Kern für x86 Befehle zu implementieren.
Das lohnt sich nicht. Es gibt bessere Softwareemulatoren und man nutzt besser Chipfläche für etwas anderes als für x86 Hardware.
+1
deus-ex
deus-ex03.04.18 13:37
Was für ein Käse.

Die PPC Entwicklung war in einer Sackgasse weil es niemand eine G5 entwickeln konnte oder wollte den man in einen Laptop packen konnte. Und Intel mir Core Duo da schon viel weiter war.

Deswegen war das MBP auch der erst Mac mit Intel CPU.

Das was du von die gibst die Verschwörungstheorie auf AfD Wähler Niveau.
Eine Firma kaufen um was zu verheimlichen. Gebau. Aber Jemand mit Buchstabenchaos Pseudonym weis es genau. Hat ja toll funktioniert, die Verschleierung.
gfhfkgfhfk
Die Ablehnung des Intels Switch begründete sich damals, weil Jobs im wesentlichen die Kunden angelogen hatte. Der angeblich große Geschwindigkeitsgewinn resultierte bei den iMacs nur daraus, dass Apple es bewusst vermieden hatte die DualCore Variante der G5s in den letzten PowerPC iMacs zu verbauen. Die Intel Version kam aber mit DualCore CPUs, woraus auch sich der große Geschwindigkeitsvorteil herleitete.

PAsemi war damals bereit einen 64Bit PowerPC für Notebooks zu liefern. Der war so gut, dass Apple die Firma gleich ganz kaufte und das Design einstellte, damit es nicht auffiel was für einen Unsinn Jobs erzählt hatte. Einige der Designer von PAsemi sind bei Apple verblieben und haben dann die Apple ARM CPUs entwickelt. Die besten Entwickler haben aber Apple verlassen.
0
ThorsProvoni
ThorsProvoni03.04.18 13:42
gritsch
Wer definiert "ausreichend" und für was ausreichend?
Eine Ordnerstruktur anzuzeigen oder doch was CPU-Intensives zu erledigen?

Wie wäre es mit Foto-Bearbeitung oder dem Export von 4K-Movies? Auf meinem iPad 10.5 läuft z.B. Affinity Photo selbst bei komplexen Operationen verzögerungsfrei und der Export vom 4K Videomaterial mit iMovie ist jetzt schon schneller als jedes Macbook und kommt fast an ein MacBook Pro mit core i7 ran.

Ich will jetzt keine Debatte über "kann ein iPad ein MacBook" ersetzen beginnen, aber mit gut angepasster Software ist zumindest die Performance bereits heute auf Augenhöhe. Siehe auch den Artikel "MacBook Pro vs. iPad Pro: Überraschende Benchmark-Ergebnisse" aus dem letzten Jahr.
0
Arne 203.04.18 13:43
deus-ex
Deswegen war das MBP auch der erst Mac mit Intel CPU.
Erinnere ich mich falsch oder gab es als erstes den MacMini mit Intel CPU?
-2
McErik03.04.18 13:43
gfhfkgfhfk
sahomuzi
Wieso heißt es von Intel zu ARM? Schließlich besteht ja auch die Möglichkeit, dass Intel die ARM-Chips für Apple herstellt, dann wäre es sicherlich auch möglich einen CPU-Kern für x86 Befehle zu implementieren.
Das lohnt sich nicht. Es gibt bessere Softwareemulatoren und man nutzt besser Chipfläche für etwas anderes als für x86 Hardware.

Außerdem macht Apple sowas nicht. Das wäre gegen deren Firmenphilosophie. Wennschon Wechsel, dann konsequent! Auch ohne Rücksicht auf Verluste.
+2
ThorsProvoni
ThorsProvoni03.04.18 13:51
gfhfkgfhfk
sahomuzi
Wieso heißt es von Intel zu ARM? Schließlich besteht ja auch die Möglichkeit, dass Intel die ARM-Chips für Apple herstellt, dann wäre es sicherlich auch möglich einen CPU-Kern für x86 Befehle zu implementieren.
Das lohnt sich nicht. Es gibt bessere Softwareemulatoren und man nutzt besser Chipfläche für etwas anderes als für x86 Hardware.
Sehe ich auch so. Es gibt übrigens schon seit längerem 32-Bit-x86-Emulation auf ARM-SoCs, siehe heise .
Und das ist ein Jahr her. Könnte mir durchaus vorstellen, dass es 2020 einen ARM-Prozessor von Apple gibt, der auch Windows in einer VM für viele Anwendungen in ausreichender Geschwindigkeit ablaufen lassen kann.
0
MetallSnake
MetallSnake03.04.18 14:01
Arne R.
deus-ex
Deswegen war das MBP auch der erst Mac mit Intel CPU.
Erinnere ich mich falsch oder gab es als erstes den MacMini mit Intel CPU?

Es wurden zwei Macs gleichzeitig umgestellt, das MBP und der iMac
January 10, 2006: Jobs announces the first two computers in this series, the 15" MacBook Pro and iMac Core Duo line, both using an Intel Core Duo chip and offers to trade in the Developer Transition Kits for iMacs.

Einen Monat Später gabs dann den Mac mini
February 28, 2006: Jobs announces that the Mac mini now also comes with an Intel Core chip, in either the Solo or Duo varieties.
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
+1
ColoredScy
ColoredScy03.04.18 14:02
ThorsProvoni
gritsch
Wer definiert "ausreichend" und für was ausreichend?
Eine Ordnerstruktur anzuzeigen oder doch was CPU-Intensives zu erledigen?

Wie wäre es mit Foto-Bearbeitung oder dem Export von 4K-Movies? Auf meinem iPad 10.5 läuft z.B. Affinity Photo selbst bei komplexen Operationen verzögerungsfrei und der Export vom 4K Videomaterial mit iMovie ist jetzt schon schneller als jedes Macbook und kommt fast an ein MacBook Pro mit core i7 ran.

Ich will jetzt keine Debatte über "kann ein iPad ein MacBook" ersetzen beginnen, aber mit gut angepasster Software ist zumindest die Performance bereits heute auf Augenhöhe. Siehe auch den Artikel "MacBook Pro vs. iPad Pro: Überraschende Benchmark-Ergebnisse" aus dem letzten Jahr.

Auch wenn Affinity wirklich flott ist, wirst du damit keine Grafikdatei von 2GB-Größe irgendwie flüssig damit bearbeiten können. Oder konvertier mal ne 50-Seitige Broschüre von postscript zu pdf.
Der Video-Export ist deshalb so schnell, weil das Teil dafür eine Hardware-Grafik-Routine drin hat. Versuch auch nur einen winzigen Parameter am Codec zu ändern, um z.B. bessere Qualität oder kleinere Datei oder ähnliches rauszuholen und schon darf das der Prozessor machen und dann siehste mal, wie viele Stunden der plötzlich an nem 5-Minuten-4k-Video rendert…

Bitte vergleicht so was doch nur, wenn ihr auch wisst, wovon ihr redet…

Und dass Apple so langsame Laptops baut, dass jetzt sogar Tablets ähnlich performant sind, ist doch nichts, worüber man sich freuen sollte…
Hey Siri, niemand versteht mich!
+5
deus-ex
deus-ex03.04.18 14:10
Arne R.
deus-ex
Deswegen war das MBP auch der erst Mac mit Intel CPU.
Erinnere ich mich falsch oder gab es als erstes den MacMini mit Intel CPU?



Timeline[edit]
Apple's transition to Intel processors
PowerPC Architecture Universal binary Boot Camp Rosetta
v t e
June 6, 2005: Apple announces its plans to switch to Intel processors at the Worldwide Developer Conference and released a Developer Transition System, a PC running an Intel build of Mac OS X 10.4.1 with a Trusted Platform Module[not in citation given] in a modified Power Mac G5 case, to all Select and Premier members of the Apple Developer Connection at a price of $999.[1][5]
January 10, 2006: Jobs announces the first two computers in this series, the 15" MacBook Pro and iMac Core Duo line, both using an Intel Core Duo chip and offers to trade in the Developer Transition Kits for iMacs.
+1
pünktchen
pünktchen03.04.18 14:11
@ ColoredScy

Du musst dich schon entscheiden: sind Apples Tablets nur bei einzelnen Funktionen dank Hardwarebeschleunigung schneller oder sind Apples Laptops lahme Krücken? Und wo bekomm ich bitte deutlich schnellere Laptops? Irgendwie scheint die Konkurrenz mit denselben Bauteilen und denselben physikalischen Grenzen zu kämpfen.
0
ThorsProvoni
ThorsProvoni03.04.18 14:21
ColoredScy
[..]
Bitte vergleicht so was doch nur, wenn ihr auch wisst, wovon ihr redet…
[...]
Da es offensichtlich sehr aufwändig ist, den von mir mitgelieferten Link anzuklicken, zitieren ich mal aus dem MacTechNews-Artikel:
In der Disziplin "Multicore" fällt es ähnlich aus. 10261 (Geekbench-)Punkte beim MacBook Pro 2017, 9332 Punkte beim iPad Pro 10,5".

Der CPU-Benchmark misst folgendes:
"Each CPU workload models a real-world task or application, ensuring meaningful results. These tests are complex, avoiding simple problems with straightforward memory-access patterns, and push the limits of your system."

Ich als Informatiker kann das natürlich nicht so richtig einordnen, aber für mich klingt das jetzt nicht so, als würde das iPad nur aufgrund einer "Hardware-Grafik-Routine" so schnell sein.
+1
gfhfkgfhfk03.04.18 14:22
deus-ex
Die PPC Entwicklung war in einer Sackgasse weil es niemand eine G5 entwickeln konnte oder wollte den man in einen Laptop packen konnte. Und Intel mir Core Duo da schon viel weiter war.
PAsemi konnte so ein Design liefern. IBM machte deutlich Fortschritt so etwas zu liefern. Man darf nicht vergessen, dass der G5 eine sehr schnell entwickelte Ableitung von IBMs POWER4 war (eine reine Server CPU), weil Apple und Motorola/Freescale zuvor mit der Entwicklung des G5 kläglichst gescheitert waren. IBM senkte mit jeder G5 Version den Stromverbrauch und machte das ursprüngliche Serverdesign immer mehr Desktop tauglich und stand davon eine Notebook Version zu veröffentlichen. Nur IBM wollte für diese Entwicklung Geld und Apple wollte das Risiko zu 100% auf IBM abwälzen. So kam die Trennung.
+6
NikNik03.04.18 14:25
Geekbench ist für einen plattformübergreifenden Vergleich unsinnig. Damit kann man nett innerhalb einer Plattform vergleichen, aber nicht darüber hinweg.

In Hardware gegossene Funktionen tragen nämlich zur allgemeinen Leistungsfähigkeit nichts bei, werten aber die Geekbench-Punkte recht massiv auf. Ändern sich die Anforderungen (wie z.B. der Videocodec von H.264 auf H.265, VP9 oder AV1), dann ist deine "ultra-schnelle Intel vernichtende" "AllesInHardware"-CPU sehr schnell sehr unbrauchbar.

Aber im Endeffekt ist es ja genau das, was Apple will. Bitte recht regelmäßig dein iDevice upgraden.
+3
pünktchen
pünktchen03.04.18 14:32
Jaja, alles nur Ausreisser in unrealistischen Benchmarks! Steckt nur eifrig weiter die Finger in die Ohren, haltet euch die Augen und Ohren zu und dann wird diese doofe Realität schon noch verschwinden.
-5
NikNik03.04.18 14:37
pünktchen
Jaja, alles nur Ausreisser in unrealistischen Benchmarks! Steckt nur eifrig weiter die Finger in die Ohren, haltet euch die Augen und Ohren zu und dann wird diese doofe Realität schon noch verschwinden.

Nimm doch einfach mal ein iDevice von der Zeit vor H.265 Support und versuche darauf ein H.265 Video in entsprechender Qualität abzuspielen. Da hast du deine Realität... das iDevice wird hier weitaus früher de Hufe hochreißen was flüssige Wiedergabe angeht als die meisten Intel CPUs. Mal abgesehen von Apples ultra-langsamen Dual Core MacBook (Airs) mit ~1Ghz.
+5
gfhfkgfhfk03.04.18 14:39
pünktchen
Jaja, alles nur Ausreisser in unrealistischen Benchmarks! Steckt nur eifrig weiter die Finger in die Ohren, haltet euch die Augen und Ohren zu und dann wird diese doofe Realität schon noch verschwinden.
Es wird immer der total unsinnige Endwert des Geekbenchtests angeführt, dieser ist aber zu 100% sinnfrei, weil man eben nicht ersehen kann, ob der hohe Wert wirklich von der CPU herrührt oder durch andere Komponenten des Computers erzielt wurde. Weshalb werden denn nie die Einzelergebnisse angeführt?
+2
ThorsProvoni
ThorsProvoni03.04.18 14:48
Hm... jetzt habe ich es verstanden.
1. Die Praxiserfahrungen sind total unrealistisch, da bestimmt irgendwelche Hardware-Routinen verwendet werden.
2. Benchmarks sind kompletter Blödsinn, weil... "man eben nicht ersehen kann, ob der hohe Wert wirklich von der CPU herrührt oder durch andere Komponenten des Computers"

Also sozusagen nur eine Art "simulierte Performance".

Dann sind die SPECint_base2006 Werte von AnandTech bestimmt auch nur FakeNews von irgendwelchen Deppen ohne Ahnung (nur als Hinweis: Da wurde noch der A9X getestet). Danke für die Aufklärung!
0
Schnitter
Schnitter03.04.18 14:48
deus-ex
Das was du von die gibst die Verschwörungstheorie auf AfD Wähler Niveau.
Eine Firma kaufen um was zu verheimlichen. Gebau. Aber Jemand mit Buchstabenchaos Pseudonym weis es genau. Hat ja toll funktioniert, die Verschleierung.

Einem der Wenigen hier im Forum, die offensichtlich genug Kenne haben, etwas Substanzielles beizutragen, mit einem hingerotzten argumentum ad hominem ans Bein pinkeln zu wollen ist schon ein starkes Stück. Da würde ich mich schämen.
Jeder ist ein Planet und wird von einem Menschen bewohnt.
+2
NikNik03.04.18 14:51
ThorsProvoni
Dann sind die SPECint_base2006 Werte von AnandTech bestimmt auch nur FakeNews von irgendwelchen Deppen ohne Ahnung (nur als Hinweis: Da wurde noch der A9X getestet). Danke für die Aufklärung!

"Against Intel’s slowest chips A9X is competitive, but as it stands A9X can’t keep up with the faster chips. "
0
ColoredScy
ColoredScy03.04.18 14:56
@ThorsProvoni @pünktchen

iPhone/iPad können fullHD/4k in Echtzeit kodieren, da sie Hardware speziell dafür haben. Kann/soll diese nicht genutzt werden (z.B. da man andere Voreinstellungen für die Aufgabe vergeben möchte), können sie diese Aufgabe nicht annähernd auch nur in irgendeiner Form, die man im Ansatz noch mit viel gutem Willen als Performant bezeichnen könnte.

Und ich hab den Geekbench-Link schon verstanden. Das iPad hat nen Wert von rund 10k geschafft und ist schneller das MacBook. Ja waaaaahnsinn… 10k… *gähn* … beide lahm.

Hör doch auf, von 'Praxiserfahrung' zu sprechen, wenn Du eine einzelne, speziell hardwarebeschleunigte Routine nimmst und damit auf die Gesamtleistung rückschließt. 4k/60-h265-Videokodierung schafft selbst ein 15000€-iMacPro nicht in Echtzeit (nicht annähernd).

@gfhfkgfhfk

Geekbench hat Tests, die explizit nur vom Prozessor ausgeführt werden. Und daneben noch Tests für OpenCL, Metal(2) und CUDA bei denen Prozessor und Grafikkarte reinspielen.
Hey Siri, niemand versteht mich!
+1
pünktchen
pünktchen03.04.18 14:59
gfhfkgfhfk
Es wird immer der total unsinnige Endwert des Geekbenchtests angeführt, dieser ist aber zu 100% sinnfrei, weil man eben nicht ersehen kann, ob der hohe Wert wirklich von der CPU herrührt oder durch andere Komponenten des Computers erzielt wurde. Weshalb werden denn nie die Einzelergebnisse angeführt?

Dann schau sie dir doch an, sind doch nicht geheim. ZB die beiden hier:


Und nun erklär mir mal wie der Endwert hier sinnfrei zugunsten des Apple Chips verzerrt wird. Wenn dann sehe ich da eher Ausreisser zugunsten von Intel.

NikNik
"Against Intel’s slowest chips A9X is competitive, but as it stands A9X can’t keep up with the faster chips. "

Inzwischen sind wir allerdings beim A11 und Apple macht deutlich mehr Fortschritte als Intel. Gut das ist auch einfacher wenn man auf niedrigerem Niveau startet.

ColoredScy
Und ich hab den Geekbench-Link schon verstanden. Das iPad hat nen Wert von rund 10k geschafft und ist schneller das MacBook. Ja waaaaahnsinn… 10k… *gähn* … beide lahm.

Ja ne verglichen mit einer Workstation mit 24 Kernen ist das natürlich lahm. Für drei Kerne mit so wenig Abwärme hingegen ist das super. Was für ein Sinn macht ein Vergleich von Äpfeln und Birnen?


0
gfhfkgfhfk03.04.18 15:01
ColoredScy
@gfhfkgfhfk

Geekbench hat Tests, die explizit nur vom Prozessor ausgeführt werden. Und daneben noch Tests für OpenCL, Metal(2) und CUDA bei denen Prozessor und Grafikkarte reinspielen.
Das ist mir bekannt, und dass wurde auch von @@ThorsProvoni
verlinkt. Nur an diesen Benchmark sieht man die wirkliche Performance der CPU.
+2
ThorsProvoni
ThorsProvoni03.04.18 15:01
NikNik
ThorsProvoni
Dann sind die SPECint_base2006 Werte von AnandTech bestimmt auch nur FakeNews von irgendwelchen Deppen ohne Ahnung (nur als Hinweis: Da wurde noch der A9X getestet). Danke für die Aufklärung!

"Against Intel’s slowest chips A9X is competitive, but as it stands A9X can’t keep up with the faster chips. "

Seufz... ich hatte zwar darauf hingewiesen, dass der A9X getestet wurde, aber anscheinend hat es sich noch nicht herumgesprochen, dass der aktuelle Chip ein A11(iPhone) bzw. ein A10X (iPad Pro) ist, die bereits deutlich schneller als ein A9X sind.
-1
deus-ex
deus-ex03.04.18 15:03
PAsemi konnte solch ein Design aber nicht 2005 liefern als es notwenig war sonder erst Jahre später. Und die Übernahme fand 2008 statt als der PPC beim Mac überhaupt gar kein Thema mehr war sonder eher das KnowHow für die ARM Architektur wichtig wurde.

Und wie Stromsparend und wie wenig Abwärme so ein IBM PowerPC nach dem G5 war hat man ja dann bei der Xbox 360 und bei der PS3 gesehen. Klobige Kisten mit lauten Lüftern und Hizeproblemen. (Red Ring of Death).

Was bringt mir das wenn jemand mir einen Ausblick auf einen G5 Mobile gegen hätte wenn Intel den denn schon in der 2. Generation herstellt (Core2Duo). Wie gesagt. Die damaligen PowerBooks und iBook waren den PC Notebooks ins Sachen Leistung durch den G4 hoffnungslos unterlegen und einen G5 Mobile gab es nicht. Warum spielt keine Rolle wenn da Intel bessere Prozessoren schon ab Fließband herstellt.
gfhfkgfhfk
deus-ex
Die PPC Entwicklung war in einer Sackgasse weil es niemand eine G5 entwickeln konnte oder wollte den man in einen Laptop packen konnte. Und Intel mir Core Duo da schon viel weiter war.
PAsemi konnte so ein Design liefern. IBM machte deutlich Fortschritt so etwas zu liefern. Man darf nicht vergessen, dass der G5 eine sehr schnell entwickelte Ableitung von IBMs POWER4 war (eine reine Server CPU), weil Apple und Motorola/Freescale zuvor mit der Entwicklung des G5 kläglichst gescheitert waren. IBM senkte mit jeder G5 Version den Stromverbrauch und machte das ursprüngliche Serverdesign immer mehr Desktop tauglich und stand davon eine Notebook Version zu veröffentlichen. Nur IBM wollte für diese Entwicklung Geld und Apple wollte das Risiko zu 100% auf IBM abwälzen. So kam die Trennung.
+2
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.