Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>ARM-Macs, haben wir damit 99.9% Sicherheit, dass sie kommen?

ARM-Macs, haben wir damit 99.9% Sicherheit, dass sie kommen?

LoCal
LoCal09.06.2013:07
Also wenn Mark Gurman so deutlich darüber schreibt, dann dürfte es eine ausgemachte Sache sein!

„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0

Kommentare

gfhfkgfhfk23.06.2012:15
LoCal
Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird. Und auch, dass bei steigender CPU-Belastung der Strombedarf für TB3 usw steigt, ausser natürlich TB3 hängt aktiv in der Verbraucherkette.
Bei einem SoC wird die eingebaute Peripherie mit eingerechnet, da sie sich auf dem SoC befindet. Es wird hier laufend ein Apple SoC mit einem Intel SoC (Y und U CPUs) verglichen. Die Intel SoCs haben 10 bzw. 12 PCIe Lanes, diverse USB 3 Controller und die verbrauchen auch im Idle zusätzlich Strom – noch mehr wenn sie aktiv sind. Der TB3 Controller verbraucht aktiv im Mittel 2,2W. D.h. wenn man hier ein MacBook Air mit Intel Y SoC und TB3 Controller mit einem Apple SoC vergleicht, muss man auch die nicht vorhandenen Features des Apple SoCs berücksichtigen. Ein Intel SoC mit nur 4 PCIe Lanes (für SSD) wurde deutlich weniger Strom verbrauchen.
+6
LoCal
LoCal23.06.2012:19
cps
LoCal
Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird.

Wenn die Peripherie in der CPU verbaut ist, was ja bei einem SoC der Fall ist, dann schon, wie will man das auch trennen. Die Abwärme entsteht da ja auch und belastet das thermische Budget des SoCs.

SoC bedeutet nicht, dass sämtliche Controller auf dem Die sein müssen.
Ich hatte es an anderer Stelle schon mal geschrieben: Es besteht durchaus die Möglichkeit, dass Apple* das so designed, dass im A-Chip alle Komponenten sind, die sich alle Plattformen teilen und Plattform-exklusive Controller wandern auf LogicBoard.
Z.B. kann man da so beim iPhone/iPod touch sehen. Der iPod touch verwendet einen A-Chip, der auch im iPhone verbaut wurde … allerdings hat das iPhone Celluar und GPS, das alles befindet sich auf dem LogicBoard und ich nicht im Chip. Wobei ich hier nachschieben muss, dass es dafür höchstwahrscheinlich andere Gründe gibt.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
-1
LoCal
LoCal23.06.2012:23
gfhfkgfhfk
LoCal
Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird. Und auch, dass bei steigender CPU-Belastung der Strombedarf für TB3 usw steigt, ausser natürlich TB3 hängt aktiv in der Verbraucherkette.
Bei einem SoC wird die eingebaute Peripherie mit eingerechnet, da sie sich auf dem SoC befindet. Es wird hier laufend ein Apple SoC mit einem Intel SoC (Y und U CPUs) verglichen. Die Intel SoCs haben 10 bzw. 12 PCIe Lanes, diverse USB 3 Controller und die verbrauchen auch im Idle zusätzlich Strom – noch mehr wenn sie aktiv sind. Der TB3 Controller verbraucht aktiv im Mittel 2,2W. D.h. wenn man hier ein MacBook Air mit Intel Y SoC und TB3 Controller mit einem Apple SoC vergleicht, muss man auch die nicht vorhandenen Features des Apple SoCs berücksichtigen. Ein Intel SoC mit nur 4 PCIe Lanes (für SSD) wurde deutlich weniger Strom verbrauchen.

Da gebe ich Dir recht, trotzdem dürfte der Apple-Chip immer noch weniger verbrauchen. Aber ob der AxxX weit über 100Watt TDP verbraucht wie manche Intel-Chips wage ich zu bezweifeln.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
+1
gfhfkgfhfk23.06.2012:48
LoCal
Es besteht durchaus die Möglichkeit, dass Apple* das so designed, dass im A-Chip alle Komponenten sind, die sich alle Plattformen teilen und Plattform-exklusive Controller wandern auf LogicBoard.
Dann muss Apple in die SoCs entsprechende PCIe Rootkomplexe mit ausreichend vielen Lanes verbauen. Man kann performante Peripherie nicht über I²C oder SPI ansteuern. Das bedeutet dann, dass auch ein solcher Apple Chip mehr Strom verbraucht als die bisher hergestellten SoCs für die iDevices.
+5
Weia
Weia23.06.2012:51
beanchen
Ist das dann schon wieder das Ende von Thunderbolt oder kommt da noch was?
Leute, Leute … Apple hat in maximal vager Form den ARM-Umstieg verkündet, einfach absolut überhaupt nichts an Daten rausgelassen außer, dass „ARM-Chips besser als Intel-Chips sind“, und Ihr wollt aus einem mit heißer Nadel aus einem iPad-Prozessor zusammengestrickten Entwickler-Mac irgendwas über die zukünftigen ARM-Macs ableiten? Diese ganze Prozessor-Umstellungs-Diskussion nimmt ja schon hysterische Züge an.
StraightEdge89
vermutlich kommt dann mit den ARM-Macs USB 4 (welches ja TB3 integriert hat)
Logisch, was denn sonst?
piik
Und schon hat man einen Stromfresser mehr.
Stimmt.
Bisherige A-Chips haben USB 2.0
Stimmt nicht. Der im Entwickler-Mac-mini verwendete A12Z stammt aus dem neuen iPad, und das hat USB-C.
LoCal
Und bei Intel ist der Strombedarf für USB4/TB3 niedriger?
Unfug. Er ist (was TB3 betrifft) vorhanden, und bei Apples A-Chips ist er bislang nicht vorhanden.

Das ist doch ein Beispiel für das, was piik (vielleicht etwas unglücklich formuliert) damit meinte, dass man einen A-SoC mit der für Mobilgeräte reduzierten Ausstattung nicht mit einer CPU mit allem Drum und Dran für Desktops vergleichen kann. Mit etwas gutem hermeneutischen Willen (der Dir in dieser Diskussion ja offenbar völlig abhanden gekommen ist) hätte man das auch verstehen können.
LoCal
Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird.
Ja, Dir ist offenbar vieles neu, wenn man Deine Beiträge hier so liest, Logik zum Beispiel. Wie willst Du denn bitte bei einer Intel-CPU mit integrierter Peripherie den Stromverbrauch der Peripherie von der eigentlichen CPU trennen?
LoCal
SoC bedeutet nicht, dass sämtliche Controller auf dem Die sein müssen.
Nein, natürlich müssen sie nicht. Bei den Intel-SoCs, die hier zum Vergleich herangezogen werden, sind sie es aber nunmal. Und dann wird ein Vergleich mit Apples bisherigen A-SoCs, die das nicht beinhalten, eben völlig schief.
Ich hatte es an anderer Stelle schon mal geschrieben: Es besteht durchaus die Möglichkeit, dass Apple* das so designed, dass im A-Chip alle Komponenten sind, die sich alle Plattformen teilen und Plattform-exklusive Controller wandern auf LogicBoard.
Klar besteht die Möglichkeit. Man muss das bei Vergleichen zwischen Intel und Apple aber halt auch berücksichtigen.

Ich fand es schon bemerkenswert, dass Apple sich gestern nicht getraut hat, auch nur eine quantitative Angabe zu der Größenordnung der zu erwartenden Leistungssteigerung (absolut oder per Watt) zu nennen. Wenn sie irgendwas gehabt hätten, womit sie reüssieren könnten, dann hätten sie das ganz sicher getan. Beim Umstieg von PPC auf Intel taten sie es.
LoCal
Da gebe ich Dir recht, trotzdem dürfte der Apple-Chip immer noch weniger verbrauchen.
Weil?
Aber ob der AxxX weit über 100Watt TDP verbraucht wie manche Intel-Chips wage ich zu bezweifeln.
Weil?
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
pünktchen
pünktchen23.06.2013:14
Weia
Ich fand es schon bemerkenswert, dass Apple sich gestern nicht getraut hat, auch nur eine quantitative Angabe zu der Größenordnung der zu erwartenden Leistungssteigerung (absolut oder per Watt) zu nennen. Wenn sie irgendwas gehabt hätten, womit sie reüssieren könnten, dann hätten sie das ganz sicher getan. Beim Umstieg von PPC auf Intel taten sie es.

Da war die Ausgangslage marketingtechnisch aber eine ganz andere. Es ging um die Rechtfertigung des Umstiegs vor den eigenen Kunden und den Vergleich bereits bekannter CPUs. Hier sind die Chips noch gar nicht vorgestellt und dürfen dann im Herbst oder Winter zeigen was sie können. Da würde ich auch nicht mehr zeigen als das es auf vorhandener Hardware vernünftig läuft und für die Zukunft nur wage Andeutungen machen.

Konkreter als hier wurden sie wohl nicht:

+2
gggfam23.06.2013:23
Ich denke auch im Herbst wird Apple den A14 für iPhone, iPad und Macs vorstellen und vermutlich auch den ersten Mac mit A14X oder Z oder sonstwas releasen. Ich tippe auf MacBook Pro.
Wenn sie jetzt schon angeben würden, wie stark die CPUs sind, würden vermutlich viele keine Intel Macs bis zum Herbst oder sogar nächsten Sommer kaufen.
+1
Peter Eckel23.06.2013:39
sockenpuppe_234
Peter Eckel
Zum einen gibt es viel branchenspezifische Software, die nicht unter macOS läuft und vermutlich auch nie unter macOS laufen wird. Zum zweiten ist "Virtualisierung" nicht nur "Windows", sondern das Feature wird viel weitergehend benötigt. Viele Kollegen und auch ich z.B. virtualisieren ganze Umgebungen mit mehreren Linux-Systemen für Test- und Entwicklungszwecke (Vagrant ist hier eines der Tools, die zum Einsatz kommen). Wenn die Möglichkeit wegfiele, bliebe diesen Nutzern nur eine Migration zu Linux oder Windows - wobei Windows dafür wenig Sinn hat, auch wenn es geht.
Diesmal ist beim Wechsel ein "Virtualisation" gleich mit an Bord. Ich glaube, sie haben Dich gehört! 😊👍
Das ist eines der Dinge, die mich hoffen lassen, daß ich noch ein wenig länger mit Macs arbeiten kann - in der Tat klingt das zumindest mal nicht nach der größten anzunehmenden Katastrophe.

Solange die etwas vage Aussage "we will support Intel Macs for years to come" sich im Rahmen des üblichen interpretieren läßt (so pi mal Daumen 5 Jahre für aktuelle Rechner) sehe ich das sehr entspannt - meine Macs sind inzwischen alle recht frisch, der älteste ein Mac Mini 2018.

In dem Fall ist auch noch die Frage, wie die allgemeine IT-Welt dann 2025 aussieht. ARM ist definitiv eine Stoßrichtung, in die einige Hersteller gehen, und es ist durchaus denkbar, daß da in einem mittelfristigen Zeitrahmen auch in der Serverwelt nennenswerte Bewegung in die Prozessorlandschaft kommt. Das ist für mich das Maß aller Dinge in Sachen Mac, denn davon hängt es letztlich ab, ob ich Macs nur noch privat nutzen kann oder auch weiterhin beruflich.
„Ceterum censeo librum facierum esse delendum.“
0
bmonno23.06.2014:22
Weia
piik
Bisherige A-Chips haben USB 2.0
Stimmt nicht. Der im Entwickler-Mac-mini verwendete A12Z stammt aus dem neuen iPad, und das hat USB-C.
Ich denke, USB C ist eine Steckerform, kein Protokoll. Über USB-C-Stecker können verschiedene Protokolle transportiert werden, so auch USB 2.
Heise
Außerdem ist die USB-C-Buchse ein Alleskönner, denn sie vereint gleich mehrere Funktionen: Sie ist klassischer USB-Port zur Datenübertragung ebenso wie Anschluss für Tastatur und Maus, DisplayPort für externe Monitore, HDMI für TV-Geräte, Ersatz für die Audio-Klinkenbuchse für Kopfhörer und Ladebuchse für Mobilgeräte.
0
pünktchen
pünktchen23.06.2014:39
Ja. Das iPad unterstützt aber USB 3.1 gen 2 (= 10 Gbit/s) statt nur USB 2.0 (= 480 Mbit/s).
0
Weia
Weia23.06.2014:45
pünktchen
Weia
Ich fand es schon bemerkenswert, dass Apple sich gestern nicht getraut hat, auch nur eine quantitative Angabe zu der Größenordnung der zu erwartenden Leistungssteigerung (absolut oder per Watt) zu nennen. Wenn sie irgendwas gehabt hätten, womit sie reüssieren könnten, dann hätten sie das ganz sicher getan. Beim Umstieg von PPC auf Intel taten sie es.
Da war die Ausgangslage marketingtechnisch aber eine ganz andere. Es ging um die Rechtfertigung des Umstiegs vor den eigenen Kunden
Und jetzt tut es das nicht?
und den Vergleich bereits bekannter CPUs. Hier sind die Chips noch gar nicht vorgestellt
Ja, dann hätten sie vielleicht noch so lange den Mund halten sollen, bis sie das können …
Konkreter als hier wurden sie wohl nicht:

Richtig. Und das finde ich ein bisschen arg mau.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
pünktchen
pünktchen23.06.2014:57
Weia
Und jetzt tut es das nicht?

Diesmal müssen sie den Kunden nicht erklären dass Apples Werbung ihnen die letzten Jahre Bödsinn erzählt hat und die Konkurrenz doch die besseren Chips hatte. Ganz im Gegenteil, Apples Werbeabteilung erzählt uns schon einige Zeit dass ihr iPad eigentlich der bessere und schnellere PC sei.

Weia
Ja, dann hätten sie vielleicht noch so lange den Mund halten sollen, bis sie das können …

Haben sie doch, darüber beschwerst du dich doch gerade.
+1
Weia
Weia23.06.2015:41
pünktchen
Weia
Und jetzt tut es das nicht?
Diesmal müssen sie den Kunden nicht erklären dass Apples Werbung ihnen die letzten Jahre Bödsinn erzählt hat und die Konkurrenz doch die besseren Chips hatte.
Sie müssten ihnen aber erklären, welche Vorteile sie für die klaren Nachteile einer Migration bekommen.
Weia
Ja, dann hätten sie vielleicht noch so lange den Mund halten sollen, bis sie das können …
Haben sie doch, darüber beschwerst du dich doch gerade.
Ich meinte, mit der ARM-Ankündigung/-Migration insgesamt noch warten.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+1
pünktchen
pünktchen23.06.2015:46
Muss doch jemand die Anwendungssoftware portieren bevor man die Hardware an Endkunden verkauft.
0
piik23.06.2015:48
LoCal
[Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird.
Da hast du dich aber ganz schön zum Kopfschütteln angeboten. Natürlich nicht die extrene Peripherie, die Zählt zum Rechner, aber es ist immer der ganze Chip, nicht nur die reinen Rechenkerne.
+2
Weia
Weia23.06.2015:51
pünktchen
Muss doch jemand die Anwendungssoftware portieren bevor man die Hardware an Endkunden verkauft.
Ja, das könnte man im nächsten Schritt dann ja immer noch machen. Würde halt alles ½ Jahr länger dauern. Aber bei Apple muss ja mittlerweile anscheinend aus Prinzip alles unter Zeitdruck ablaufen.

Ist ja verständlich, schließlich würde das Unternehmen ohne massive Gewinnsteigerungen bestenfalls ein paar Monate überleben …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+2
piik23.06.2015:54
LoCal
SoC bedeutet nicht, dass sämtliche Controller auf dem Die sein müssen.
Ich hatte es an anderer Stelle schon mal geschrieben: Es besteht durchaus die Möglichkeit, dass Apple* das so designed, dass im A-Chip alle Komponenten sind, die sich alle Plattformen teilen und Plattform-exklusive Controller wandern auf LogicBoard.
Das ist formal richtig, aber da stellst Du eine hochkarätige Milchmädchenrechnung an. Auch wenn Teile oder Funktionen in andere Chips ausgelagert werden, macht das die ARM-SoCs nicht sparsamer. Die Chips selbst natürlich schon, aber den Rechner eben nicht. Und auf den kommt es ja irgendwie schon an, oder?
Außerdem geht der Trend seit Jahrzehnten zu immer mehr Integration, weil das technisch besser ist (kurze Leitungen) und weniger Platz = weniger geld kostet. Wie auch immer: Mögliche (und extrem unwahrscheinliche) Externalisierung ist kein Argument.
0
piik23.06.2015:59
pünktchen
Ja. Das iPad unterstützt aber USB 3.1 gen 2 (= 10 Gbit/s) statt nur USB 2.0 (= 480 Mbit/s).
Danke für die Info. Wusste ich nicht, und bisher hat mich das immer gestört bei meinen iDevices, dass die das nicht können. Das neue iPad habe ich (noch) nicht. Bei den enormen Datenspeichern der iDevices ist das ja längst überfällig.
0
bmonno23.06.2016:05
pünktchen
Ja. Das iPad unterstützt aber USB 3.1 gen 2 (= 10 Gbit/s) statt nur USB 2.0 (= 480 Mbit/s).
Zum iPad-Anschluss habe ich nichts gesagt, nur zum Thema USB-C-Stecker.
0
mikeboss
mikeboss23.06.2018:40
virtualisierte x86_64 instanzen sind definitiv nicht moeglich

bleibt also hoechstens Windows 10 fuer Aarch64 und die hoffnung, dass Microsoft ihr WoW endlich auch fuer 64Bit fit machen.

+1
sierkb23.06.2019:04
mikeboss:

Microsoft arbeitet daran bzw. ist mittenmang dabei und nähert sich dem erfolgreichen Abschluss:


Infotech News (Mai 2020): Microsoft will run the x64 program through the WoW emulator on Windows 10 ARM

mspoweruser.com (18.05.2020): Microsoft close to emulating x64 code on ARM laptops
Microsoft’s Windows 10 on ARM efforts are about to take another step, with evidence Microsoft is close to enabling the execution of 64bit code on Windows 10 on ARM laptops.
Currently, ARM laptops use the WoW emulator designed to run Win32 code on x64 computers to run Win32 code on ARM64 code, but that neat hack, unfortunately, means 64bit Windows applications are simply not supported on Windows 10 on ARM laptops. Now a recent GitHub commit noticed by twitter account Longhorn explicitly mentions support for x64 code emulation on ARM64. …


Github: Microsoft: cppwinrt: #556: Add linker support for x64 code emulation on ARM64 (committed on 13 Mar 2020)


Weitere Infos und FAQ zu Windows 10 on ARM:

Microsoft Docs: Dokumentation zu Windows 10 auf ARM
Windows 10 wird auf PCs mit ARM-Prozessoren ausgeführt. Diese Seite enthält die Informationen, mit denen Sie sich eingehender mit der Plattform vertraut machen und in die Entwicklung von Apps einsteigen können.

Microsoft Windows Dev Center (22.05.2020): Windows 10 auf ARM
+1
cps24.06.2000:04
LoCal
Aber ob der AxxX weit über 100Watt TDP verbraucht wie manche Intel-Chips wage ich zu bezweifeln.

So losgelöst sagt die TDP doch erstmal wenig aus, 100 W TDP können viel sein, wenn die Rechenleistung nicht passt, oder wenig, wenn Apple mit 100 W beispielsweise einen AMD Epyc mit 240 W hinter sich lässt.
Aktuell bleibt nur warten, was Apple letztlich liefern wird.

Und weil ARM ja immer als besonders stromsparend gesehen wird, hier mal der Ampere Altra, wo man gut sehen kann, wie der TDP mit dem Takt skaliert. www.servethehome.com

0
Warp24.06.2000:43
Wie performant ist sowas mit dem WoW Emulator auf so einem Windows ARM? Was nutzt sowas auf einem ARM MAC? Emulation der Emulation? Wenn die Geschwindigkeit so ist, dass das, übertrieben ausgedrückt, nur zum Schreiben eines Briefes reicht kann man das meiner Meinung nach auch sein lassen.
+1
mikeboss
mikeboss24.06.2008:49
Windows 10 fuer Arm64 wuerde im hypervisor (virtualisierer) laufen, nicht in einer emulation. x86_64 anwendungen hingegen wuerden dann im Microsoft eigenen WoW in einer intel-emulation laufen.
Warp
Wie performant ist sowas mit dem WoW Emulator auf so einem Windows ARM? Was nutzt sowas auf einem ARM MAC? Emulation der Emulation? Wenn die Geschwindigkeit so ist, dass das, übertrieben ausgedrückt, nur zum Schreiben eines Briefes reicht kann man das meiner Meinung nach auch sein lassen.
0
pünktchen
pünktchen24.06.2008:50
@ Warp: Das Windows-ARM könnte man in einer VM mit fast voller Geschwindigkeit laufen lassen. Die Emulation für X86-Software durch WoW wäre dann so schnell wie auch sonst auf ARM-Windows. Und technisch gibt es doch keinen Grund wieso Microsofts Lösung langsamer sein muss als Apples Rosetta.

@ cps: die Tabelle zeigt zumindest sehr schön dass man günstig weitere Cores auf den Chip packen kann solange Platz ist während das Hochdrehen des Taktes die Abwärme sehr schnell explodieren lässt. Um so besser dass die Cores von Apple schon jetzt ohne Kühlung gerade bei den Single Core Benchmarks zu überzeugen wissen.
-1
gggfam24.06.2018:58
“ARM-based Japanese supercomputer is now the fastest in the world”.
So schlecht kann ARM ja dann nicht sein, oder?
-2
gfhfkgfhfk24.06.2019:44
gggfam
So schlecht kann ARM ja dann nicht sein, oder?
Dieser Fujitsu-ARM-CPU hat eine neue spezielle Vektoreinheit (SVE), über die keine andere ARM-CPU verfügt. Das kann man in diesem Artikel nachlesen.

P.S. Keine Intel ARM-CPU verfügt über HBM2
+1
sierkb24.06.2020:17
gfhfkgfhfk
gggfam
So schlecht kann ARM ja dann nicht sein, oder?
Dieser Fujitsu-ARM-CPU hat eine neue spezielle Vektoreinheit (SVE), über die keine andere ARM-CPU verfügt. Das kann man in diesem Artikel nachlesen.

P.S. Keine Intel ARM-CPU verfügt über HBM2

Hat Apple ARM-Architektur von der Stange? Nein (wer hat/nutzt das schon)?
Ist Apples ARM-Design mehr als das und geht darüber weit hinaus, was das Standard-Design von ARM hergibt? Ja.
Ist dieses Standard-Design von ARM bereits sehr leistungsfähig? Ja. Erfährt es einer kontinuierlichen Weiter- und Fortentwicklung? Ja. Steht diesbzgl. in Kürze ein neuer Leistungssprung an beim Standard-Referenz-Design? Ja.
Ist das, was Apple da noch zusätzlich draufsetzt und rausholt, leistungsfähiger als andere ARM-Designs und erst recht als das Standard-Referenz-Design? Ja.
Sind ARM-Prozessoren hochskalierbar bzgl. vieler Cores mit effizientem Microcode bei geringerer Abwärme? Ja.
Genau das nutzen auch solche Super-Computer: sie schalten viele, sehr viele Cores zusammen.
Apple setzt da sogar noch einen oben drauf und leistet sich bereits in seinen bestehenden A-Prozessoren in ein- und demselben Prozessor Cores für Hochleistungsanwendungen und Cores für weniger lastintensive Anwendungen (z.B. Web-Browsen, Office-Anwendungen) bzw. Cores optimiert für die Medienwiedergabe und kann seine Cores dynamisch an- und abschalten bzw. dynamisch zwischen ihnen hin- und herwechseln je nach Bedarf – das senkt Stromverbrauch und Abwärme und ist sehr effizient. Mit einem Intel-Prozessor nicht zu machen – da geht entweder nur volle Taktung oder runtertakten. Apples A-Prozessoren bzw. Apple Silicon denkbar nicht nur mit 12- sondern im weiteren Verlauf sogar mit 20 Cores, 30 Cores, 40 Cores oder 50 Cores pro Prozessor? Gut denkbar, gut möglich. Andere ARM-Hersteller machen's vor und zeigen, dass es geht und wie gut es geht, ich traue es Apple zu, dass sie das auch können und tun werden – viele Cores, auf ihre jeweiligen Aufgabengebiete spezialisierte Prozessor-Cores (nicht alles stumpf die gleichen), dadurch gut hochskalierbar, die je nach Bedarf und Anwendungsfall dynamisch angesprochen und geschaltet werden. Eine Vektor-Einheit (SVE) wie Fujitsu sie in seinen Prozessoren verwendet? Warum nicht, prinzipiell spräche nix dagegen, dass auch Apple sowas oder sowas Ähnliches verbaut, sollte es für ihre use cases Nutzen bringen. Es geht so Einiges an der Front. Mehr und besser als so mancher denkt oder gedacht hat bisher.
-2
gfhfkgfhfk24.06.2021:03
sierkb
Hat Apple ARM-Architektur von der Stange?
Apple benutzt Befehlssätze von der Stange. SVE wird von Apple nicht genutzt.
sierkb
Sind ARM-Prozessoren hochskalierbar bzgl. vieler Cores mit effizientem Microcode bei geringerer Abwärme? Ja.
Die existierende ARM-CPUs (abgesehen vom A64FX mit seinem HBM2 Speicher) sind trotz deutlich mehr Cores deutlich langsamer als die CPUs von AMD, Intel und ja auch IBM. Der POWER9 ist so nebenbei angemerkt der älteste Prozessor.
0
piik24.06.2022:03
sierkb
Apples A-Prozessoren bzw. Apple Silicon denkbar nicht nur mit 12- sondern im weiteren Verlauf sogar mit 20 Cores, 30 Cores, 40 Cores oder 50 Cores pro Prozessor? Gut denkbar, gut möglich. Andere ARM-Hersteller machen's vor und zeigen, dass es geht und wie gut es geht, ich traue es Apple zu...
Hast Du mal nachgerechnet, was Fugaku pro Core schluckt? Es sind fast 4W/Core. So ein Prozessor käme demnach etwa auf folgende Leistungswerte je Core-Anzahl:
20 = 80W
30 = 120W
40 = 160W
50 = 200W

Irgendwie bin ich davon nicht wirklich beeindruckt. Aber vielleicht drückt ja das reality distortion field den Stromverbrauch bei Apples ARMs.
+1
pünktchen
pünktchen24.06.2022:17
Der Vergleich mit HPC-Chips ist nicht besonders sinnvoll. Ich denke nicht dass Apple da mitspielen will. Aber SVE2 wird vermutlich auch bei Apple Neon beerben.
0
sierkb24.06.2022:45
TidBITS – Thoughtful, detailed coverage of everything Apple for 30 years
and the TidBITS Content Network for Apple professionals (09.06.2020): The Case for ARM-Based Macs

Besonders die Abschnitte The Obvious Win: Reduced Power Consumption, Roadmap.
Der ganze Artikel mit seinen Unterpunkten ist mMn lesenswert, er benennt u.a. ein paar von mir genannten Dinge, führt sie aus, begründet sie.
0
DTP
DTP25.06.2000:31
Hier findet sich noch ein interessanter Artikel eines deutschsprachigen Experten zum Thema ARM bei Profis:
https://printpraxis.net/2020/06/24/wohin-apple-geht-gehst-du -mit/
-1
pünktchen
pünktchen25.06.2008:45
Experte für Medienproduktion. Leider schreibt der ganz überwiegend belegfreien Schwachsinn zusammen.
+1
Johnny6525.06.2009:12
pünktchen
Experte für Medienproduktion. Leider schreibt der ganz überwiegend belegfreien Schwachsinn zusammen.

Ich finde die Analyse von Jason Harder sehr treffend. Er mag auf den Blick von Print-Medienproduzenten fokussiert sein. Aber bis zum Beweis des Gegenteils befürchte ich, dass er mit Einschätzungen wie

"Jeder, der abseits der von Apple vorgedachten Wege Daten bearbeiten und bewegen muss, wird mit ARM/11 ein unangenehmes Problem haben"

Recht behalten könnte. Insofern Danke, DTP, für den Link!
0
pünktchen
pünktchen25.06.2009:35
Tschuldigung aber für solch steile Behauptungen wäre der Autor belegpflichtig, da muss niemand das Gegenteil beweisen. Aus Problemen mit dem Export von Dateien aus einzelnen Programmen (die ich übrigens nicht mal nachvollziehen kann) abzuleiten dass Apple seine Daten kidnappen will ist doch einfach nur bizarr.

Und der Quatsch zum angeblich vereinfachten User Interface, zu PCIe/TB mit denen es Apple ihm so oder so nicht recht machen kann, Spekulatius zu GPUs, kuratierte Software von der bei macOS überhaupt nicht die Rede ist, das Gejammer darüber dass das Sicherheitsrisiko Kernel Extension in den Userspace umziehen muss - das ist alles auch nicht fundierter.

Wenn jemand dauernd "offenbar" und "offenkundig" schreiben muss dann hat er offenbar keine Argumente für seinen Rant.
+3
Weia
Weia25.06.2009:38
Johnny65
Ich finde die Analyse von Jason Harder sehr treffend.
Sie ist halt einfach faktisch falsch.

Er behauptet z.B., Kernel Extensions würde es nicht mehr geben. Das ist Quatsch. Sie müssen nur, falls sie alte APIs verwendet haben, auf modernere APIs aktualisiert werden.

Und auf Basis alternativer Fakten kann man dann halt allen möglichen Müll zusamenschwadronieren.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+1
piik25.06.2009:52
DTP
Hier findet sich noch ein interessanter Artikel eines deutschsprachigen Experten zum Thema ARM bei Profis:
https://printpraxis.net/2020/06/24/wohin-apple-geht-gehst-du -mit/
Ich bin der selben Ansicht wie Pünktchen und Weia, das da viel Unsinniges mit grob Unspezifischem zu einem unverdaulichen Brei zusammengerührt wurde.
+1
pünktchen
pünktchen25.06.2010:30
Weia
Er behauptet z.B., Kernel Extensions würde es nicht mehr geben. Das ist Quatsch. Sie müssen nur, falls sie alte APIs verwendet haben, auf modernere APIs aktualisiert werden.

Naja, sie sind deprecated und die angepriesene Alternative System Extensions läuft im Userspace und ist damit eben keine Kernel Extension. Aber er tut so als böte Apple gar keine Alternative an.
+1
gfhfkgfhfk25.06.2010:50
Weia
Sie ist halt einfach faktisch falsch.
Da liegst Du falsch. Apple schafft Kernel Extensions ab. Es gibt dafür System Extensions, die aber keinen Kernel Zugriff mehr haben und deshalb so einige Probleme aufwerfen werden. Dafür hat Apple die totale Kontrolle und kann Hackintoshes komplett eliminieren.
Weia
Er behauptet z.B., Kernel Extensions würde es nicht mehr geben. Das ist Quatsch. Sie müssen nur, falls sie alte APIs verwendet haben, auf modernere APIs aktualisiert werden.
Das ist falsch!
Weia
Und auf Basis alternativer Fakten kann man dann halt allen möglichen Müll zusamenschwadronieren.
Wer im Glashaus sitzt, sollte nicht mit Steinen werfen.
+1
Weia
Weia25.06.2010:54
pünktchen
Naja, sie sind deprecated und die angepriesene Alternative System Extensions läuft im Userspace und ist damit eben keine Kernel Extension.
Und ist das mit irgendwelchen funktionellen Einschränkungen verbunden oder ein Streit um Konzepte?
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
0
Weia
Weia25.06.2011:01
gfhfkgfhfk
Apple schafft Kernel Extensions ab.
Sagt wer? Im aktuellen Support-Dokument heißt es lediglich:
Apple Developer
future OS releases will no longer load kernel extensions that use deprecated KPIs by default
gfhfkgfhfk
Es gibt dafür System Extensions, die aber keinen Kernel Zugriff mehr haben und deshalb so einige Probleme aufwerfen werden.
Das Problem erhöhter Sicherheit, ja. Welche noch?
Dafür hat Apple die totale Kontrolle und kann Hackintoshes komplett eliminieren.
Das Problem erledigt sich mit ARM-Macs doch automatisch.
Wer im Glashaus sitzt, sollte nicht mit Steinen werfen.
Ich werfe mit Argumenten.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
0
Johnny6525.06.2011:38
Okay, ich gestehe zu, dass ich den Hintergrund zu Kernel Extensions so nicht kannte. Insofern sind solche Foren-Diskussionen immer wieder lehrreich. Vielen Dank dafür!

Hatte dafür gerade ein langes Telefonat mit der Layout-Leiterin eines der Verlage, für die ich als Freelancer tätig bin. Und da wurde sehr deutlich: Apple hat es am Montag geschafft, diese Zielgruppe maximal zu verunsichern. Keine Roadmaps, nur schwammige Ansagen, dafür viel „das wird alles super amazing". Wenn daraufhin sogar jahrzehntelange Mac-Befürworter jetzt frustriert sagen, "Naja, dann müssen wir uns auf Sicht vielleicht vom Mac verabschieden", dann hat Apple zumindest in seiner Kommunikation wohl nicht alles richtig gemacht.

Ob sie es dafür wenigstens technisch hinbekommen und diesen Vertrauensverlust wieder wenigstens zum Teil ausgebügelt bekommen, wird die Zukunft zeigen...

Dass die letzten macOS-Version in ihrem Entwicklungsfokus und ihrer Ausführung diese Anwendergruppe nicht wirklich überzeugen konnten, scheint mir außer Frage stehen. Wenn ich in einem der anderen Threads lese, dass Besitzer von Mac Pros für 10.000 bis 20.000 Euro sich unter Catalina mit einem Haufen Photoshop-Bugs herumplagen, hat mich das dann doch ziemlich ernüchtert und von entsprechenden Investitionsplänen abgebracht.

Welche Grundlage gibt es dafür, anzunehmen, dass das unter Big Sur und Nachfolger-Systemen besser werden sollte?
+3
Weia
Weia25.06.2011:46
Johnny65
Wenn ich in einem der anderen Threads lese, dass Besitzer von Mac Pros für 10.000 bis 20.000 Euro sich unter Catalina mit einem Haufen Photoshop-Bugs herumplagen, hat mich das dann doch ziemlich ernüchtert und von entsprechenden Investitionsplänen abgebracht.
Photoshop kommt aber gar nicht von Apple.

Und wer immer noch nicht begriffen hat, dass Adobe wirklich das Allerletzte ist, als Unternehmen und bezüglich Software-Qualität, dem kann man nicht helfen. So schlimm war Microsoft ja zu seiner schlimmsten Zeit nicht …

Dass Apples Software-Qualität eine enorme Abwärtsbewegung hingelegt hat in den letzten Jahren, insbesondere seit diesem vermaledeiten jährlichen Update-Rhythmus, ist allerdings leider auch wahr.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+1
Johnny6525.06.2012:15
Weia.

Ich will Dir gar nicht widersprechen.

Allerdings Zusatzinfo: Dieselben Bugs treten unter Mojave und High Sierra nicht auf. Da kommt dann doch wieder Apple ins Spiel.
+1
Weia
Weia25.06.2012:27
Johnny65
Allerdings Zusatzinfo: Dieselben Bugs treten unter Mojave und High Sierra nicht auf. Da kommt dann doch wieder Apple ins Spiel.
Nicht unbedingt.

Apple als Betriebssystem-Anbieter veröffentlicht die Schnittstellen zu seinem Betriebssystem und dokumentiert, wie sie angesprochen werden sollen, was erlaubt ist und was nicht.

Wenn nun jemand daran gemessen „unsauber“ programmiert und über Trial & Error beim Programmieren austestet, ob etwas nicht Erlaubtes trotzdem funktioniert, dann kann das in einer bestimmten Betriebssystem-Version klappen, aber deswegen ist eben nicht garantiert, dass es in der nächsten auch noch klappt. Und da träfe dann Apple auch keine Schuld, selbst wenn sie es sind, die durch interne Veränderungen dafür gesorgt haben, dass etwas nicht mehr funktioniert.

Kann natürlich auch sein (und ist leider auch viel zu häufig so), dass eine Schnittstelle in ihrer offiziellen, dokumentierten Form, in der sie funktionieren müsste, nach einem Update nicht mehr funktioniert. Das wäre dann in der Tat Apples Schuld. Es beträfe dann aber alle Programme, die diese Schnittstelle benutzen, und nicht nur ausgerechnet die von Adobe.

Was zutrifft, kann man natürlich nur von Einzelfall zu Einzelfall entscheiden.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+1
Johnny6525.06.2012:43
Weia

Alles klar. Auf dieser streng technischen Ebene zu diskutieren, ist auf MacTechNews sicherlich legitim. Und ich gestehe auch zu, dass der ARM-Wechsel und die Art und Weise, ihn zu kommunizieren, jetzt nur noch der Tropfen war, der das Fass zum Überlaufen bringt.

Etwas stärker aus Anwendungssicht betrachtet, bin ich in der letzten Woche zu der Entscheidung gelangt, keine 10K in einen Mac Pro zu investieren, weil er mir selbst in seiner heute verfügbaren Konstellation (Zwangs-Catalina etc.) vermutlich NICHT die erhoffte Beschleunigung meiner Arbeit bieten würde, sondern eher zusätzliche Probleme. Der Wechsel auf ARM wird das – wieder in meiner speziellen Konstellation – noch verschlimmern.

Damit geht es mir offenbar nicht alleine so. Und was dabei auch klar ist: Da es speziell um Apple geht, schwingt bei all diesen Themen ein gehöriges Maß an Emotion mit. Vielen gelingt es eben nicht, solche Entwicklungen und Entscheidungen aus einer rein technischen und/oder betriebswirtschaftlichen Warte zu sehen.
0
pünktchen
pünktchen25.06.2012:45
Ich fände es jedenfalls gut wenn Apple das letztjährige OS auch noch zur Installation auf neuer Hardware anbieten würde. Stable and current release oder so. Kann doch nicht so schwierig sein. Bei ihrem momentanen hektischen Updaterhythmus sind sie ja schon wieder beim nächsten OS bevor alle Software auf dem letzten vernünftig läuft. Wann soll man sich dann denn einen neuen Mac kaufen? Oder muss man die neue Hardware erstmal einlagern bis man das nötige macOS eingeholt hat?
+1
sierkb25.06.2012:58
LoCal, 09.06.2020, 13:07
Also wenn Mark Gurman so deutlich darüber schreibt, dann dürfte es eine ausgemachte Sache sein!


Bloomberg, Mark Gurman (24.06.2020): fully charged: Apple’s Major Leap Is Unification and More Lock-In, Not Big New Features
0
piik25.06.2013:25
sierkb
Bloomberg, Mark Gurman (24.06.2020): fully charged: Apple’s Major Leap Is Unification and More Lock-In, Not Big New Features
Hmm, Dass die große Vereinheitlichung auch nur irgendwas bringt, was wirklich von Nutzen ist, das wage ich zu bezweifeln. Ich wüßte nicht wirklich, was für einen Sinn es für mich machen sollte, IOS-Apps auf dem Mac zu benutzen. Vielleicht Whatsapp, wenn es vom Mobilfunk entkoppelt würde, ja. Und vielleicht noch das eine oder andere nicht so wichtige Tool, für das es kein MacOS-Ersatz gibt..
Aber ich wüßte nicht, wie ich mit einem Desktop Pokemons fangen sollte (auch nicht wieso mit einem Smartphone, geschenkt ). Navigation mache ich damit auch nicht und für den Rest gibt es bessere Software als für IOS:

Die Gefahr, dass sich Apple weiter abschottet und möglicherweise plant, jede Software außerhalb des eigenen Segens und Mitverdienens - die also nicht vom eigenen Appstore kommt - zu blockieren, die sehe ich als real an. Und das wird nicht nur kartellrechtliche Probleme geben, sondern einige kleine Tools und Open-Source-Projekte ausschließen, deren Entwickler keine Lust auf Apples Restriktionen haben. Und das tut dann MacOS nicht gut.
+1

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.