Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>ARM-Macs, haben wir damit 99.9% Sicherheit, dass sie kommen?

ARM-Macs, haben wir damit 99.9% Sicherheit, dass sie kommen?

LoCal
LoCal09.06.2013:07
Also wenn Mark Gurman so deutlich darüber schreibt, dann dürfte es eine ausgemachte Sache sein!

„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0

Kommentare

Maniacintosh
Maniacintosh21.06.2009:55
cfkane
Vielleicht ist die Desktop-CPU als Vergleich auch gar nicht relevant. Verbaut denn Apple überhaupt in irgendeinem Mac einen ganz normalen i9-Prozessor? Nehmen die nicht eh nur die Stromsparvarianten (U und Y, oder?) bzw die Xeons im Pro?

iMac und Mac mini haben „normale“ Intel Core-CPUs drin.
-1
piik21.06.2011:26
Maniacintosh
cfkane
Vielleicht ist die Desktop-CPU als Vergleich auch gar nicht relevant. Verbaut denn Apple überhaupt in irgendeinem Mac einen ganz normalen i9-Prozessor? Nehmen die nicht eh nur die Stromsparvarianten (U und Y, oder?) bzw die Xeons im Pro?

iMac und Mac mini haben „normale“ Intel Core-CPUs drin.
Mac mini hat einen auf 65 W TDP limitierten Prozessor, was soweit beurteilbar das Maximum des Möglichen in so einem kleinen Gehäuse darstellt.
Im iMac haben die stärksten Exemplare eine TDP von 95W.
+2
piik21.06.2011:46
cfkane
Da stimme ich Weia zu: Wir bräuchten eine fundierte Erläuterung, was eine Desktop-CPU von Mobil-ARMs unterscheidet.
Was mir einfällt:
- (viel) höheres thermisches Budget
- mehr Anschlüsse (mehr RAM, PCI)
Aber was das nun in der Praxis bedeutet????

Vielleicht ist die Desktop-CPU als Vergleich auch gar nicht relevant. Verbaut denn Apple überhaupt in irgendeinem Mac einen ganz normalen i9-Prozessor? Nehmen die nicht eh nur die Stromsparvarianten (U und Y, oder?) bzw die Xeons im Pro?
Da würde die Latte ein ganzes Stück tiefer hängen. Und für die erweiterten Aufgaben eines Mac-ARMs hauen sie Spezial-SoCs raus (gibt ja schon den T2, iPhones haben auch mehrere CPU-Kern-Typen). Und schon sind sie mit den kleinen Intels auf pari. Und wenn sie dann noch Final Cut drauf optimieren, gibt’s phantastische Benchmarks zum Zeigen !
Soweit ich das weiß hat ein guter Apple-ARM-Core etwa ein Viertel der Leistung eines der besten Intel-iX-Cores (vielleicht auch etwas mehr - schwierig, belastbare Zahlen zu bekommen).
Wenn man einen A-Chip nicht wie in einem Mobilgerät mal gelegentlich auslastet (die mittlere Auslastung ist relativ schwach, weshalb ein iPhone typischerweise kaum merkbar warm wird. Anders sieht es aus, wenn der SoC wirklich arbeiten muss, wie etwa schon bei der Navigation merkbar: iPhone wird heiß, auch das modernste, und der Akku geht so schnell in die Knie, dass man fast zuschauen kann), sondern voll, dann schluckt so ein Core bis zu 2W. Ein A13 Chip dürfte geschätzt etwa 5-10W schlucken. Er ist technologisch auch sonst nicht von schlechten Eltern, benötigt er doch fast 100mm2 Silizium bei kleinerer Strukturbreite als bei Intel. Ein moderner 10-Kerner von Intel hat rund 200mm2. Apple bietet 2 schnelle und 4 lahme Kerne. Da neben PCI und sonstiger Schnittstellentechnik auch noch einige mehr Kerne rein müssten, ist die Luft für eine Leistungssteigerung sehr dünn, da mehr Siliziumfläche die Ausbeute überproportional drosselt und so die Kosten steigert.
Aber angenommen, dass Apple die Fläche von 200mm2 gut nutzt und da 8 schnelle Kerne unterbringt und dass optimierte Kerne die halbe Leistung eines modernen i-Cores bringen, dann ist ein Desktop-A-Chip bei der Leistung eines i3-10300 bei einer TDP von etwa 20-50W. So der Brüller ist das nicht. Sicher ist das noch steigerungsfähig. Die Intel-Technik ist das aber auch. Selbst wenn ich mich um den Faktor 2 verschätzt hätte, wäre so ein ARM-Chip auch nur einem i7-10700 vergleichbar. Vermutlich bei einem ganz ähnlichen Energieverbrauch.
Außerdem ist noch gar nicht an Multithreading gedacht und sonstige Tricks. Oder an eine deutlich längere Pipeline, die dann höhere Takte ermöglichen würde, was aber genau deswegen nicht mehr leistungsmä0ig linear skaliert.
Welche Patente da wichtig sind? Ich weiß es nicht, denn so stecke ich da nicht drin. Aber laut Auskunft meines Verwandten ist die Landschaft da arg mit Patenten gepflastert.
+2
Johnny6521.06.2014:19
Hier gibt es recht interessante Beiträge, was mit massiver Skalierung von ARM-Kernen schon heute so möglich ist:

Unix-Derivate lassen sich auf solche Chips offensichtlich auch relativ leicht portieren. Apple könnte sein Lineup dann natürlich schön spreizen – von 2 oder 4 Kernen im dünnen, stromsparenden Macbook Air bis zu 96 Kernen mit 384 Threads im Mac Pro. Ich nehme an, in so eine Richtung dürften Cupertinos Pläne gehen. Wobei mich dann frage, ob sie auch Server-Class-Prozessoren wirklich selbst entwickeln und fertigen wollen würden.

Aber all das löst natürlich nicht die Frage der Rückwärtskompatibilität zur x86-Architektur. Die dürfte auch mit 96 ARM-Kernen problematisch bleiben. Oder – das vermag ich nicht einzuschätzen – könnten 4 bis 8 ARM-Kerne pro emuliertem Intel-Core eine brauchbare Leistung bringen? Nach meinem eher laienhaften Verständnis lässt sich so ein einzelner Prozessor-Befehl auch auf der untersten Maschinenebene nicht wirklich parallelisieren, von Tricks wie Hyperthreading & Co. ganz abgesehen. Oder liege ich da falsch?
+2
Maniacintosh
Maniacintosh21.06.2019:22
piik
Maniacintosh
cfkane
Vielleicht ist die Desktop-CPU als Vergleich auch gar nicht relevant. Verbaut denn Apple überhaupt in irgendeinem Mac einen ganz normalen i9-Prozessor? Nehmen die nicht eh nur die Stromsparvarianten (U und Y, oder?) bzw die Xeons im Pro?

iMac und Mac mini haben „normale“ Intel Core-CPUs drin.
Mac mini hat einen auf 65 W TDP limitierten Prozessor, was soweit beurteilbar das Maximum des Möglichen in so einem kleinen Gehäuse darstellt.
Im iMac haben die stärksten Exemplare eine TDP von 95W.

Sind aber keine speziellen Mobil oder Low Voltage-Prozessoren. Das Apple nun nicht die extremen Übertakter-CPUs verbaut, ist aber auch klar.
0
Maniacintosh
Maniacintosh21.06.2019:45
Johnny65
Unix-Derivate lassen sich auf solche Chips offensichtlich auch relativ leicht portieren. Apple könnte sein Lineup dann natürlich schön spreizen – von 2 oder 4 Kernen im dünnen, stromsparenden Macbook Air bis zu 96 Kernen mit 384 Threads im Mac Pro. Ich nehme an, in so eine Richtung dürften Cupertinos Pläne gehen. Wobei mich dann frage, ob sie auch Server-Class-Prozessoren wirklich selbst entwickeln und fertigen wollen würden.

Aktuell hat Apple keine eigene Chip-Fertigung, die entwickeln ja nur das Chip-Design und lassen dann bei TSMC oder anderen Auftragsfertigern fertigen. Das zweite Problem: Bei allem, was parallelisierbar ist (und dann auch wirklich so programmiert ist), profitiert natürlich bei einer Skalierung über mehr Kerne. Andere Aufgaben tun das aber gar nicht. Es hat ja einen Grund, warum man so etwas wie Turbo Boost hat. Werden nicht alle Kerne gefordert, kann man eben einen oder wenige Kerne schneller takten, und dafür andere Kerne schlafen legen, um deren thermisches Budget dafür zu nutzen.
Aber all das löst natürlich nicht die Frage der Rückwärtskompatibilität zur x86-Architektur. Die dürfte auch mit 96 ARM-Kernen problematisch bleiben. Oder – das vermag ich nicht einzuschätzen – könnten 4 bis 8 ARM-Kerne pro emuliertem Intel-Core eine brauchbare Leistung bringen? Nach meinem eher laienhaften Verständnis lässt sich so ein einzelner Prozessor-Befehl auch auf der untersten Maschinenebene nicht wirklich parallelisieren, von Tricks wie Hyperthreading & Co. ganz abgesehen. Oder liege ich da falsch?

Naja in gewissen Grenzen wird auch eine solche Emulation von mehr Kernen profitieren. Während Kern 1 die erste Anweisung "übersetzt" und im Anschluss ausführt, wird der zweite Kern schon die nächste Anweisung übersetzen können. Geht aber natürlich nur, wenn die zweite Anweisung nicht auf das Ergebnis des ersten Schrittes angewiesen ist.
+1
LoCal
LoCal22.06.2008:55
gfhfkgfhfk
Du wurdest zuerst unfreundlich, und wie Du noch immer den Sachverhalt schilderst, hast Du ihn immer noch nicht intellektuell erfasst. Insofern ist das keine Beleidigung sondern eine Tatsachenfeststellung.

Doch, das habe ich … nur stehe ich auf einem anderen Standpunkt wie Du:
Dein Standpunkt: Wenn nicht alle Messkonstanten bekannt sind, dann ist ein Test nutzlos
Mein Standpunkt:
Wenn alle Testkandidaten den gleichen, ggf. nicht öffentlichen, Konstanten unterliegen, dann schafft das eine gewisse Vergleichbarkeit.
gfhfkgfhfk
Nicht nur die Art der Aufgabe „HTML5 parsen“ ist entscheidend sondern die Komplexität. Man kann eine trivial HTML5 Datei parsen, man kann eine super komplexe HTML5 Datei parsen oder man verarbeitet eben eine typische HTML5 Datei, die beim Websurfen so anfällt. Im Laufe der Jahre hat sich die Komplexität einer solchen typischen Seite deutlich erhöht. D.h. alte Tests sind hier auch nicht mehr aussagekräftig. D.h. aus den reinen Zahlenwerten lässt sich exakt nichts herauslesen. Auch die Größe der HTML5 Datei ist nicht aussagekräfig. Wenn MBs an Text drinsteht ist das auch trivial Input. Man muss schon den Input sehen, um Beurteilen zu können, ob der Zahlenwert etwas taugt.

Ja, ich wess nicht wie das beschriebene PDF genau aussieht bzw. aufgebaut ist, ich weiss auch nicht, wie das HTML-Dokument genau aussieht und ich weiss auch nicht, was in der SQLite-Datenbank steht bzw. welche Operationen genau darauf ausgeführt werden.

Wovon ich aber ausgehen kann ist, dass alle Testkandidaten die gleichen Daten verarbeiten müssen.
Und wovon ich auch ausgehen kann, dass man bei Geekbench sicher keine 'triviale HTML"-Datei verwendet, dass die SQLite sicher nicht nur mit PillePalle-Operationen bedient wird, denn Geekbench möchte ernstgenommen werden und das geht nur wenn sie ihre Test auch sinnvoll gestallten.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
LoCal
LoCal22.06.2009:26
piik
Nach wie vor bin ich der Meinung, dass bei ähnlicher Leistung wie eine X86-CPU eine ARM-CPU einen ähnlichen Stromverbrauch hat.

Und worauf fusst Deine Meinung? Und definiere bitte "ähnlicher Leistung" mit konkreten Beispielen.
Also bleiben wir beim A12X und dem i7-8559U … zeige mir bitte einen Test, in dem die Werte über einen weiten Bereich weit auseinander gehen.
piik
Die unterschiedlichen CPUs und dahinter stehende Konzepte führen bislang in der jeweiligen Spitzenleistung zwar auch zu Unterschieden, aber die Unterschiede sind eher klein, im Bereich von +/- 20% oder so.

Richtig … und was bedeutet das>
piik
Man sieht das auch am Wettrennen von AMD und Intel.

Was sieht man da?
piik
Und: Noch gibt es keine ARM-CPU, die auf 4,5GHz und mehr getaktet wird.

Du bist Dir aber schon bewusst, dass die meisten intel-CPUs in den Apple Notebooks und den iMacs auch nicht annähernd auf diesen Werte kommen.
piik
Dieser Nachteil wird scheinbar bei bisherigen CPUs z.B. für Server versucht, durch mehr Kerne auszugleichen. Dort macht das auch viel Sinn. Dochmehr Kerne skalieren bei Servern, vielen simplen grafischen Aufgaben, Transkodierungen etc. - nicht aber bei normaler Anwendungssoftware. Hier ist die Single-Core-Leistung durchaus von Belang.

Eben nicht! Die Unterstützung mehrer Kerne ist längst Standard in der Software-Entwicklung und unter macOS/iOS wird das durch GDC so einfach gemacht. Mir fällt aktuell nur eine aktuelle Software ein, die singleThread-lastig ist und das ist iRacing und das ist der Historie der Simulation geschuldet. Aber selbst dort bewegen sich alle neuen Implementation in Richtung MulitCore. Nur die alte Basis-Engine ist SingleThreaded.
Auf dem Mac fällt mir wirklich absolut keine Software ein, die nicht von mehrere Kernen profitiert,.
Aber Du kannst mir sicher welche nennen …

piik
Ich rede nicht vom Browser

Das las sich hier() noch etwas anders.
piik
, aber selbst da würde ich gern sehen, was am Seitenaufbau oder der Abarbeitung eines Skripts so stark parallelisierbar wäre.
Und wenn Du am Bespiel eine Browsers wissen möchtest was man da

- Der komplette Netzwerkteil
- Das rendern der Bilder
- Das parsen des CSS
- Das parsen von HTML
- Das parsen von JavaScrip
- Animationen
- Die Datenhaltung


Aber um nur mal bei den Bildern und JavaScript zu bleiben, was glaubst Du wie lange der Aufbau einer Seite dauern würde, wenn das alle in einem einzigen Thread gemacht werden würde!

piik
Du aber bist auf sehr viele meiner Argumente nicht eingegangen. Darfst Du, aber es fällt mir halt auf, dass es genau die sind, die sich nicht relativieren lassen.
Z.B. die Tatsache, dass die CPUs für Macs einen Nischenmarkt darstellen. So wurden z.B. 2019 nicht ganz 20 Millionen Macs (Desktop + Laptops) verkauft, gegenüber 240 Millionen PCs mit X86-CPU (auch Desktop + Laptops). Das Verhältnis ist etwa 1:13 und es wird durch ARM-CPUs nicht besser
Apple müsste also für rund 6,5% des Marktes sagen wir mal die Hälfte des Aufwands treiben, den Intel/AMD tätigen. Das ist betriebswirtschaftlicher Irrsinn.

Nur wenn man wie Du der Meinung ist, dass es sich bei den Desktop um eine komplett andere CPU als die AxX-CPUs handelt.
Aber mein Standpunkt hier ist ja eben, dass die A-CPUs die Apple im iPad Pro verbaut sich für den Laptop/Desktop-Einsatz eignen!
piik
Dass Apple viele ARM-Soc in Mobilgeräten verkauft (ca. 70 Millionen pro Jahr) ist da kein Gegenargument, denn ein SoC für Mobilgeräte ist nunmal definitiv keine Desktop-CPU.

Wie Du darauf kommst, hast Du aber leider hier nie erklärt.

Dafür hast Du an anderer Stelle folgendes geschrieben:
piik
Ein ARM-SoC ist nun mal keine CPU, sondern nur ein kleiner Teil davon

Was leider schlicht falsch ist!
piik
Das zweite Argument, das Du geflissentlich ignorierst hast, das ist die Patentlage. Hier hat Apple bez. Desktop-Technik kaum etwas zu bieten. Das gab schon viel Ärger bei dem Chips für den Mobilfunk-Empfang.

Was soll denn mit der "Patentlage" sein?
Welches Patent sollte denn Apple fehlen? Warum sollte Apple nicht auch das hinbekommen, was z.B. AmigaOne ohne Problem hinbekommen hat … nur dass da halt ein PowerPC werkelt?
piik
Aber lassen wir das. Ich bin auf Montag gespannt.
Genau
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
LoCal
LoCal22.06.2009:29
piik
Noch ne Sache, an die so gut wie niemand denkt:
(und die ich jetzt, kurz vor Montag, noch rauslassen kann )

Erinnert ihr euch noch, was passierte, als Apple so viel Erfolg mit dem iPhone zu haben begann?
Und Google, seinerzeit im Aufsichtsrat von Apple vertreten, hat geschaltet, und sich ein Stück vom Kuchen geholt.
Anfangs hatte Google noch viel zu lernen, aber mittlerweile ist Android eindeutig Sieger. Etwa 90% aller Mobilgeräte laufen unter Android. Alle auf ARM-SoCs.
Der Witz ist, dass Google das prinzipielle OS (Android) kostenlos zur Verfügung stellt. Wer will, kann sich die passende Hardware dazu bauen. Und das passiert.
Wenn Apple Mac OS auch nur einigermaßen erfolgreich auf ARM -Rechnern laufen lässt und die Leute sowas kaufen, dann liegt für Google der Schritt doch irgendwie nahe, Apple auch beim Desktop Konkurrenz zu machen und ein Android-artiges Desktop-OS für die koreanischen und chinesischen Firmen zur freien Verfügung zu bauen.
[…]

Das macht leider keinen Sinn, denn google ist da längst! Nennt sich ChromeOS und ist, je nachdem wen man fragt: Relativ erfolgreich oder ein komplettes Nischenprodukt. Die Hardware dazu nennt sich "ChromeBooks" und kommt auch von anderen Herstellern als nur google.
Weiter hat google mit Fuchsia noch etwas laufen, wo niemand so recht weiss was da wirklcih mal rauskommen wird.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
-1
pünktchen
pünktchen22.06.2009:37
piik
Soweit ich das weiß hat ein guter Apple-ARM-Core etwa ein Viertel der Leistung eines der besten Intel-iX-Cores

Es wäre gut wenn du da mal irgendwelche Quellen für nennst. Alles was ich finden kann deutet eher darauf hin dass die etwa dieselbe Leistung bringen und dabei allenfalls halb soviel Strom brauchen. Sowohl die Benchmarks als auch die Geschwindigkeit von Anwendungssoftware auf iPad vs. MB.

Wir werden es heute Abend sehen aber es würde mich sehr wundern wenn Apple sich traut für einen geringeren Vorsprung seinen Kunden einen Plattformwechsel zumutet. Falls sie zB einen ARM-MBP 13'' vorstellen und dafür die Abwärme ihrer Mobilchips verdoppelt bis verdreifachen können und das Design gut skaliert dann erwarte ich vielleicht +25-50% Spitzenleistung eines Kerns und doppelt so viele Kerne = gut die doppelte Geschwindigkeit bei Ausnutzung aller Kerne. Also schneller als ein Intel-MBP 16''!

Und das wäre dann schon ein Argument was sich trotz mangelnder Kompatibilität mit alter Software und der Wintel/Lintel-Welt nicht so ganz von der Hand weisen lässt.
0
mikeboss
mikeboss22.06.2009:43
meldung von gestern: Ming-Chi Kuo expects the Mac models will offer performance improvements of 50-100% over their Intel predecessors.

50% mehrleistung gegenueber intel erwarte ich auch in etwa. 100% waere doppelt so schnell und das waere dann schon eine sensation.
+1
pünktchen
pünktchen22.06.2009:45
piik
Anfangs hatte Google noch viel zu lernen, aber mittlerweile ist Android eindeutig Sieger.

Solange 90% der Rendite bei Apple landen und sich die Androiden den Rest teilen müssen kann Apple das herzlich egal sein. Bei Laptops und Desktops würde es vielleicht nicht anders sein. Und das Argument der fehlenden X86-Kompatibilität hätte sich auch erledigt.
+1
LoCal
LoCal22.06.2009:47
piik
Soweit ich das weiß hat ein guter Apple-ARM-Core etwa ein Viertel der Leistung eines der besten Intel-iX-Cores (vielleicht auch etwas mehr - schwierig, belastbare Zahlen zu bekommen).

Was ist deine Quelle für die Annahme?
piik
Wenn man einen A-Chip nicht wie in einem Mobilgerät mal gelegentlich auslastet (die mittlere Auslastung ist relativ schwach, weshalb ein iPhone typischerweise kaum merkbar warm wird. Anders sieht es aus, wenn der SoC wirklich arbeiten muss, wie etwa schon bei der Navigation merkbar: iPhone wird heiß, auch das modernste, und der Akku geht so schnell in die Knie, dass man fast zuschauen kann), sondern voll, dann schluckt so ein Core bis zu 2W. Ein A13 Chip dürfte geschätzt etwa 5-10W schlucken.

Natürlich wir ein iPhone unter Belastung warm, denn das Gehäuse ist dicht und alles ist eng gepackt. Wo soll denn da die Abwärme hin?
Aber ein iPhone is kein MacBook mit grossem Gehäuse PLUS Öffnungen für eine Luftzirkulation!
piik
Er ist technologisch auch sonst nicht von schlechten Eltern, benötigt er doch fast 100mm2 Silizium bei kleinerer Strukturbreite als bei Intel. Ein moderner 10-Kerner von Intel hat rund 200mm2. Apple bietet 2 schnelle und 4 lahme Kerne.

Nur unterschlägst Du dabei, dass der A13Bionic wesentlich mehr Komponenten beherbergt als die Intel-CPU … der A13 ist ja nicht um sonst ein System-On-a-Chip ()!
piik
Da neben PCI und sonstiger Schnittstellentechnik auch noch einige mehr Kerne rein müssten, ist die Luft für eine Leistungssteigerung sehr dünn, da mehr Siliziumfläche die Ausbeute überproportional drosselt und so die Kosten steigert.

Warum müssen die "mit rein" … das kann durchaus so designed sein, dass Controller, die nur in einer Sparte benötigt werden, extern liegen.
piik
Aber angenommen, dass Apple die Fläche von 200mm2 gut nutzt und da 8 schnelle Kerne unterbringt und dass optimierte Kerne die halbe Leistung eines modernen i-Cores bringen, dann ist ein Desktop-A-Chip bei der Leistung eines i3-10300 bei einer TDP von etwa 20-50W. So der Brüller ist das nicht.

Wie kommst Du auf diese Werte? Würfeln?
piik
Sicher ist das noch steigerungsfähig. Die Intel-Technik ist das aber auch. Selbst wenn ich mich um den Faktor 2 verschätzt hätte, wäre so ein ARM-Chip auch nur einem i7-10700 vergleichbar. Vermutlich bei einem ganz ähnlichen Energieverbrauch.

Eher nicht!
piik
Außerdem ist noch gar nicht an Multithreading gedacht und sonstige Tricks.

Hä? Wie soll man denn das nun wieder verstehen? Oder verwechselst Du das mit Hyperthreading?
piik
Oder an eine deutlich längere Pipeline, die dann höhere Takte ermöglichen würde, was aber genau deswegen nicht mehr leistungsmä0ig linear skaliert.
Welche Patente da wichtig sind? Ich weiß es nicht, denn so stecke ich da nicht drin.

Dann solltest Du das nicht anbringen. Entweder Du weisst das und kannst es benennen oder du bringst es nicht an!
piik
Aber laut Auskunft meines Verwandten ist die Landschaft da arg mit Patenten gepflastert.

Was ist denn dein Verwanderter von Beruf?
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
+1
pünktchen
pünktchen22.06.2010:02
LoCal
Was ist denn dein Verwanderter von Beruf?
piik
Ich unke nicht nur, sondern habe meine Infos auch von einem Verwandten, der mit an der Software strickt, mit der heute CPUs entwickelt werden.
+1
LoCal
LoCal22.06.2010:06
pünktchen
LoCal
Was ist denn dein Verwanderter von Beruf?
piik
Ich unke nicht nur, sondern habe meine Infos auch von einem Verwandten, der mit an der Software strickt, mit der heute CPUs entwickelt werden.

Danke, das hatte ich überlesen … stellen sich trotzdem die Fragen:
- Für welchen Teil einer CPU wird mit dieser Software entwickelt?
- Welches Wissen von der CPU-Entwicklung muss man haben um diese Software zu entwickeln.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
-1
piik22.06.2018:39
LoCal
piik
Soweit ich das weiß hat ein guter Apple-ARM-Core etwa ein Viertel der Leistung eines der besten Intel-iX-Cores (vielleicht auch etwas mehr - schwierig, belastbare Zahlen zu bekommen).

Was ist deine Quelle für die Annahme?
Hatte ich irgendwo im Verlauf des langen Threads angegeben. Ist ein Vergleich aus dem Jahr 2018 gewesen mit Specint.
Mein Verwandter ist Software-Ingenieur bei einer Firma, die die Software für Chip-Schmieden entwickelt.
-1
piik22.06.2018:41
LoCal
[
piik
Er ist technologisch auch sonst nicht von schlechten Eltern, benötigt er doch fast 100mm2 Silizium bei kleinerer Strukturbreite als bei Intel. Ein moderner 10-Kerner von Intel hat rund 200mm2. Apple bietet 2 schnelle und 4 lahme Kerne.

Nur unterschlägst Du dabei, dass der A13Bionic wesentlich mehr Komponenten beherbergt als die Intel-CPU … der A13 ist ja nicht um sonst ein System-On-a-Chip ()!
Das ist einfach falsch. Wirklich falsch. Mehr Transistoren, ja, weil ARM einfach vieles mit viel Transistoren erschlägt, auch erfolgreich. Trotzdem hat eine Intel-CPU wesentlich mehr integrierte Funktionseinheiten. Fakt.
-3
piik22.06.2018:42
LoCal
piik
Aber angenommen, dass Apple die Fläche von 200mm2 gut nutzt und da 8 schnelle Kerne unterbringt und dass optimierte Kerne die halbe Leistung eines modernen i-Cores bringen, dann ist ein Desktop-A-Chip bei der Leistung eines i3-10300 bei einer TDP von etwa 20-50W. So der Brüller ist das nicht.

Wie kommst Du auf diese Werte? Würfeln?
Spar Dir den unberechtigten Spott. Falls dir Wikipedia was sagt. Kannst Du alles selber nachlesen.
-1
piik22.06.2018:44
LoCal
piik
Außerdem ist noch gar nicht an Multithreading gedacht und sonstige Tricks.

Hä? Wie soll man denn das nun wieder verstehen? Oder verwechselst Du das mit Hyperthreading?
Ja sorry, habs verwechselt. Hyperthreading gemeint. Spar dir deinen Spott.
-2
piik22.06.2018:45
pünktchen
piik
Anfangs hatte Google noch viel zu lernen, aber mittlerweile ist Android eindeutig Sieger.

Solange 90% der Rendite bei Apple landen und sich die Androiden den Rest teilen müssen kann Apple das herzlich egal sein. Bei Laptops und Desktops würde es vielleicht nicht anders sein. Und das Argument der fehlenden X86-Kompatibilität hätte sich auch erledigt.
Ich habe nicht von der Rendite bei Geräten geredet. Googels Rendite liegt in seinen Daten. Und in der Marktdurchdringung.
-3
piik22.06.2018:47
Jedenfalls wird es spannend, ob ich gleich "mea culpa" rufen muss und mich in den Staub werfen
0
pünktchen
pünktchen22.06.2018:50
piik
Hatte ich irgendwo im Verlauf des langen Threads angegeben. Ist ein Vergleich aus dem Jahr 2018 gewesen mit Specint.

Nö hast du nicht. Alle hier verlinkten Specint-Vergleiche kommen zu ganz anderen Ergebnissen.
+2
LoCal
LoCal22.06.2020:52
piik
LoCal
[
piik
Er ist technologisch auch sonst nicht von schlechten Eltern, benötigt er doch fast 100mm2 Silizium bei kleinerer Strukturbreite als bei Intel. Ein moderner 10-Kerner von Intel hat rund 200mm2. Apple bietet 2 schnelle und 4 lahme Kerne.

Nur unterschlägst Du dabei, dass der A13Bionic wesentlich mehr Komponenten beherbergt als die Intel-CPU … der A13 ist ja nicht um sonst ein System-On-a-Chip ()!
Das ist einfach falsch. Wirklich falsch. Mehr Transistoren, ja, weil ARM einfach vieles mit viel Transistoren erschlägt, auch erfolgreich. Trotzdem hat eine Intel-CPU wesentlich mehr integrierte Funktionseinheiten. Fakt.

Nein, Du hast nicht verstanden was SoC bedeutet!
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
+1
sockenpuppe_23422.06.2020:53
Peter Eckel
macbeutling
Ist das wirklich noch so?
Ganz klar ja.

Zum einen gibt es viel branchenspezifische Software, die nicht unter macOS läuft und vermutlich auch nie unter macOS laufen wird. Zum zweiten ist "Virtualisierung" nicht nur "Windows", sondern das Feature wird viel weitergehend benötigt. Viele Kollegen und auch ich z.B. virtualisieren ganze Umgebungen mit mehreren Linux-Systemen für Test- und Entwicklungszwecke (Vagrant ist hier eines der Tools, die zum Einsatz kommen). Wenn die Möglichkeit wegfiele, bliebe diesen Nutzern nur eine Migration zu Linux oder Windows - wobei Windows dafür wenig Sinn hat, auch wenn es geht.
Diesmal ist beim Wechsel ein "Virtualisation" gleich mit an Bord. Ich glaube, sie haben Dich gehört! 😊👍
+3
pünktchen
pünktchen22.06.2020:53
Tja da werden wir wohl noch ein paar Monate über die Leistung der Prozessoren der Arm-Macs spekulieren können.
0
LoCal
LoCal22.06.2020:56
piik
LoCal
piik
Aber angenommen, dass Apple die Fläche von 200mm2 gut nutzt und da 8 schnelle Kerne unterbringt und dass optimierte Kerne die halbe Leistung eines modernen i-Cores bringen, dann ist ein Desktop-A-Chip bei der Leistung eines i3-10300 bei einer TDP von etwa 20-50W. So der Brüller ist das nicht.

Wie kommst Du auf diese Werte? Würfeln?
Spar Dir den unberechtigten Spott. Falls dir Wikipedia was sagt. Kannst Du alles selber nachlesen.

Seit wann stehen auf Wikipedia Werte zu nicht existenten, von Dir zusammen fantasierten ARM-CPUs von Apple!
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
-1
LoCal
LoCal22.06.2020:57
Da das DTK den gleichen A12Z Bionic des iPad Pro nutzt und man in der Präsentation wohl deutlich die Leistungsfähigkeit auf einem Desktop gesehen hat, dürfte sich die Eignung des A12 als Desktop-CPU sich wohl gezeigt haben.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
Johnny6522.06.2021:03
Naja, dass gezielt dafür kompilierte Apps, die zudem noch einen Großteil der Codebasis von iOS / iPadOS übernehmen, darauf performant laufen, finde ich jetzt noch nicht soo überraschend. Zumal da jetzt für mein Empfinden nichts dabei war, was wirklich Power schluckt.

Ich bin sehr gespannt, was erste Benchmarks und Praxiserfahrungen über diese "Rosetta 2"-Übersetzungen aussagen werden. Sieht nur so aus als könnten wir darauf noch ziemlich lange warten.

Außerdem scheint mir ziemlich klar zu sein, dass die Rückwärtskompatibiltät dieses Mechanismus nicht sehr weit reichen wird. Wahrscheinlich bestenfalls alles, was klaglos unter Catalina läuft.
+2
gfhfkgfhfk22.06.2021:08
LoCal
Da das DTK den gleichen A12Z Bionic des iPad Pro nutzt und man in der Präsentation wohl deutlich die Leistungsfähigkeit auf einem Desktop gesehen hat, dürfte sich die Eignung des A12 als Desktop-CPU sich wohl gezeigt haben.
Ach LoCal, man hat da in erster Linie grafiklastige Dinge gesehen, und das hängt fast nur von der GPU ab. Das die nicht schlecht ist, ist bekannt. Aber einen 4k Videostream flüssig abzuspielen schafft auch ein Raspberry Pi 4, und der hat eine relativ langsame GPU.
0
LoCal
LoCal22.06.2021:33
gfhfkgfhfk
LoCal
Da das DTK den gleichen A12Z Bionic des iPad Pro nutzt und man in der Präsentation wohl deutlich die Leistungsfähigkeit auf einem Desktop gesehen hat, dürfte sich die Eignung des A12 als Desktop-CPU sich wohl gezeigt haben.
Ach LoCal, man hat da in erster Linie grafiklastige Dinge gesehen, und das hängt fast nur von der GPU ab. Das die nicht schlecht ist, ist bekannt. Aber einen 4k Videostream flüssig abzuspielen schafft auch ein Raspberry Pi 4, und der hat eine relativ langsame GPU.

Es waren 3 4K Streams, die in FCP parallel liefen.
Und die, sehr kurze, Maya-Demo war ja bestimmt auch nur gefaked.

Du heißt nicht zufällig Thomas?
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
gfhfkgfhfk22.06.2022:40
LoCal
Und die, sehr kurze, Maya-Demo war ja bestimmt auch nur gefaked.
Das was man in Maya gesehen hat, war fast zu 100% von der GPU abhängig. Dazu wird die Szene nicht übermäßig komplex. D.h. man sieht hier nur, dass eine halbwegsbrauchbare GPU im SoC vorhanden ist. Aber auch nichts besonderes.
-1
gggfam22.06.2022:48
gfhfkgfhfk
D.h. man sieht hier nur, dass eine halbwegsbrauchbare GPU im SoC vorhanden ist. Aber auch nichts besonderes.
Ich denke es ist nun klar, dass die A CPUs von Apple stark genug für MacOS sind, wenn sogar Mac Minis mit A12Z an Entwickler gesendet werden, die das Ding von oben bis unten benchmarken werden.
Nicht alles war grafiklastig und nur von der GPU abhängig. Alles lief ohne Ruckler.
+3
Maniacintosh
Maniacintosh22.06.2023:23
gggfam

Naja, natürlich lief alles ohne Ruckler. Wenn es Dinge gibt, die ruckeln, werden die diese sicher nicht für die Präsentation nutzen. Und auch wenn ich es nicht glaube: Es ist ein vorproduziertes Video gewesen, alles was wir gesehen haben könnte auch gerendert gewesen sein.

Interessant ist eher, was Apple nicht gesagt und nicht gezeigt hat. Konkrete Zahlen zu Leistung oder Leistung pro Watt gab es im Vergleich zum Intel-Switch nicht. Man hat ein Virtualisierung von Linux (vermutlich ein ARM-Linux) gezeigt, aber kein Wort zu Windows.

Viel spannender: Das DTK soll kein Thunderbolt 3 haben, wie schließt Apple dann das Pro Display XDR an? 🤔 Laut Apple braucht es TB3 als Upstream zum Display...

Eigentlich habe ich nun noch mehr Fragen als noch vor der Keynote.
+2
mikeboss
mikeboss22.06.2023:37
genau das haette ich auch unbedingt wissen wollen! war das in der demo nun ein Debian fuer arm64 oder amd64 oder i386???

das DTK hat definitiv kein Thunderbolt:

+2
gggfam22.06.2023:37
Maniacintosh
Naja, natürlich lief alles ohne Ruckler. Wenn es Dinge gibt, die ruckeln, werden die diese sicher nicht für die Präsentation nutzen. Und auch wenn ich es nicht glaube: Es ist ein vorproduziertes Video gewesen, alles was wir gesehen haben könnte auch gerendert gewesen sein.
Gerade läuft die State of the Union und sie zeigen sehr viel macOS und alles läuft super flüssig.
Ich bezweifle, dass das alles gerenderte Videos sind, zumal wir in wenigen Tagen von Entwicklern hören werden, wie gut der Mac mini schon läuft.
+2
piik22.06.2023:43
LoCal
Da das DTK den gleichen A12Z Bionic des iPad Pro nutzt und man in der Präsentation wohl deutlich die Leistungsfähigkeit auf einem Desktop gesehen hat, dürfte sich die Eignung des A12 als Desktop-CPU sich wohl gezeigt haben.
Was du so alles siehst
-2
Maniacintosh
Maniacintosh22.06.2023:57
gggfam

Ich schrieb ja, dass ich das nicht glaube. Dennoch werden die auch auf der State of the Union genau wissen, was sie zeigen dürfen, weil es läuft und was auf keinen Fall, weil es crasht, ruckelt oder andere Fehler/Glitches verursacht. Es geht ja darum die neue Plattform auch gut aussehen zu lassen.

Um das Tempo der nativen Apps mache ich mir auch keine wirklichen Sorgen. Spannender wird eher, was wann nativ vorliegen wird - und auch hier wird Apple liefern. So wie es klang Adobe und MS auch. Aber was ist mit Phase One? Was ist mit Native Instruments? Was ist mit meinen Spielen bei Steam? Was ist mit vielen vielen kleinen Helferlein von kleinen Entwicklern?

Und die Frage der Emulation von ganzen x86-VMs ist halt noch offen: Geht das überhaupt? Rosetta 2 wird es nicht können, Apple hat 32bit nicht ohne Grund mit Catalina rausgeworfen, so ist man diese Baustelle los. Und selbst wenn: Es klang so als wenn die Übersetzung diesmal nicht on the fly sondern bei der Installation einmalig erfolgt. Das verträgt sich nicht wirklich mit einem komplett virtualisiertem/emulierten Betriebssystem mit vielen eigen Apps darin.
+3
AppleUser2013
AppleUser201323.06.2000:27
warum hat das dev kit kein Thunderbolt?... Wie soll man Treiber für TB Hardware schreiben, wenn es kein TB gibt????
0
Weia
Weia23.06.2000:41
AppleUser2013
warum hat das dev kit kein Thunderbolt?
Weil es im A12Z keins gibt? Das steckte im Intel-Chipsatz …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
mikeboss
mikeboss23.06.2001:28
ok, kein allzugrosses kunstwerk: Parallels greift auf den macOS-internen hypervisor zurueck, das Debian in der demo war aarch64:

0
gfhfkgfhfk23.06.2007:27
AppleUser2013
warum hat das dev kit kein Thunderbolt?... Wie soll man Treiber für TB Hardware schreiben, wenn es kein TB gibt????
Weil der Apple SoC weder einen TB3 Controller noch PCIe Lanes hat. Übrigens fressen die PCIe Lanes nicht gerade wenig Strom.
+2
beanchen23.06.2008:14
Ist das dann schon wieder das Ende von Thunderbolt oder kommt da noch was?
„Unterwegs in Analogistan: https://www.zdf.de/comedy/heute-show/heute-show-spezial-vom-19-januar-2024-100.html“
0
LoCal
LoCal23.06.2008:59
beanchen
Ist das dann schon wieder das Ende von Thunderbolt oder kommt da noch was?

Dass Apple Thunderbolt aufgibt halte ich für unwahrscheinlich. Es dürfte eher so sein, dass das DTK, warum auch immer, nicht hergibt. Mehr Klarheit dürfte nach den ersten Teardowns herrschen.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
StraightEdge89
StraightEdge8923.06.2009:17
vermutlich kommt dann mit den ARM-Macs USB 4 (welches ja TB3 integriert hat)
+2
piik23.06.2010:02
StraightEdge89
vermutlich kommt dann mit den ARM-Macs USB 4 (welches ja TB3 integriert hat)
Und schon hat man einen Stromfresser mehr. Bisherige A-Chips haben USB 2.0
+2
LoCal
LoCal23.06.2010:19
piik
StraightEdge89
vermutlich kommt dann mit den ARM-Macs USB 4 (welches ja TB3 integriert hat)
Und schon hat man einen Stromfresser mehr. Bisherige A-Chips haben USB 2.0

Und bei Intel ist der Strombedarf für USB4/TB3 niedriger?
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
-3
gfhfkgfhfk23.06.2010:45
LoCal
Und bei Intel ist der Strombedarf für USB4/TB3 niedriger?
Das erklärt den höheren Stromverbrauch einer Intel CPU in Relation zu den Apple SoCs. Baut man die notwendigen Controller auch in einen Apple SoC ein, verbraucht der auch deutlich mehr Strom. Z.B. hat der Intel TB3 Controller mit zwei Ports eine TDP von 2,2W. Ein PCIe Root-Complex verbraucht auch zusätzlich Strom, so dass man ganz schnell deutlich mehr Strom verbraucht, wenn man in den Apple SoC TB3 integrieren würde, ohne das man zusätzliche Leistung erhalten würde.
+2
LoCal
LoCal23.06.2010:57
gfhfkgfhfk
LoCal
Und bei Intel ist der Strombedarf für USB4/TB3 niedriger?
Das erklärt den höheren Stromverbrauch einer Intel CPU in Relation zu den Apple SoCs. Baut man die notwendigen Controller auch in einen Apple SoC ein, verbraucht der auch deutlich mehr Strom. Z.B. hat der Intel TB3 Controller mit zwei Ports eine TDP von 2,2W. Ein PCIe Root-Complex verbraucht auch zusätzlich Strom, so dass man ganz schnell deutlich mehr Strom verbraucht, wenn man in den Apple SoC TB3 integrieren würde, ohne das man zusätzliche Leistung erhalten würde.

Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird. Und auch, dass bei steigender CPU-Belastung der Strombedarf für TB3 usw steigt, ausser natürlich TB3 hängt aktiv in der Verbraucherkette.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
-3
A500
A50023.06.2012:02
Einen Architekturwechsel sind wir ja alle schon gewohnt und das erschreckt heutzutage auch keinen Apple Nutzer wirklich. Was jedoch spannend wird, ist die Leistung dieser Chips im Vergleich zu den am Markt verfügbaren Mitbewerbern. Ein Mac Pro kann ja jetzt schon nicht mit einem Ryzen TR 64core mithalten.

Wie soll das mit einer ARM Architektur also so schnell so weit voran kommen?

Es bleibt spannend und wir alle werden die Geräte wie immer kaufen
0
cps23.06.2012:03
LoCal
Es ist mir neu, dass bei den Watt angaben für eine CPU die Peripherie mit eingerechnet wird.

Wenn die Peripherie in der CPU verbaut ist, was ja bei einem SoC der Fall ist, dann schon, wie will man das auch trennen. Die Abwärme entsteht da ja auch und belastet das thermische Budget des SoCs.
+3

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.