Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Hardware
>
ARM-Macs, haben wir damit 99.9% Sicherheit, dass sie kommen?
ARM-Macs, haben wir damit 99.9% Sicherheit, dass sie kommen?
LoCal
09.06.20
13:07
Also wenn Mark Gurman so deutlich darüber schreibt, dann dürfte es eine ausgemachte Sache sein!
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
0
Kommentare
|<
1
2
3
4
5
6
7
>|
pünktchen
17.06.20
12:00
piik
Der da als schnellste ARM-CPU bezeichnete Prozessor liefert pro Core etwa 14 Specint-Punkte. Ein Intel-Core ist beim Vierfachen dessen. Es sind noch Welten zwischen einer ARM-basierten CPU und einer auf X86-Basis.
Mir ist nicht ganz klar worauf du dich da beziehst aber der A13 Lightning Core kommt auf immerhin 57 Punkte im SPECint2006. Sogar die sparsamen Thunder Cores kommen schon auf 24 Punkte.
Hilfreich?
0
pünktchen
17.06.20
12:09
gfhfkgfhfk
Es ist schon merkwürdig, wenn jemand im Jahr 2019 Zahlen für SpecCPU 2006 anführt, obwohl es mit SpecCPU 2017 einen wesentlich neueren Benchmark gibt. Warum macht man das?
Weil Zeit:
Anandtech
I’m still falling back to SPEC2006 for the time being as I hadn’t had time to port and test 2017 for mobile devices yet – it’s something that’s in the pipeline for the near future.
gfhfkgfhfk
Moderne CPUs sind in erster Linie durch die Speicherbandbreite limitiert, die Ergebnisse von Benchmarks hängen nicht nur von der CPU-Leistung ab, sondern in erster Linie davon wie groß die Daten sind. Sind die Daten klein, wird auch mit einem Trivialalgorithmus eine enorme Rechenleistung erzielt, weil der Benchmark komplett im Cache läuft. Wir wissen nicht, wie groß die Daten im Falle von Geekbench sind, und wir wissen, das SpecCPU 2006 gerade wegen der Cacheproblematik in der Kritik stand.
Dazu kommt die Turboproblematik. Die CPUs takten kurz sehr hoch, und Geekbench kommt dem sehr entgegen, weil die Testdauer sehr kurz ist.
Ich sehe das Problem aber wenn man eben die maximale Geschwindigkeit eines Cores und nicht seine Speicheranbindung oder die Leistungsfähigkeit der Kühlung messen möchte ist das doch gar nicht so falsch. Man muss nur wissen was man gemessen hat. Wobei ja die Ax-Prozessoren zumindest bei Geekbench gerade bei den Speichertest glänzen. So schlecht kann die Speicheranbindung doch dann nicht sein, oder? Und eine TDP von etwa 5W lässt sich auch leichter kühlen als eine von 25W.
Hilfreich?
0
LoCal
17.06.20
12:12
gfhfkgfhfk
Es scheint mir, dass Dich das Thema intellektuell überfordert.
Oh … ganz grosses Diskussionskino.
gfhfkgfhfk
Wo bitte ist dort die Größe der Matrizen für SGEMM, SFFT Test angeführt? Passen die drei notwendigen Matrizen komplett in den L1 Cache vom iPad, macht das einen enormen Unterschied in der Rechenleistung. Das gilt für alle anderen Tests im gleichen Maße. Es fehlen die notwendigen Informationen, um die Qualität des Benchmarks beurteilen zu können.
Das trifft auf eine Einzelbetrachtung druchaus zu, aber wenn ich einen Vergleich anstelle, dann kann ich durchaus die Werte der verschiedenen CPUs hernehmen um einschätzen zu können, dass eine CPU wohl auf annähernd gleichem Niveau ist, die in Millionen von Desktoprechnern schon verbaut ist.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
-2
mikeboss
17.06.20
12:13
Apples ARM basierte CPUs sind lahme gurken.
Apple kriegt es keinesfalls gebacken eine vernuenftige desktop- oder laptop-CPU auf die beine zu stellen.
alle benchmarks sind bullshit und haben null aussagekraft.
jaja...
Hilfreich?
-6
pünktchen
17.06.20
12:15
pünktchen
der A13 Lightning Core kommt auf immerhin 57 Punkte im SPECint2006. Sogar die sparsamen Thunder Cores kommen schon auf 24 Punkte.
Korrektur - geometrisches Mittel und nicht arithmetisches Mittel. Macht dann 53 statt 57 Punkte für den Lightning Core.
Hilfreich?
0
gfhfkgfhfk
17.06.20
13:55
pünktchen
So schlecht kann die Speicheranbindung doch dann nicht sein, oder?
Wenn die Datensätze zu klein sind, wird nur der Durchsatz des Caches gemessen. Woher wissen wir, was Geekbench wirklich für iOS ermittelt?
Hilfreich?
+1
pünktchen
17.06.20
14:23
Werte zur Speichergeschwindigkeit liefert der Geekbench 5 anders als GB 4 ja gar nicht mehr sehe ich gerade.
Wie gross die Datensätze bei GB 5 sind steht hier ab Seite 20:
- zwischen 2 und 269 MB Single Core, bis zu 487 MB Multi Core. Da finden sich auch Zahlen zu "cache hit and miss rates" am Beispiel eines Core i5-6400. Wobei ich die nicht verstehe, vielleicht kannst du ja mehr mit anfangen.
Hilfreich?
0
gfhfkgfhfk
17.06.20
14:31
LoCal
Oh … ganz grosses Diskussionskino.
Du bist jetzt mehrfach darauf hingewiesen worden, dass Deine Argumentation Schwachpunkte aufweist. Anstatt Argumente zu liefern, wirst Du unfreundlich. Nein, in den von Dir verlinkten Quellen sind die Informationen eben nicht zu finden.
Hilfreich?
+3
pünktchen
17.06.20
15:07
PS, was ich nicht verstehe: wenn die Tabelle auf S. 25 tatsächlich die Anzahl der nicht erfolgreichen Cache Zugriffe in % angibt, dann wären zB bei AES-XTS alle Instruktionen im L1 Cache, 99.6% aller Daten im L1, weitere 0,3856 % im L2 Cache und vom Rest das meiste nochmal im L3 Cache so dass am Ende nur 0,0013824% aller Speicherzugriffe auf den Hauptspeicher zugreifen müssen. Und das bei knapp 269 MB working set size und nur gut 6 MB Cache. Kann doch nicht sein oder? Oder sind das nicht doch die erfolgreichen Cache Zugriffe, müsste da also Hit statt Miss drüber stehen?
Hilfreich?
0
pünktchen
17.06.20
16:19
Auch ARM schläft nicht und will mit dem Cortex X1 bei den schnelleren Prozessoren mitspielen.
Gemessene bzw. bei ARM erwartete SpecInt2006 Werte, leicht gerundet:
59 - Intel Core 10900K
53 - Apple A13
50 - AMD Ryzen 3950x
47 - ARM Cortex X1
(Zahlen: letzte Grafik)
What’s really shocking here is how close Arm would be getting to Intel and AMD’s current best desktop systems in terms of performance.
Hilfreich?
0
bmonno
17.06.20
23:19
Ich habe es anders in Erinnerung, allein das Starten ... Vielleicht musste ich auch andere Dinge damit erledigen. Der Vorteil der jetzige Virtualisierung ist halt geringer Geschwindigkeitsverlust.
Zu dem Thema gibt es aber einen netten Artikel bei Heise "Windows on ARM: Microsoft soll an x64-Emulation arbeiten"
. Ist 6 Monate alt, man ist inzwischen sicher weiter. Quintessenz:
x64 auf ARM64 ist ein schwieriges Unterfangen
Man hat es noch nicht richtig hinbekommen. Das müsste dann der Hersteller einer X64-Emulation schaffen. Ich befürchte auch, dass einige Softwareentwickler abspringen, da der Apple-Markt immer noch klein ist. Warten wir es ab.
pünktchen
bmonno
Ich durfte mal VirtualPC auf PPC nutzen, schnarchlangsam mit Win98!
Es war schnell genug um die Telefonanlage zu bedienen die Steuererklärung zu bearbeiten oder sonst irgendwelche Spezialprogramme zu nutzen wo es nicht gerade auf Geschwindigkeit ankam. Etwa 1/5 der Geschwindigkeit blieben über. Aber wenn die neuen ARM Macs auch nur ein kleines bisschen fixer sind als die aktuellen Intel Modelle dann sollte das immerhin reichen um in der Emulation auf die Geschwindigkeit der ersten Macs mit i5/i7 von 2010 zu kommen. Und die konnte man schon benutzen.
Hilfreich?
+1
LoCal
18.06.20
09:26
gfhfkgfhfk
LoCal
Oh … ganz grosses Diskussionskino.
Du bist jetzt mehrfach darauf hingewiesen worden, dass Deine Argumentation Schwachpunkte aufweist.
Ja?
LoCal
Anstatt Argumente zu liefern, wirst Du unfreundlich.
Nein, nur beleidigen muss ich mich auch nicht lassen!
LoCal
Nein, in den von Dir verlinkten Quellen sind die Informationen eben nicht zu finden.
Doch, nur glaube ich, dass wir aneinander vorbeireden.
Was ich meinte sind Test wie das HTML5-Parsen, PDF-Rendering, usw. also Tests, die näher an der "praktischen" Realität als eher theoretische Messwerte für z.B. Speicherdurchsatz usw.
Weiter kann ich bei Geekbench nur eine Aussagekraft erkennen, wenn da mehrere CPUs zum Vergleich stehen.
Um es vielleicht mal in einen anderen Kontext zu bringen:
Stell Dir vor es ist Kindergeburtstag und es gibt ein Veggie-Würstchen-Wettessen zwischen drei Kindern.
Armin isst 5,5 Würstchen
Inge isst 5 Würstchen
Amelie isst 6 Würsten
Mir genügt es nun, dass ich weiss, wer da die meisten gegessen hat.
Dich interessiert eigentlich erstmal nur, wieviele Armin gegessen hat, ob es die Alnatura Mini-Veggie-Wiener, die VeggieLife Wiener oder ob es die Frankenberger von Wheaty waren und in welchen Öl/Fett die in der Pfanne gebraten wurden. Weiter interessiert dich, ob bei Armin schon alle Zähne da sind oder ob er gar schon zweite Zähne hat.
Und noch nur um es noch mal in Erinnerung zu rufen … ich habe die Benchmarks nur angebracht, weil
piik hier rumgepoltert hat, dass die
piik
bisherigen A-Chips von Apple taugen nullkommaüberhauptnicht für einen Laptop und schon gleich überhaupt nicht für einen Desktop
.
Und:
piik
Ich habe schon genug Indizien dafür geliefert, was problematisch an Deinem wishfull thinking ist. Belege also Du, was einen A-Chip so simpel zum gleichwertigen Ersatz macht. Bisher hast Du es nicht gekonnt, weil Du das eben einfach nicht kannst. Die Fakten sprechen dagegen.
Mal abgesehen davon, dass ich von
piik nicht ein "Indiz" gelesen habe ausser sowas wie
piik
Ein ARM-SoC ist nun mal keine CPU, sondern nur ein kleiner Teil davon
Was für mich keine Sinn macht.
Und jetzt noch mal, damit es klar wird:
Die Benchmarks habe ich aus dem Grund genannt, weil piik mir vorgehalten hat, dass ich für meine Behauptung keine Beweise/Hinweise habe. Rein von der Logik her gibt es keinen Beweis dafür, weil es gibt aktuell weder ein MacBook noch einen iMac/Mac mini mit ARM zu kaufen.
ABER, der Geekbench gibt durch den Vergleich mit einer Intel Desktop CPU den Hinweis, dass er in "Alltagsaufgaben" der Intel CPU relativ ebenbürtig ist.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
+1
Kronar (back)
18.06.20
10:02
bmonno
Es war schnell genug um die Telefonanlage zu bedienen die Steuererklärung zu bearbeiten oder sonst irgendwelche Spezialprogramme zu nutzen wo es nicht gerade auf Geschwindigkeit ankam. Etwa 1/5 der Geschwindigkeit blieben über. Aber wenn die neuen ARM Macs auch nur ein kleines bisschen fixer sind als die aktuellen Intel Modelle dann sollte das immerhin reichen um in der Emulation auf die Geschwindigkeit der ersten Macs mit i5/i7 von 2010 zu kommen. Und die konnte man schon benutzen.
Wenn man aber eine Linux VM mit einer OracleDB braucht, hat man leider verloren....Da reicht die Performance nicht mehr aus...Auch Crossover / Wine wäre sofort tot, und damit etliche professionelle Anwendungen wie den Enterprise Architect, die nicht mehr nutzbar wären...
Gruß
Kronar
Hilfreich?
+3
gfhfkgfhfk
18.06.20
10:18
pünktchen
Werte zur Speichergeschwindigkeit liefert der Geekbench 5 anders als GB 4 ja gar nicht mehr sehe ich gerade.
Wie gross die Datensätze bei GB 5 sind steht hier ab Seite 20:
- zwischen 2 und 269 MB Single Core, bis zu 487 MB Multi Core.
Danke, endlich etwas Handfestes.
pünktchen
PS, was ich nicht verstehe: wenn die Tabelle auf S. 25 tatsächlich die Anzahl der nicht erfolgreichen Cache Zugriffe in % angibt, dann wären zB bei AES-XTS alle Instruktionen im L1 Cache, 99.6% aller Daten im L1, weitere 0,3856 % im L2 Cache und vom Rest das meiste nochmal im L3 Cache so dass am Ende nur 0,0013824% aller Speicherzugriffe auf den Hauptspeicher zugreifen müssen. Und das bei knapp 269 MB working set size und nur gut 6 MB Cache. Kann doch nicht sein oder? Oder sind das nicht doch die erfolgreichen Cache Zugriffe, müsste da also Hit statt Miss drüber stehen?
Die CPU liest nicht einzelne Daten aus dem Speicher, sondern immer Cache Lines. Bei den aktuellen Intel CPUs ist eine Cache Line 64Byte groß. Infos zum Core i5-6400 finden sich
hier
. L1 (32kB Instruction, 32kB Data), L2 256kB pro Core, L3 6MB.
Der Apple A12 hat 8MB L2 Cache. Schaut man sich die Liste an, dann laufen Rigid Body Physics, Gaussian Blur, Face Detection und SQLite auch beim A12 komplett im Cache. Ray Tracing, N-Body Physics, und Clang liegen beim Core i5-6400 bei <= 2%. Insgesamt sind es 21 Tests, bei 7 liegt die L3 Cache Miss Rate niedrig (<= 2%), bei 7 weiteren Test liegt sie bei <15%.
Durch die Cache Lines ist das so, dass man beim linearen Lesen von Bytes, nur eine Cache Miss Rate von 1,6% ( = 1/64) bekommt, über alle drei Caches. Sobald das erste Byte gelesen wird, holt die CPU gleich 64Bytes. D.h. ein Miss und danach 63 Hits. Wenn man sich die Tabelle anschaut z.B. „clang“ sieht man, dass die L3 Miss Rate etwas über den 1.6% liegt, d.h. der Compiler (clang) arbeitet die Daten nahezu linear ab. Aber die 256kB L2 Cache reichen für das Parsen der Dateien anscheinend nicht aus, während für die direkte Codeverarbeitung der L1 Cache groß genug scheint.
Hilfreich?
+5
peler1977
18.06.20
11:10
https://www.blick.ch/digital/pc-laptops/am-montag-grosse-key note-iphone-prozessoren-auch-fuer-macs-apple-plant-wohl-chip -revolution-und-wirft-intel-raus-id15942833.html
Hilfreich?
-1
LoCal
18.06.20
11:27
gfhfkgfhfk
pünktchen
Werte zur Speichergeschwindigkeit liefert der Geekbench 5 anders als GB 4 ja gar nicht mehr sehe ich gerade.
Wie gross die Datensätze bei GB 5 sind steht hier ab Seite 20:
- zwischen 2 und 269 MB Single Core, bis zu 487 MB Multi Core.
Danke, endlich etwas Handfestes.
pünktchen
PS, was ich nicht verstehe: wenn die Tabelle auf S. 25 tatsächlich die Anzahl der nicht erfolgreichen Cache Zugriffe in % angibt, dann wären zB bei AES-XTS alle Instruktionen im L1 Cache, 99.6% aller Daten im L1, weitere 0,3856 % im L2 Cache und vom Rest das meiste nochmal im L3 Cache so dass am Ende nur 0,0013824% aller Speicherzugriffe auf den Hauptspeicher zugreifen müssen. Und das bei knapp 269 MB working set size und nur gut 6 MB Cache. Kann doch nicht sein oder? Oder sind das nicht doch die erfolgreichen Cache Zugriffe, müsste da also Hit statt Miss drüber stehen?
Die CPU liest nicht einzelne Daten aus dem Speicher, sondern immer Cache Lines. Bei den aktuellen Intel CPUs ist eine Cache Line 64Byte groß. Infos zum Core i5-6400 finden sich
hier
. L1 (32kB Instruction, 32kB Data), L2 256kB pro Core, L3 6MB.
Der Apple A12 hat 8MB L2 Cache. Schaut man sich die Liste an, dann laufen Rigid Body Physics, Gaussian Blur, Face Detection und SQLite auch beim A12 komplett im Cache. Ray Tracing, N-Body Physics, und Clang liegen beim Core i5-6400 bei <= 2%. Insgesamt sind es 21 Tests, bei 7 liegt die L3 Cache Miss Rate niedrig (<= 2%), bei 7 weiteren Test liegt sie bei <15%.
Durch die Cache Lines ist das so, dass man beim linearen Lesen von Bytes, nur eine Cache Miss Rate von 1,6% ( = 1/64) bekommt, über alle drei Caches. Sobald das erste Byte gelesen wird, holt die CPU gleich 64Bytes. D.h. ein Miss und danach 63 Hits. Wenn man sich die Tabelle anschaut z.B. „clang“ sieht man, dass die L3 Miss Rate etwas über den 1.6% liegt, d.h. der Compiler (clang) arbeitet die Daten nahezu linear ab. Aber die 256kB L2 Cache reichen für das Parsen der Dateien anscheinend nicht aus, während für die direkte Codeverarbeitung der L1 Cache groß genug scheint.
Und was sagt das für dich jetzt als Eignung/Nichteignung als Laptop/Desktop-CPU aus?
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
-1
pünktchen
18.06.20
14:49
gfhfkgfhfk
Sobald das erste Byte gelesen wird, holt die CPU gleich 64Bytes. D.h. ein Miss und danach 63 Hits.
Ah danke. Nicht das ich die Zahlen jetzt wirklich verstehen würde, aber ich verstehe wieso ich sie nicht verstehe.
gfhfkgfhfk
Insgesamt sind es 21 Tests, bei 7 liegt die L3 Cache Miss Rate niedrig (<= 2%), bei 7 weiteren Test liegt sie bei <15%.
Zum Vergleich mal Daten von Spec2017:
Quelle:
gemessen auf einem Intel Xeon mit 12 Kernen und 30 MB L3 Cache.
Scheint mir etwas schlechter in den Cache zu passen als bei Geekbench.
Und der Vergleich von Spec2017 mit Spec2006:
=> was die Ausnutzung des Cache angeht scheinen sich beide nicht viel zu nehmen!
Gut fünf mal so gross ist aber der Speicherverbrauch. Wobei der dann bis zu 15 GiB hochgeht, vielleicht ein guter Grund Spec2017 nicht für Mobilgeräte anzuwenden deren Hauptspeicher da gar nicht für ausreicht?
Hilfreich?
+1
bmonno
18.06.20
18:40
Das war kein Zitat von mir, sondern von
pünktchen. Ich stimme dir da voll zu, nur
pünktchen meint, das wird schon klappen.
Ich denke, man sollte sich auch ein wenig Gedanken über Software-Versorgung machen. Wer mit den Apple-Apps jetzt arbeitet, wird kein Problem haben, aber der Rest? Microsoft arbeitet an der X64-Emulation für ARM, weil zu wenig 64bit-ARM-Software angeboten wird. Auch Adobe hat wohl noch nicht geliefert.
Kronar (back)
bmonno
Es war schnell genug um die Telefonanlage zu bedienen die Steuererklärung zu bearbeiten oder sonst irgendwelche Spezialprogramme zu nutzen wo es nicht gerade auf Geschwindigkeit ankam. Etwa 1/5 der Geschwindigkeit blieben über. Aber wenn die neuen ARM Macs auch nur ein kleines bisschen fixer sind als die aktuellen Intel Modelle dann sollte das immerhin reichen um in der Emulation auf die Geschwindigkeit der ersten Macs mit i5/i7 von 2010 zu kommen. Und die konnte man schon benutzen.
Wenn man aber eine Linux VM mit einer OracleDB braucht, hat man leider verloren....Da reicht die Performance nicht mehr aus...Auch Crossover / Wine wäre sofort tot, und damit etliche professionelle Anwendungen wie den Enterprise Architect, die nicht mehr nutzbar wären...
Gruß
Kronar
Hilfreich?
+2
Johnny65
18.06.20
18:48
Und auch für die Virtualisierung älterer (noch rein auf Intel basierender) macOS-Versionen, der Apple mit dem Wegfall von 32-Bit-Unterstützung und verschiedenen anderen Änderungen im Unterbau ja durchaus Vorschub geleistet hat, sieht's ohne X64-Emulation auf ARM mau aus.
Man kann dann natürlich für die ältere Software auch (zusätzlich) eine ältere Maschine vorhalten. Wird aber spätestens dann unspaßig, wenn ich z.B. Material, das ich per E-Mail oder Download erhalte, in diesen alten Apps bearbeiten muss. Zumal sich mir persönlich derzeit nicht erschließt, welchen konkreten Vorteil mir ein (stationärer) ARM-basierter Mac auf absehbare Zeit bringen würde.
Ist im übrigen ja auch nicht so als ob die letzten macOS-Releases eine riesige Menge an Killer-Features gebracht hätten, ohne die man nicht mehr arbeiten mag. Das noch stärkste Argument, das mir einfällt, ist up to date im Schutz gegen Cyber-Bedrohungen zu sein.
Naja, am Montag werden wir schlauer sein.
Hilfreich?
+6
pünktchen
18.06.20
19:55
bmonno
nur
pünktchen meint, das wird schon klappen.
Nö, ich meine nur es wird reichen wenn es auch etwas langsamer sein darf. Ich hab auch schon einen 68000 einen 8088 emulieren lassen um die Software aus dem Informatikunterricht drauf laufen zu lassen, ich weiss was wie quälend langsam eine Emulation sei kann.
Johnny65
Naja, am Montag werden wir schlauer sein.
Wenn sie auch schon mit der geplanten Hardware rausrücken und sich nicht nur auf die Ankündigung und auf Entwicklergeräte beschränken.
Hilfreich?
0
LoCal
19.06.20
00:23
pünktchen
Nö, ich meine nur es wird reichen wenn es auch etwas langsamer sein darf. Ich hab auch schon einen 68000 einen 8088 emulieren lassen um die Software aus dem Informatikunterricht drauf laufen zu lassen, ich weiss was wie quälend langsam eine Emulation sei kann.
Worin steckte der 68000er?
pünktchen
Wenn sie auch schon mit der geplanten Hardware rausrücken und sich nicht nur auf die Ankündigung und auf Entwicklergeräte beschränken.
Wenn man den Intel-Switch heranzieht, dann wird es auf Entwicklergeräte hinaus laufen … aber ich glaube nicht, dass wir ein ARM-Dev-Board in einem MacPro-Gehäuse bekommen
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
0
Jack Serif
19.06.20
07:49
Ich habe keine Ahnung, was die Vorteile von ARM sind und verfolge daher die Forumsdiskussion mit großem Interesse.
Wenn ich ein Argument lese, hört sich das schlüssig an.
Das Gegenargument aber auch!
Wenn ich also mal nicht versuche, das Technische zu verstehen, sondern einfach nur den Sinn des Umstiegs...
Meint Ihr nicht, dass der Umstieg auf ARM gravierende Vorteile für Apple haben muss?
Sonst würden sie es doch nicht tun.
Vielleicht, um die Abhängigkeit von Intel zu beenden...
Vielleicht, weil die neuen Prozessoren mit weniger Energie/Wärme klar kommen...
Vielleicht, weil sie schneller sind...
Vielleicht, weil die günstiger sind...
Vielleicht, weil sich neue Anwendungsgebiete erschließen...
Was meint Ihr?
Hilfreich?
0
Weia
19.06.20
07:54
Jack Serif
Meint Ihr nicht, dass der Umstieg auf ARM gravierende Vorteile für Apple haben muss?
Aber natürlich.
Für Apple
. Wurde doch auch mehrfach gesagt hier: Volle Kontrolle über das System, noch höhere Gewinnspanne.
Nur
für die Nutzer
bringt das eben keine Vorteile (meinetwegen abgesehen von denen, die maximale Akkulaufzeit aus ihren MacBooks quetschen wollen), aber einen Rattenschwanz an Nachteilen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+3
andreas_g
19.06.20
08:00
Weia
Nur
für die Nutzer
bringt das eben keine Vorteile (meinetwegen abgesehen von denen, die maximale Akkulaufzeit aus ihren MacBooks quetschen wollen), aber einen Rattenschwanz an Nachteilen.
Natürlich wird es auch Vorteile für die Nutzer geben. Apple ist wirtschaftlich von seinen Nutzern abhängig und wird daher naturgemäß mit seinen Produkten um diese werben. Neue Produkte, die (fast) nur Nachteile für den Nutzer bringen? Wohl kaum!
Hilfreich?
0
pünktchen
19.06.20
08:48
LoCal
Worin steckte der 68000er?
Amiga 1000 und/oder 500. Ich denke das war der "Transformer" Emulator:
Hilfreich?
+1
Raziel1
19.06.20
08:49
andreas_g
Weia
Nur
für die Nutzer
bringt das eben keine Vorteile (meinetwegen abgesehen von denen, die maximale Akkulaufzeit aus ihren MacBooks quetschen wollen), aber einen Rattenschwanz an Nachteilen.
Natürlich wird es auch Vorteile für die Nutzer geben. Apple ist wirtschaftlich von seinen Nutzern abhängig und wird daher naturgemäß mit seinen Produkten um diese werben. Neue Produkte, die (fast) nur Nachteile für den Nutzer bringen? Wohl kaum!
Ich mache mir da keine Sorgen. Man sieht an Apples A Chips zb welche Leistung möglich ist und das ohne aktiver Kühlung. Ein mobiler Prozessor der mit Desktop Rechnern mithalten kann bzw in manchen Aufgaben diesen sogar in der Praxis überlegen scheint (natürlich nicht verglichen mit Leistungsstarken Desktop Prozessoren). Aber unter den Bedingungen ist das schon ein starkes Stück. Einfach gesagt bräuchten sie ja nur einfach 10 einzelne A13er Chips nehmen und in ein MacBook kombinieren und das wäre schon was. Eventuell wird ja auch sowas in der Richtung kommen. Dumm wäre es nicht, eine neue Generation ihrer A-Chips zu entwickeln und einfach mehrere davon zu integrieren.
Was auch immer die ARM Zukunft wirklich bringt, ich bin da ganz zuversichtlich das die sich ihr Geschäft nicht ruinieren wollen
Hilfreich?
-1
Freaky300
19.06.20
08:53
Was meint ihr kommt Ende 2020 Anfang 2021 ein neues Macbook Pro 16 mit ARM oder I10?
Ich würde gerne mein Macbook Pro 15 Mid 2015 gerne auswechseln aufs Jahr
Hilfreich?
0
LoCal
19.06.20
08:59
pünktchen
LoCal
Worin steckte der 68000er?
Amiga 1000 und/oder 500. Ich denke das war der "Transformer" Emulator:
Krass, ich wusste garnicht, dass der Amiga sowas hatte. Ich habe damals immer auf "ATOnce"
geschielt um meinem 500er eine PC-Emulation zu bescheren … aber ich war 14 und das Ding war zu teuer für mich
Und ich hätte meinen 68010 verloren, den ich mir eingebaut hatte.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
0
pünktchen
19.06.20
09:06
Weia
Nur
für die Nutzer
bringt das eben keine Vorteile (meinetwegen abgesehen von denen, die maximale Akkulaufzeit aus ihren MacBooks quetschen wollen), aber einen Rattenschwanz an Nachteilen.
Also ich sehe auch den Rattenschwanz an Nachteilen durch fehlende Kompatibilität, aber ich hoffe durchaus dass für die Kunden mehr herausspringt als nur etwas mehr Akkulaufzeit. Wer keine Rücksicht mehr auf irgendwelche Standard nehmen muss kann halt auch grundlegende Änderungen am System vornehmen und Apple hätte die finanziellen Ressourcen um das auch zu machen. Andererseits hätten sie das auch schon bei ihren anderen ARM-Produkten machen können und die sind im Aufbau ja auch nicht besonders revolutionär sondern nur etwas schneller.
Hilfreich?
0
Raziel1
19.06.20
09:09
pünktchen
Weia
Nur
für die Nutzer
bringt das eben keine Vorteile (meinetwegen abgesehen von denen, die maximale Akkulaufzeit aus ihren MacBooks quetschen wollen), aber einen Rattenschwanz an Nachteilen.
Also ich sehe auch den Rattenschwanz an Nachteilen durch fehlende Kompatibilität, aber ich hoffe durchaus dass für die Kunden mehr herausspringt als nur etwas mehr Akkulaufzeit. Wer keine Rücksicht mehr auf irgendwelche Standard nehmen muss kann halt auch grundlegende Änderungen am System vornehmen und Apple hätte die finanziellen Ressourcen um das auch zu machen. Andererseits hätten sie das auch schon bei ihren anderen ARM-Produkten machen können und die sind im Aufbau ja auch nicht besonders revolutionär sondern nur etwas schneller.
Eventuell befindet sich neben den neuen Chips ja einfach ein zusätzlicher schwächerer alter für die Kompatibilität so wie das damals zb Sony bei ihrer PS3 gemacht hat.
Hilfreich?
0
Maniacintosh
19.06.20
09:39
pünktchen
Wer keine Rücksicht mehr auf irgendwelche Standard nehmen muss kann halt auch grundlegende Änderungen am System vornehmen und Apple hätte die finanziellen Ressourcen um das auch zu machen.
Grundlegende Änderungen, die mit Standards brechen: Also noch weniger Kompatibilität zu allem anderen... 🙄
Hilfreich?
+2
Maniacintosh
19.06.20
09:49
Raziel1
Eventuell befindet sich neben den neuen Chips ja einfach ein zusätzlicher schwächerer alter für die Kompatibilität so wie das damals zb Sony bei ihrer PS3 gemacht hat.
Naja im Prinzip haben die damals die gesamte PS2 auf einen Chip eingedampft und mit eingebaut. Von der Leistung war dieser Chip einer PS2 ebenbürtig. Ich bezweifel, dass dies mit einem MacBook Pro oder Mac Pro gelingt. Denn selbst wenn Apples Desktop A-Prozessor richtig, richtig super wird und auch in maximaler Ausbau-Stufe zum 28-Kern-Xeon ebenbürtig ist (bei nativem Code) oder gar etwas darüber performt, einen 28-Kern-Xeon für x86_64-Code wird das Ding nicht ebenbürtig emulieren können. Nun könnte Apple zusätzlich einen Xeon einbauen, aber dann hätte Apple genau gar nichts gewonnen... (Im MacBook Air wäre es natürlich nur ein Core i5 oder so, aber das Problem bleibt das Gleiche).
Also technisch denkbar, aber wirtschaftlich nicht sinnvoll oder wenn doch, dann eben nicht wirklich performant, weil nur „kleiner“ x86er. Es hat ja einen Grund, warum Sony schon in der nächsten Revision auf eine reine Software-Emulation wechselte - trotz schlechterer Kompatibilität.
Hilfreich?
0
LoCal
19.06.20
09:52
pünktchen
Wer keine Rücksicht mehr auf irgendwelche Standard nehmen muss kann halt auch grundlegende Änderungen am System vornehmen und Apple hätte die finanziellen Ressourcen um das auch zu machen.
Was für Apple ja durchaus normal ist, siehe Metal.
Allerdings gibt es da bei einem Laptop/Desktop grenzen, denn an USB/Thunderbolt wird Apple nur schwer vorbeikommen. Alleingänge mit Schnittstellen sind ja ehr so ein Schmerz bei Apple und ich hoffe, dass sie nach Firewire und TB1/2 daraus gelernt haben.
Aber alles, bei dem der User keinen direkten Einfluss hat, da sehe ich schon Chancen …siehe Metal
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
0
Weia
19.06.20
09:54
andreas_g
Natürlich wird es auch Vorteile für die Nutzer geben. Apple ist wirtschaftlich von seinen Nutzern abhängig
Das scheint sie in den letzten Jahren eher wenig gekümmert zu haben.
Und sie können sich auf den ziemlich großen Fanboy-Teil Ihrer Kunden verlassen. Die fiebern dem ARM-Prozessor ja jetzt schon entgegen, als sei es das Beste aus Sodom und Gomorrha, nicht weil sie irgendwas Konkretes an Vorteilen erwarten würden, sondern weil es was
Neues
,
Eigenes
,
Anderes
von Apple ist.
Aufregend! Spannung! Abwechslung! Frohlocken! Jauchzen! Jubilieren!
Neue Produkte, die (fast) nur Nachteile für den Nutzer bringen? Wohl kaum!
Nein, niiiiieeemals. Wobei, MacBook-Updates mit marginalen Verbesserungen, dafür alles verlötet und verklebt, Tastatur desaströs, Preis erhöht – war da nicht was?
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+5
Weia
19.06.20
09:58
pünktchen
Wer keine Rücksicht mehr auf irgendwelche Standard nehmen muss kann halt auch grundlegende Änderungen am System vornehmen und Apple hätte die finanziellen Ressourcen um das auch zu machen.
Apple hätte auch die finanziellen Ressourcen für eine macOS-Version ohne 1 Fantastilliarde Bugs …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+4
andreas_g
19.06.20
10:02
Weia
Neue Produkte, die (fast) nur Nachteile für den Nutzer bringen? Wohl kaum!
Nein, niiiiieeemals. Wobei, MacBook-Updates mit marginalen Verbesserungen, dafür alles verlötet und verklebt, Tastatur desaströs, Preis erhöht – war da nicht was?
Naja, der ein oder andere Blindgänger war in der Geschichte von Apple immer wieder dabei. Aber gerade die übergeordneten Strategien waren dann doch meistens nicht schlecht, sonst würde es Apple wohl nicht mehr geben.
Ich glaube schlussendlich haben viele einfach Angst, nicht mehr zur Zielgruppe zu gehören. Die Ausrichtung von Apple hat sich im Verlauf der Zeit verändert und wird dies auch weiterhin tun.
Hilfreich?
0
pünktchen
19.06.20
10:02
LoCal
an USB/Thunderbolt wird Apple nur schwer vorbeikommen.
Ich hoffe doch sehr dass sie sich nicht an Schnittstellen austoben sondern sich dem internen Aufbau widmen. Vielleicht kann man ja an der seit den 1980ern üblichen CPU + GPU Kombination was verbessern. Ich als Laie stelle mir da einen Pool von Ressourcen vor der vom OS völlig abstrahiert wird. Gibt es da bei Grossrechnern nicht was von dem sich Apple inspirieren lassen könnte?
Weia
Apple hätte auch die finanziellen Ressourcen für eine macOS-Version ohne 1 Fantastilliarde Bugs …
Ich denke da braucht es eher Zeit und Geduld als Geld. Desto mehr sie am OS rumbasteln desto mehr neue Bugs bauen sie ein und desto weniger Zeit und Motivation haben sie alte abzustellen.
Weia
Und sie können sich auf den ziemlich großen Fanboy-Teil Ihrer Kunden verlassen. Die fiebern dem ARM-Prozessor ja jetzt schon entgegen, als sei es das Beste aus Sodom und Gomorrha, nicht weil sie irgendwas Konkretes an Vorteilen erwarten würden, sondern weil es was
Neues
,
Eigenes
,
Anderes
von Apple ist.
Aufregend! Spannung! Abwechslung! Frohlocken! Jauchzen! Jubilieren!
Ja natürlich tue ich das, auch wenn ich befürchte das Apple mich enttäuscht. Meine praktischen Bedürfnisse würde auch ein zehn Jahre alter Wintellaptop erfüllen. Wobei es mir nicht darum geht dass es was neues von Apple ist sondern dass es überhaupt mal was technisch neues und anderes im PC-Markt gibt.
Hilfreich?
-1
Kronar (back)
19.06.20
10:17
LoCal
Krass, ich wusste garnicht, dass der Amiga sowas hatte. Ich habe damals immer auf "ATOnce"
geschielt um meinem 500er eine PC-Emulation zu bescheren … aber ich war 14 und das Ding war zu teuer für mich
Und ich hätte meinen 68010 verloren, den ich mir eingebaut hatte.
Ich hatte damals in meinem 2000er eine
A2088XT. Das waren noch Zeiten... 80MB SCSI Filecard 2300DM... 2MB Erweiterung 1098DM... Flickerfixer... ach ja...
Gruß
Kronar
Hilfreich?
0
LoCal
19.06.20
10:18
Weia
Apple hätte auch die finanziellen Ressourcen für eine macOS-Version ohne 1 Fantastilliarde Bugs …
Das ist weniger ein finanzielles Problem, also vielmehr ein strukturelles/personelles Problem.
Das wenige was ich von den Abläufen bei Apple weiss ist, dass die Teams klein sind, zum Teil sehr klein, aber auf der anderen Seite einen enormen Druck die Weiterentwicklung zu spüren bekommen. Eine Reaktion auf Radar-Einträge oder gar im Forum ist oft kaum möglich.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
+3
gggfam
19.06.20
10:40
LoCal
Das ist weniger ein finanzielles Problem, also vielmehr ein strukturelles/personelles Problem.
Genau das denke ich auch. Wäre es daher nicht von Vorteil, wenn alle Geräte auf demselben Kern basieren?
Wenn alle Geräte auf ARM laufen, könnten sie ein appleOS als Grundlage nehmen, welches auf allen Geräten läuft. Dadrüber könnten dann die Unterschiedlichen Betriebssystem laufen, die wir heute kennen, basieren aber alle auf dem appleOS.
Für die Nutzer ist keine Veränderung sichtbar, aber Apple kann an einem Kern für alle Geräte arbeiten.
FYI: Ich meine natürlich nicht, dass macOS und iPadOS verschmelzen, ganz im Gegenteil. Sie liegen eine Schicht über appleOS und bleiben wie sie sind.
Hilfreich?
-1
andreas_g
19.06.20
10:45
gggfam
LoCal
Das ist weniger ein finanzielles Problem, also vielmehr ein strukturelles/personelles Problem.
Genau das denke ich auch. Wäre es daher nicht von Vorteil, wenn alle Geräte auf demselben Kern basieren?
Wenn alle Geräte auf ARM laufen, könnten sie ein appleOS als Grundlage nehmen, welches auf allen Geräten läuft. Dadrüber könnten dann die Unterschiedlichen Betriebssystem laufen, die wir heute kennen, basieren aber alle auf dem appleOS.
Für die Nutzer ist keine Veränderung sichtbar, aber Apple kann an einem Kern für alle Geräte arbeiten.
FYI: Ich meine natürlich nicht, dass macOS und iPadOS verschmelzen, ganz im Gegenteil. Sie liegen eine Schicht über appleOS und bleiben wie sie sind.
Das ist bereits der Fall. Alle von Apple ausgelieferten gerätespezifischen Betriebssysteme haben die gleiche Basis. Ich denke aber, dass die meisten Bugs nicht in grundlegenden Systembestandteilen stecken, sonder eher in höheren Ebenen.
Hilfreich?
+1
mikeboss
19.06.20
10:55
Weia
Die fiebern dem ARM-Prozessor ja jetzt schon entgegen, als sei es das Beste aus Sodom und Gomorrha, nicht weil sie irgendwas Konkretes an Vorteilen erwarten würden ...
doch, zumindest meinereiner hat da schon ganz konkrete hoffnungen:
1. eine massive steigerung der single-thread CPU leistung.
2. weniger verlustleistung der CPUs und in der folge weniger lueftergeraeusche.
Hilfreich?
0
mikeboss
19.06.20
11:02
andreas_g
Ich denke aber, dass die meisten Bugs nicht in grundlegenden Systembestandteilen stecken, sonder eher in höheren Ebenen.
wenn meine testmuehle das ausklinken eines NFS shares mit einer KP quittiert, dann muss der wurm schon ziemlich im kern (pun intended) sein.
(testweise frisch installiertes macOS Crapalina 19F101 und auch aktuelle 10.15.6 DP).
Hilfreich?
+2
bmonno
19.06.20
12:49
Die
meisten
vielleicht, aber die lassen sich auch häufig irgendwie umgehen. Mehr Schmerzen machen die tiefer liegenden, wie zB
- in Yosemite der Ersatz von mdnsresponder durch das iOS discoveryd. Das erste Mal, dass ich zur Vorversion zurück musste.
- in Sierra die Übernahme von grundlegenden Teilen im PDF-Bereich von iOS. Hat bei vielen Nutzern (nicht bei meinen einfachen PDFs) Probleme gemacht.
- Wenn wie jüngst nach ein paar Tagen ein Ergänzungsupdate kommt, spricht das auch nicht für Bug-Armut.
andreas_g
Das ist bereits der Fall. Alle von Apple ausgelieferten gerätespezifischen Betriebssysteme haben die gleiche Basis. Ich denke aber, dass die meisten Bugs nicht in grundlegenden Systembestandteilen stecken, sonder eher in höheren Ebenen.
Hilfreich?
0
LoCal
20.06.20
19:30
LoCal
gfhfkgfhfk
[…]
Und was sagt das für dich jetzt als Eignung/Nichteignung als Laptop/Desktop-CPU aus?
Bekomme ich da eigentlich noch eine Antwort von Dir?
Von
piiik wäre es ja auch ganz nett wenn er mal die Fragen beantworten würde.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
-2
gfhfkgfhfk
20.06.20
21:11
LoCal
Nein, nur beleidigen muss ich mich auch nicht lassen!
Du wurdest zuerst unfreundlich, und wie Du noch immer den Sachverhalt schilderst, hast Du ihn immer noch nicht intellektuell erfasst. Insofern ist das keine Beleidigung sondern eine Tatsachenfeststellung.
Nicht nur die Art der Aufgabe „HTML5 parsen“ ist entscheidend sondern die Komplexität. Man kann eine trivial HTML5 Datei parsen, man kann eine super komplexe HTML5 Datei parsen oder man verarbeitet eben eine typische HTML5 Datei, die beim Websurfen so anfällt. Im Laufe der Jahre hat sich die Komplexität einer solchen typischen Seite deutlich erhöht. D.h. alte Tests sind hier auch nicht mehr aussagekräftig. D.h. aus den reinen Zahlenwerten lässt sich exakt nichts herauslesen. Auch die Größe der HTML5 Datei ist nicht aussagekräfig. Wenn MBs an Text drinsteht ist das auch trivial Input. Man muss schon den Input sehen, um Beurteilen zu können, ob der Zahlenwert etwas taugt.
Hilfreich?
+1
piik
21.06.20
01:00
LoCal
Von
piiik wäre es ja auch ganz nett wenn er mal die Fragen beantworten würde.
Nun, ich habe meine Argumente vorgebracht und Deine gelesen.
Scheinbar kommen unterschiedliche Benchmarks zu unterschiedlichen Einschätzungen dessen, was ein ARM-Core zu leisten in der Lage ist.
Nach wie vor bin ich der Meinung, dass bei ähnlicher Leistung wie eine X86-CPU eine ARM-CPU einen ähnlichen Stromverbrauch hat. Nicht nur weil die Apple-Ingenieure 2000 Jahre zu spät kommen, damit sie sich vom Druiden einen Zaubertrank für mentale Überkräfte verpassen lassen können.
Die unterschiedlichen CPUs und dahinter stehende Konzepte führen bislang in der jeweiligen Spitzenleistung zwar auch zu Unterschieden, aber die Unterschiede sind eher klein, im Bereich von +/- 20% oder so. Man sieht das auch am Wettrennen von AMD und Intel.
Und: Noch gibt es keine ARM-CPU, die auf 4,5GHz und mehr getaktet wird. Dieser Nachteil wird scheinbar bei bisherigen CPUs z.B. für Server versucht, durch mehr Kerne auszugleichen. Dort macht das auch viel Sinn. Dochmehr Kerne skalieren bei Servern, vielen simplen grafischen Aufgaben, Transkodierungen etc. - nicht aber bei normaler Anwendungssoftware. Hier ist die Single-Core-Leistung durchaus von Belang. Ich rede nicht vom Browser, aber selbst da würde ich gern sehen, was am Seitenaufbau oder der Abarbeitung eines Skripts so stark parallelisierbar wäre.
Du aber bist auf sehr viele meiner Argumente nicht eingegangen. Darfst Du, aber es fällt mir halt auf, dass es genau die sind, die sich nicht relativieren lassen.
Z.B. die Tatsache, dass die CPUs für Macs einen Nischenmarkt darstellen. So wurden z.B. 2019 nicht ganz 20 Millionen Macs (Desktop + Laptops) verkauft, gegenüber 240 Millionen PCs mit X86-CPU (auch Desktop + Laptops). Das Verhältnis ist etwa 1:13 und es wird durch ARM-CPUs nicht besser
Apple müsste also für rund 6,5% des Marktes sagen wir mal die Hälfte des Aufwands treiben, den Intel/AMD tätigen. Das ist betriebswirtschaftlicher Irrsinn.
Dass Apple viele ARM-Soc in Mobilgeräten verkauft (ca. 70 Millionen pro Jahr) ist da kein Gegenargument, denn ein SoC für Mobilgeräte ist nunmal definitiv keine Desktop-CPU.
Das zweite Argument, das Du geflissentlich ignorierst hast, das ist die Patentlage. Hier hat Apple bez. Desktop-Technik kaum etwas zu bieten. Das gab schon viel Ärger bei dem Chips für den Mobilfunk-Empfang.
Etc. und pp.
Aber lassen wir das. Ich bin auf Montag gespannt. Dann werden wir sehen, wer mit seiner Einschätzung näher an Apples Absichten liegt. Ich kann mich nur wiederholen: Auch wenn ich den Switch zu ARM für irrational und albern halte, heißt das nicht, dass Apple das nicht doch versucht. Und es heißt auch nicht, dass ich mich nicht irren könnte. Das mit dem irren gilt aber auch für Apple. Sie haben schon einige schräge Dinge gemachtm, die sich nicht bewährt haben. Andere Dinge waren hingegen super.
Was Apple kann, ist ein gutes und leicht benutzbares OS entwickeln und schöne Rechner bauen. Und manchmal den Mut haben, völlig neue Wege zu gehen. Das iPhone war so einer. ARM ist das nicht.
Hilfreich?
+2
piik
21.06.20
01:30
Noch ne Sache, an die so gut wie niemand denkt:
(und die ich jetzt, kurz vor Montag, noch rauslassen kann
)
Erinnert ihr euch noch, was passierte, als Apple so viel Erfolg mit dem iPhone zu haben begann?
Und Google, seinerzeit im Aufsichtsrat von Apple vertreten, hat geschaltet, und sich ein Stück vom Kuchen geholt.
Anfangs hatte Google noch viel zu lernen, aber mittlerweile ist Android eindeutig Sieger. Etwa 90% aller Mobilgeräte laufen unter Android. Alle auf ARM-SoCs.
Der Witz ist, dass Google das prinzipielle OS (Android) kostenlos zur Verfügung stellt. Wer will, kann sich die passende Hardware dazu bauen. Und das passiert.
Wenn Apple Mac OS auch nur einigermaßen erfolgreich auf ARM -Rechnern laufen lässt und die Leute sowas kaufen, dann liegt für Google der Schritt doch irgendwie nahe, Apple auch beim Desktop Konkurrenz zu machen und ein Android-artiges Desktop-OS für die koreanischen und chinesischen Firmen zur freien Verfügung zu bauen. Können kann das Google. Und sie mischen dann den Markt auf, da gerade die chinesischen Hersteller ja immer noch von Microsoft und Intel/AMD abhängig sind. Ein Open-Source-OS mit besserer Bedienbarkeit als Linux aus einer Hand würde da willkommen sein:
Und wenn Apple tatsächlich mit begrenztem Aufwand aus ARM-Cores eine brauchbare Desktop-CPU bauen kann, dann können das andere Firmen auch.
Klar kein direktes Argument gegen einen Switch von Apple, aber ein Hinweis auf ein Risiko.
Hilfreich?
+1
Weia
21.06.20
04:28
piik
ein SoC für Mobilgeräte ist nunmal definitiv keine Desktop-CPU.
Das zweite Argument, das Du geflissentlich ignorierst hast, das ist die Patentlage. Hier hat Apple bez. Desktop-Technik kaum etwas zu bieten.
Mein Eindruck als Laie, der in dieser Diskussion selbst nicht mitreden kann, ist von außen, dass sich letztlich alles um diese beiden bzw. diesen einen Punkt dreht:
Inwiefern
ist ein ARM-SoC für ein iPhone oder iPad „nunmal definitiv keine Desktop-CPU“ bzw. was für Patente braucht man für Desktop-CPUs, die man für Mobil-CPUs nicht braucht? Kannst Du dazu noch etwas sagen?
Ich glaube, praktisch alle Stimmen hier, die einen ARM-Einsatz in Macs erwarten, gehen davon aus, dass Apple entweder die gleichen ARM-Prozessoren verwenden kann, die in iOS-Geräten (jedenfalls iPads) stecken oder aber zumindest nur kleinere Modifikationen/Ergänzungen mit geringem Aufwand vornehmen müsste, so dass das wirtschaftlich eben kein Irrsinn wäre.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+2
cfkane
21.06.20
07:08
Da stimme ich Weia zu: Wir bräuchten eine fundierte Erläuterung, was eine Desktop-CPU von Mobil-ARMs unterscheidet.
Was mir einfällt:
- (viel) höheres thermisches Budget
- mehr Anschlüsse (mehr RAM, PCI)
Aber was das nun in der Praxis bedeutet????
Vielleicht ist die Desktop-CPU als Vergleich auch gar nicht relevant. Verbaut denn Apple überhaupt in irgendeinem Mac einen ganz normalen i9-Prozessor? Nehmen die nicht eh nur die Stromsparvarianten (U und Y, oder?) bzw die Xeons im Pro?
Da würde die Latte ein ganzes Stück tiefer hängen. Und für die erweiterten Aufgaben eines Mac-ARMs hauen sie Spezial-SoCs raus (gibt ja schon den T2, iPhones haben auch mehrere CPU-Kern-Typen). Und schon sind sie mit den kleinen Intels auf pari. Und wenn sie dann noch Final Cut drauf optimieren, gibt’s phantastische Benchmarks zum Zeigen
!
Hilfreich?
+1
|<
1
2
3
4
5
6
7
>|
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
M4 zu M5: Erste Vorbereitungen
Apple plant Umstellungen bei "AppleCare+" – weg...
Zuerst in der EU: Videoanrufe per Satellit mit ...
Kurz: WhatsApp mit Mehrfach-Accounts pro Device...
TechTicker
Mac ausschalten?
Apple veröffentlicht macOS 15.3 (Aktualisierung...
macOS-Hintergrundprozesse: Dienste, Aktivitäten...