Prozessorleistung: Drei große Entwicklungen auf dem Weg vom Macintosh 128K zum M3
Wer den Mac über die Jahre beobachtet, kann sich an drei Wechsel in der Prozessorarchitektur erinnern. Die Motorola-Prozessoren der 68K-Reihe wurden Mitte der Neunzigerjahre vom Nachfolger PowerPC abgelöst. Der Wechsel zu Intel-Prozessoren folgte im Jahr 2006, und seit 2020 setzt Apple auf eigens produzierte Apple-Silicon-Prozessoren mit ARM-Architektur. Parallel zu diesen Wechseln fanden übergreifende Entwicklungen statt, die die Geschwindigkeit der Macs maßgeblich beeinflussten.
Howard Oakley zeigt in einem Blog-Beitrag
drei Phasen der Prozessorevolution nach. Bis etwa zur Mitte der Nullerjahre fanden Steigerungen auf der Ebene der Taktrate statt. Seitdem entwickelt diese sich nicht sonderlich weiter, alle Desktop-Prozessoren scheinen sich auf 3 bis 4 GHz eingepegelt zu haben. Das liegt vor allen Dingen an der Temperatur: Taktet der Prozessor schneller, muss der Chip um so intensiver gekühlt werden.
Die Mac-Taktrate begann mit 8 MHz und pendelte sich knapp über 3000 MHz ein. Quelle:
eclecticlight.co Nächste Phase: Mehr KerneStattdessen wuchs seit 2003 die Zahl der Recheneinheiten innerhalb des Prozessors. Im frühen 21. Jahrhundert warben Computerhersteller mit Dual-, Quad- und Hexacores. Ein 2019-Mac Pro mit Intel-Chip ließ sich mit maximal 28 Kernen bestellen. Apple-Silicon-Chips bringen diversifizierte Kerne an den Start, bei denen ein
numerischer Vergleich schwerfällt.
Aktuelle Phase: SIMD-OptimierungAls aktuell entscheidend für Geschwindigkeitsoptimierungen hat Oakley den Faktor der Prozessoptimierung ausgemacht. Üblicherweise schickt man ein Aufgabenpaket in Form eines Threads an einen Prozessorkern – eine Rechenoperation, kombiniert mit dem Datenpaket, das es zu bearbeiten gilt. Viele Aufgaben, die einem Prozessorkern anvertraut werden, bestehen allerdings aus stets derselben Berechnung, die auf mehrere Datenpakete angewandt wird. Dies nennt sich Single Instruction, Multiple Data (SIMD). Werden solche Aufgaben passend strukturiert, kann man ein Prozessor auf einen Schwung vier oder acht Berechnungen auf einmal abarbeiten.
Berechnung können 65-mal so schnell seinDass sich mit SIMD-Optimierungen große Geschwindigkeitsvorteile erreichen lassen, ist schon länger bekannt. Intel baute seit 1996 entsprechende Optimierungen in seine Prozessoren. Apple führte ähnliche Bestrebungen seit den PowerPC-G4-Prozessoren unter der Bezeichnung "AltiVec Engine". Howard Oakley verglich einen iMac Pro von 2019 (Intel, 8 Kerne) mit den Performance-Kernen des M3-Chips. Um den Faktor SIMD-Optimierung isoliert betrachten zu können, führte er eine passende Modellberechnung jeweils zweifach durch: Einmal in einen Thread verpackt, einmal für SIMD optimiert mit der
Accelerate-Library. Das Ergebnis: Die Accelerate-Library beschleunigte die Leistung auf das Fünfzigfache auf dem M3-Chip. Der Intel-Xeon-Achtkerner war mit SIMD-Optimierung in einem Fünfunsechzigstel der Zeit fertig.
Tabelle: Rechenoperationen pro Sekunde im VerlgeichHardware | ohne SIMD-Optimierung | mit SIMD-Optimierung | Faktor |
iMac Pro Xeon 8-Core, 3,2 GHz | 62 800 | 4 100 000 | 65,3 |
MacBook Pro M3 | 109 000 | 5 500 000 | 50,5 |
Nur ein Faktor bei gefühlter GeschwindigkeitDie tatsächliche Leistungsfähigkeit bei einer bestimmten Art von Rechenoperationen machen allerdings nur einen Teil der wahrgenommenen Rechnerbeschleunigung aus. Ebenso wichtig war beispielsweise der Umstieg auf SSDs nebst passendem
APFS-Format.