Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Prozessorleistung: Drei große Entwicklungen auf dem Weg vom Macintosh 128K zum M3

Wer den Mac über die Jahre beobachtet, kann sich an drei Wechsel in der Prozessorarchitektur erinnern. Die Motorola-Prozessoren der 68K-Reihe wurden Mitte der Neunzigerjahre vom Nachfolger PowerPC abgelöst. Der Wechsel zu Intel-Prozessoren folgte im Jahr 2006, und seit 2020 setzt Apple auf eigens produzierte Apple-Silicon-Prozessoren mit ARM-Architektur. Parallel zu diesen Wechseln fanden übergreifende Entwicklungen statt, die die Geschwindigkeit der Macs maßgeblich beeinflussten.


Howard Oakley zeigt in einem Blog-Beitrag drei Phasen der Prozessorevolution nach. Bis etwa zur Mitte der Nullerjahre fanden Steigerungen auf der Ebene der Taktrate statt. Seitdem entwickelt diese sich nicht sonderlich weiter, alle Desktop-Prozessoren scheinen sich auf 3 bis 4 GHz eingepegelt zu haben. Das liegt vor allen Dingen an der Temperatur: Taktet der Prozessor schneller, muss der Chip um so intensiver gekühlt werden.


Die Mac-Taktrate begann mit 8 MHz und pendelte sich knapp über 3000 MHz ein. Quelle: eclecticlight.co

Nächste Phase: Mehr Kerne
Stattdessen wuchs seit 2003 die Zahl der Recheneinheiten innerhalb des Prozessors. Im frühen 21. Jahrhundert warben Computerhersteller mit Dual-, Quad- und Hexacores. Ein 2019-Mac Pro mit Intel-Chip ließ sich mit maximal 28 Kernen bestellen. Apple-Silicon-Chips bringen diversifizierte Kerne an den Start, bei denen ein numerischer Vergleich schwerfällt.

Aktuelle Phase: SIMD-Optimierung
Als aktuell entscheidend für Geschwindigkeitsoptimierungen hat Oakley den Faktor der Prozessoptimierung ausgemacht. Üblicherweise schickt man ein Aufgabenpaket in Form eines Threads an einen Prozessorkern – eine Rechenoperation, kombiniert mit dem Datenpaket, das es zu bearbeiten gilt. Viele Aufgaben, die einem Prozessorkern anvertraut werden, bestehen allerdings aus stets derselben Berechnung, die auf mehrere Datenpakete angewandt wird. Dies nennt sich Single Instruction, Multiple Data (SIMD). Werden solche Aufgaben passend strukturiert, kann man ein Prozessor auf einen Schwung vier oder acht Berechnungen auf einmal abarbeiten.

Berechnung können 65-mal so schnell sein
Dass sich mit SIMD-Optimierungen große Geschwindigkeitsvorteile erreichen lassen, ist schon länger bekannt. Intel baute seit 1996 entsprechende Optimierungen in seine Prozessoren. Apple führte ähnliche Bestrebungen seit den PowerPC-G4-Prozessoren unter der Bezeichnung "AltiVec Engine". Howard Oakley verglich einen iMac Pro von 2019 (Intel, 8 Kerne) mit den Performance-Kernen des M3-Chips. Um den Faktor SIMD-Optimierung isoliert betrachten zu können, führte er eine passende Modellberechnung jeweils zweifach durch: Einmal in einen Thread verpackt, einmal für SIMD optimiert mit der Accelerate-Library. Das Ergebnis: Die Accelerate-Library beschleunigte die Leistung auf das Fünfzigfache auf dem M3-Chip. Der Intel-Xeon-Achtkerner war mit SIMD-Optimierung in einem Fünfunsechzigstel der Zeit fertig.

Tabelle: Rechenoperationen pro Sekunde im Verlgeich
Hardware ohne SIMD-Optimierung mit SIMD-Optimierung Faktor
iMac Pro Xeon 8-Core, 3,2 GHz 62 800 4 100 000 65,3
MacBook Pro M3 109 000 5 500 000 50,5

Nur ein Faktor bei gefühlter Geschwindigkeit
Die tatsächliche Leistungsfähigkeit bei einer bestimmten Art von Rechenoperationen machen allerdings nur einen Teil der wahrgenommenen Rechnerbeschleunigung aus. Ebenso wichtig war beispielsweise der Umstieg auf SSDs nebst passendem APFS-Format.

Kommentare

aibe
aibe18.01.24 16:52
„alle Desktop-Prozessoren scheinen sich auf 3 bis 4 MHz eingepegelt zu haben“

Sollten das nicht eher GHz sein?
+4
immo_j18.01.24 17:31
aibe
„alle Desktop-Prozessoren scheinen sich auf 3 bis 4 MHz eingepegelt zu haben“

Sollten das nicht eher GHz sein?
Ja, ganz eindeutig. Danke für den Hinweis – wir haben den Fehler korrigiert.
+4
Nebula
Nebula18.01.24 20:14
Der Leistungsschub durch SSDs kommt vor allem auch davon, dass macOS einfach extrem viel auf dem Volume rumeiert. Bei Festplatten merkt man sofort, wenn ein System es da übertreibt. Und macOS ist schon lange nicht mehr nutzbar auf einer HD. Sparsamer Umgang mit Ressourcen sieht anders aus. Klar, die SSDs halten meist länger als für Apple relevant und sie fallen wohl weit später aus als das Support-Ende. Von daher dürfte es unwirtschaftlich sein, gut optimierten Code zu schreiben, so wie auch Assembler nicht mehr nötig ist, um flinke Systeme zu bekommen.

Aber es ist ein bisschen wie mit den SUVs. Man verbrät viel Energie, um 2 Tonnen durch die Gegend zu fahren, damit 80 kg Mensch flink irgendwo hinkommen.

Wäre mal interessant, wie sich aktuelle Macs anfühlen würden, wenn 80 % der Diskzugriffe ausbleiben würden. Ich denke, mindestens 50 % sind überflüssig oder redundant.
»Wir werden alle sterben« – Albert Einstein
-1
ssb
ssb18.01.24 20:55
Unix-Systeme sind „traditionell“ sehr stark an das Dateisystem gebunden und nutzen es intensiv. Daher hat macOS auch so viele Dateien. Alles was bei Windows in der Registry-Datenbank landet, sind kleine einzelne Dateien auf macOS, Unix und auch Linux. Zudem war zu Beginn Arbeitsspeicher deutlich teurer als Festplatte, daher gab es auch den Swap-Speicher.
Wehe dem, wenn die Registry einen Knacks bekommt - da ist eine Datei in der alles steht kaputt. Bei vielen kleinen Dateien, ist eben nur ein Teil von vielen kaputt.

Allerdingas würde ich Apple nicht vorwerfen, dass sie da so resourcenhungrig sind, sie habe sich da schon sehr viel einfallen lassen. Um swapping zu vermeiden, die RAM-Kompression - schon in HFS+ wurde für kleine Datenmengen keine Datei angelegt sondern die Daten im Directory-Eintrag (als xattr) abgelegt, bei APFS - Die CoW (Copy on Write) Strategie wird sowohl im RAM wie auch im Dateisystem benutzt.
Zu guter Letzt wird der aktuell am besten optimierende Compiler (zumindest für C/C++/ObjC) verwendet, der am Markt ist: clang/llvm. Swift nutzt auch LLVM, aber davon bin ich persönlich einfach nicht so begeistert (bin ich auch von C++ nicht). Da kann ich jetzt nicht sagen, ob der Swift Code am Ende besser ist oder nicht.

Auf der anderen Seite - klar kann man jetzt in einem Emulator ein „altes“ OS extrem schnell laufen lassen. Die Computer sind mittlerweile so schnell, dass Emulatoren (zB für Spiele-Klassiker) gebremst werden müssen. Aber auf so einem System sollte man nicht mehr arbeiten - ein guter Teil der hinzugewonnen Geschwindigkeit verliert sich in Sicherheitsmassnahmen - ohne die man heute nicht mehr unterwegs sein sollte (ein Problem, dass „Bare-Metal“ Entwickler bei IOT-Geräten haben).

Der nächste Schritt ist, dass die Anspüche natürlich auch größer geworden sind. Man kann auch in TextEdit ein Dokument schneller Schreiben als mit Word, weil Word im Hintergrund alles möglich macht, was man gar nicht wahrnimmt.
+22
Garak
Garak19.01.24 08:02
Nebula
Der Leistungsschub durch SSDs kommt vor allem auch davon, dass macOS einfach extrem viel auf dem Volume rumeiert. Bei Festplatten merkt man sofort, wenn ein System es da übertreibt. Und macOS ist schon lange nicht mehr nutzbar auf einer HD.

Das durfte ich auch erfahren. Seit Umstellung auf das aktuelle Diskformat waren für mich z.B. Apple Fotos und iMovie nicht mehr sinnvoll nutzbar (Datenvolumen jeweils knapp über 1TB). Beide brauchten nach dem Start ca. 10-15 Minuten, bevor die Programme überhaupt auf Tastatur bzw. Maus reagierten. Und Apple Fotos legte nach jeder Änderung (Verschlagwortung, Fotoanpassung usw.) mehrere Minuten an Denkpausen ein. Ganz nett auch, wenn das ganze System Denkpausen einlegt, weil beim Dokumentenzugriff auf die interne Platte erst eine externer Platte hochgefahren wurde und das System darauf wartete.

PS: Mit dem M1 Notebook incl. SSD wurden beide Programme (Fotos, iMovie) wieder sinnvoll nutzbar.
+1
Nebula
Nebula19.01.24 08:57
Also die Systemhänger habe ich auch auf M1-Macs, wenn ich mehrere Backupplatten mit diversen Volumes anschließe.
»Wir werden alle sterben« – Albert Einstein
+1
X-Jo19.01.24 10:31
Nebula
[…]
Aber es ist ein bisschen wie mit den SUVs.
[…]
Nebula
Also die Systemhänger habe ich auch auf M1-Macs, wenn ich mehrere Backupplatten mit diversen Volumes anschließe.
Um mal im Bild des SUVs zu bleiben: Dort ist die Anhängelast »amtlich« begrenzt. Aber selbst damit sind »Systemhänger« nicht ausgeschlossen, abhängig z. B. von einer Steigung oder ungeeignetem Untergrund.

Egal welchen Rechner man nimmt und welche Grenzen (von wem auch immer) festgelegt sind, eine Überlastung und damit Systemhänger sind immer möglich.
-1
Ollie Mengedoht
Ollie Mengedoht19.01.24 13:57
Garak
Seit Umstellung auf das aktuelle Diskformat waren für mich z.B. Apple Fotos und iMovie nicht mehr sinnvoll nutzbar (Datenvolumen jeweils knapp über 1TB). Beide brauchten nach dem Start ca. 10-15 Minuten, bevor die Programme überhaupt auf Tastatur bzw. Maus reagierten.
PS: Mit dem M1 Notebook incl. SSD wurden beide Programme (Fotos, iMovie) wieder sinnvoll nutzbar.
Dann schätze ich, ist mit Deinem System etwas nicht mehr ganz sauber. Denn das ist natürlich nicht normal. Ich habe selbst bis April mit einem MBP von 2015 gearbeitet und externen 4TB-Laufwerken v.a. mit Fotos, aber auch Videos etc. Es braucht vielleicht 20 Sekunden, bis das Volume ordentlich eingebunden ist, aber dann kann man damit arbeiten.

Oder es liegt an Apple fotos mit seiner eigenen Datenbank, aber mit richtigen Fotoprogrammen war das arbeiten auch mit diesem acht Jahre alten Rechner kein Problem. Nicht mehr so fix wie früher, aber wirklich weit von einem Problem oder minutemlangen Warten enfernt. Weit!

@Nebula: Bei solchen „Anschuldigungen“ wäre mir dann immer Fakten lieber als Formulierungen wie „rumeiert“ oder „Bei Festplatten merkt man sofort“ – einen Untschied HDD zu SSD habe ich da auch mbemerkt oder bemerke ich. Aber ich bin zu sehr Laie, als dass ich dass auch spezielle Architekturen und Programmierungen schieben würde, davon habe ich keine Ahnung. Mit obigen Formulierungen bleiben Deine Bemerkungen aber – selbst wenn sie vielleicht stimmen sollten, ich kann sie so nicht nachvollziehen, arbeite ja auch mit dem MBP mit M-Pro-Prozessor immer noch mit HDDS und Fotos – leider nur Stammtischparolen.
Vielleicht hast Du ja aber Recht. Dann wäre es wirklich hilfreich, wenn Deine Behauptungen durch Fakten oder Artikel mit Quellen und/oder Links belegt würden.
Et es wie et es, et kütt wie et kütt un et hätt noch emmer joot jejange! :-)
0
Nebula
Nebula19.01.24 17:18
Ich erlebe das mit den Festplatten nahezu täglich an diversen Macs. Ich habe mehrere Platten angeschlossen, die zahlreiche APFS-Volumes enthalten. Gerade die mit vielen Snapshots (etwa Time Machine-Backups) benötigen recht lange zum Mounten. Und da die Platten per Dock angeschlossen werden, muss sich macOS um einen großen Batzen kümmern. Dabei hängt macOS immer wieder, bis alles Volumes endlich da sind. Bei SSDs ist das auch bemerkbar, aber nur ganz kurz und bei HFS+ sehe ich auch keine Probleme, das nutze ich aber nicht mehr. Das Problem haben auch andere und wurde vom bekannten™ Entwickler Howard Oakley auch irgendwo mal erwähnt.
»Wir werden alle sterben« – Albert Einstein
+1
Ollie Mengedoht
Ollie Mengedoht19.01.24 18:41
Und die brauchen 10 bis 15 Minuten , bis sie „ansprechbar“ sind, wie bei Garak?
Et es wie et es, et kütt wie et kütt un et hätt noch emmer joot jejange! :-)
0
Nebula
Nebula19.01.24 20:32
Ja, den Fall hatte ich auch schon mal. Die Platte war aber auch alt und nur über USB 2 angeschlossen, was für Backups eigentlich reichen sollte. Das Problem kam mit irgend einem macOS-Upgrade. Es fällt kaum auf, wenn man nur wenige Volumes hat. Aber sind mehrere Volumes dabei, die ebenfalls durch Backups viele Snapshots bekommen, merkt man das. Leider finde ich Howards Artikel nicht, wo die Thematik angerissen wurde.
»Wir werden alle sterben« – Albert Einstein
+2
martzell19.01.24 22:19
Computer waren nie gefühlt langsamer. Software wird schneller langsamer als Hardware schneller. Wirthsches Gesetz.
0
Tai
Tai21.01.24 15:51
In drei Tagen wird der Mac 40. Habe ich da was übersehen, oder wird das fast nirgends erwähnt? Wäre doch ein guter Tag für eine Überraschung
0
Tai
Tai21.01.24 16:07
Stimmt nicht: https://www.mactechnews.de/news/article/Grosser-Geburtstag-im-Januar-40-Jahre-Macintosh-Rueckblick-auf-vier-Dekaden-Apple-Computer-183997.html
0
winfel22.01.24 12:18
martzell
Computer waren nie gefühlt langsamer. Software wird schneller langsamer als Hardware schneller. Wirthsches Gesetz.

Da kann ich nur raten, dich mal vor einen noch funktionierenden Rechner der Periode 1995 bis 2005 zu setzen mit Windows oder MacOS und den mal zu starten. Und dann öffne darin mal Word oder so. Dann gewöhnst du dir diese Meinung auch wieder ab.

Ich will damit nicht sagen, dass der Umgang mit Platten heute unperformanter ist, als noch vor ein paar Jahren. Das ist sogar sehr gut möglich. Das wird auch mit daran liegen, dass einfach weniger mit ihnen getestet werden wird und sie weniger im Fokus stehen. Ein schönes Beispiel dazu habe ich mit einer wirklich veralteten Technologie: Disketten.

Ich habe ein externes Diskettenlaufwerk, das ich per USB anschließe, unter anderem um Bilder von einer alten Sony Mavica kopieren zu können. Modernes MacOS und modernes Windows gehen nicht davon aus, dass man da ein derart langsames Medium anschließt. Wenn man die Diskette im Finder oder Explorer öffnet, versuchen daher beide Systeme, die Schnellvorschauen zu erstellen, also mal eben alle 12 Bilder, die auf eine Diskette passen, zu lesen. Das Ganze ist ein Fiasko. Es hakt, ein Kopieren ist kaum möglich, da dann gleichzeitig an mehreren Stellen von der Diskette gelesen wird. Das ging früher mit meinem alten XP-Rechner viel besser. Da gab es zwar auch schon Vorschauen – aber für die Diskette. (Ich kopiere die Dateien jetzt per Kommandozeile, da ist es natürlich kein Problem).
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.