Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Benchmark: M4 vs. M5 bei KI-Aufgaben – zwar beeindruckend, aber löst ein zentrales Problem nicht

MLX ist ein Open-Source-Framework, das speziell für Apple Silicon entwickelt wurde. Es ermöglicht Forschern, große Sprachmodelle lokal auf dem Mac auszuführen, zu feinjustieren oder zu experimentieren. MLX wurde 2023/2024 erstmals von Apple Machine Learning Research vorgestellt und vollständig im Unternehmen entwickelt. Einen Rückschlag hatte es Anfang des Jahres wohl gegeben, als laut Bloomberg fast das komplette Team kündigte – und Apple große Anstrengungen unternehmen musste, die Mitarbeiter zu halten. In einem Blogbeitrag dokumentiert Apple nun die jüngsten Erfolge, genauer gesagt die massiven Performancezuwächse, wenn man Modelle via MLX auf M5-Macs ausführt.


Ein M5 setzt sich deutlich ab
Der M5 bringt im Vergleich zum M4 zwei wesentliche Vorteile für KI-Aufgaben mit. 153 GB/s statt 120 GB/s an Speicherbandbreite sorgen neben verbesserten Neural Accelerators zu Ergebnissen, die sich sehen lassen können. Je nach Art der Aufgabe schnitt der M5 um Faktor 4 besser ab, unter anderem Bildgenerieren ging derart viel schneller vonstatten. Das getestete Modell mit 14 Milliarden Parametern erreichte eine "Time to First Token (TTFT)" von acht Sekunden, wohingegen sich der M4 35 Sekunden genehmigte. Folgendermaßen stellt Apple die ermittelten Werte gegenüber:


Durchgängig erhebliche Zuwächse
In Tests mit langen Prompts (10.000 bis 16.000 Token) zeigte der M5 in einem Fall sogar eine Verbesserung von 4,4× gegenüber einem M4-basierten Gerät. Der Speicherbandbreiten-Sprung von 28 Prozent sorgte laut Apple für eine Performance-Steigerung von 19 bis hin zu 27 % beim Durchsatz (gemessen in "token/s"). Gleichzeitig steigt die mögliche Modellgröße – 30-Milliarden-Parameter-Modelle sind nun problemlos möglich, waren auf M4-Geräten aber fast nicht sinnvoll einsetzbar. Dafür ist allerdings nicht nur die Bandbreite, sondern im Wesentlichen auch die simple Tatsache verantwortlich, 36 statt 24 GB Unified Memory verbauen zu können.

Es bleiben aber ganz praktische Probleme
Trotz der technischen Fortschritte bleibt Apples Ansatz ein Sonderweg, der nicht frei von Nachteilen ist. MLX liefert zwar beachtliche Ergebnisse auf Apple-Silicon-Chips, doch das Framework ersetzt kein etabliertes Ökosystem wie PyTorch. Da Apple keine native CUDA-Alternative bietet und die Branche weiterhin klar auf NVIDIA ausgerichtet bleibt, muss Apple jedes größere Modell erst mühsam anpassen, bevor es unter MLX performant läuft. Der M5 zeigt, was auf dem Mac möglich ist – aber ohne breitere Kompatibilität bleibt Apples KI-Strategie vorerst ein Inselbetrieb, der vor allem für interne Zwecke und spezialisierte Workflows interessant ist.

Kommentare

Unwindprotect21.11.25 13:21
Hm... das sehe ich etwas anders. Tatsächlich löst Apple mit MLX tatsächlich ein zentrales Problem... eben gerade das was bei euch behauptet wird nicht gelöst zu werden.

Apple will am Ende KI-Modelle auf den eigenen Produkten einsetzten. Mit MLX haben sie eine Lösung die sie selbst unter voller Kontrolle auf die eigene Hardware optimieren können. Wenn es bestimmte Fortschritte bei der Hardware gibt, kann MLX darauf angepasst werden. Wenn MLX bestimmte Features braucht, kann neuere Hardware dafür geschaffen werden.

Mit MLX hat Apple ein Framework mit dem Apple (und andere) KI-Modelle möglichst performant auf Apple Hardware zum laufen bringen kann.

Würde Apple dazu CUDA verwenden, wäre sie komplett Abhängig von NVIDIA. Abhängigkeit von z.B. Intel war überhaupt erst einer der Gründe für Apple Silicon. Warum sollte Apple gerade beim neuen Hype-Thema KI sich gleich wieder eine knüppelharte Abhängigkeit schaffen?

PyTorch ist ein Toolkit, das tendenziell eher kein 1st class citizen im Apple Entwickler-Kosmos ist. Indem Apple eigene Tools für das eigene Entwickler-Ökosystem bietet, macht es das leichter für Entwickler die in diesem Zuhause sind... also schaffen sie auch eigene Tools. Davon abgesehen kann man MLX _zusammen_ mit PyTorch verwenden (quasi statt CUDA).
+19
Mendel Kucharzeck
Mendel Kucharzeck21.11.25 13:47
Unwindprotect
Leider liegt genau hier das Problem, dass PyTorch keine Priorität im Apple-Kosmos hat – denn so gut wie aller Research und Neuerungen finden auf dieser Basis statt.

Wir hatten gerade vor einigen Wochen aufgrund eines experimentellen Projektes das Problem, dass wir SD-Modelle evaluieren, anpassen und verfeinern mussten. Da führt kein Weg an PyTorch vorbei – und wir hätten gerne einen M3 Ultra verwendet, es wurde aber aufgrund der mangelnden Unterstützung ein PC mit Nvidia 5090 RTX.
+16
Nebula
Nebula21.11.25 14:07
Ich fragte mal den Entwickler von OfflineLLM, warum er kein MLX in seiner App nutzt. Er meinte, seine Umsetzung von GGUF wäre performanter als MLX.
»Wir sind hier, um eine Delle im Universum zu hinterlassen.« – Steve Jobs
+1
Fontelster
Fontelster21.11.25 14:29
Weiß nicht, ob das richtig zum Thema passt, aber es gibt da grade diesen interessanten Bericht:
+1
Lavalampa21.11.25 16:08
Fontelster
Weiß nicht, ob das richtig zum Thema passt, aber es gibt da grade diesen interessanten Bericht:

Leider nicht möglich mit dem M5 MBP weil Apple zu geizig war TB5 einzubauen. Auch 5K120 an einen zukünfigen, neuen Studio Display sind damit nicht möglich.
-6
Unwindprotect21.11.25 22:07
Mendel Kucharzeck
Wir hatten gerade vor einigen Wochen aufgrund eines experimentellen Projektes das Problem, dass wir SD-Modelle evaluieren, anpassen und verfeinern mussten. Da führt kein Weg an PyTorch vorbei – und wir hätten gerne einen M3 Ultra verwendet, es wurde aber aufgrund der mangelnden Unterstützung ein PC mit Nvidia 5090 RTX.

Hattet ihr überlegt das evtl. auch einfach über Cloud compute zu machen? Es geht hier ja um einmalige Berechnungen.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.