Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Benchmark: M4 vs. M5 bei KI-Aufgaben – zwar beeindruckend, aber löst ein zentrales Problem nicht

MLX ist ein Open-Source-Framework, das speziell für Apple Silicon entwickelt wurde. Es ermöglicht Forschern, große Sprachmodelle lokal auf dem Mac auszuführen, zu feinjustieren oder zu experimentieren. MLX wurde 2023/2024 erstmals von Apple Machine Learning Research vorgestellt und vollständig im Unternehmen entwickelt. Einen Rückschlag hatte es Anfang des Jahres wohl gegeben, als laut Bloomberg fast das komplette Team kündigte – und Apple große Anstrengungen unternehmen musste, die Mitarbeiter zu halten. In einem Blogbeitrag dokumentiert Apple nun die jüngsten Erfolge, genauer gesagt die massiven Performancezuwächse, wenn man Modelle via MLX auf M5-Macs ausführt.


Ein M5 setzt sich deutlich ab
Der M5 bringt im Vergleich zum M4 zwei wesentliche Vorteile für KI-Aufgaben mit. 153 GB/s statt 120 GB/s an Speicherbandbreite sorgen neben verbesserten Neural Accelerators zu Ergebnissen, die sich sehen lassen können. Je nach Art der Aufgabe schnitt der M5 um Faktor 4 besser ab, unter anderem Bildgenerieren ging derart viel schneller vonstatten. Das getestete Modell mit 14 Milliarden Parametern erreichte eine "Time to First Token (TTFT)" von acht Sekunden, wohingegen sich der M4 35 Sekunden genehmigte. Folgendermaßen stellt Apple die ermittelten Werte gegenüber:


Durchgängig erhebliche Zuwächse
In Tests mit langen Prompts (10.000 bis 16.000 Token) zeigte der M5 in einem Fall sogar eine Verbesserung von 4,4× gegenüber einem M4-basierten Gerät. Der Speicherbandbreiten-Sprung von 28 Prozent sorgte laut Apple für eine Performance-Steigerung von 19 bis hin zu 27 % beim Durchsatz (gemessen in "token/s"). Gleichzeitig steigt die mögliche Modellgröße – 30-Milliarden-Parameter-Modelle sind nun problemlos möglich, waren auf M4-Geräten aber fast nicht sinnvoll einsetzbar. Dafür ist allerdings nicht nur die Bandbreite, sondern im Wesentlichen auch die simple Tatsache verantwortlich, 36 statt 24 GB Unified Memory verbauen zu können.

Es bleiben aber ganz praktische Probleme
Trotz der technischen Fortschritte bleibt Apples Ansatz ein Sonderweg, der nicht frei von Nachteilen ist. MLX liefert zwar beachtliche Ergebnisse auf Apple-Silicon-Chips, doch das Framework ersetzt kein etabliertes Ökosystem wie PyTorch. Da Apple keine native CUDA-Alternative bietet und die Branche weiterhin klar auf NVIDIA ausgerichtet bleibt, muss Apple jedes größere Modell erst mühsam anpassen, bevor es unter MLX performant läuft. Der M5 zeigt, was auf dem Mac möglich ist – aber ohne breitere Kompatibilität bleibt Apples KI-Strategie vorerst ein Inselbetrieb, der vor allem für interne Zwecke und spezialisierte Workflows interessant ist.

Kommentare

Unwindprotect21.11.25 13:21
Hm... das sehe ich etwas anders. Tatsächlich löst Apple mit MLX tatsächlich ein zentrales Problem... eben gerade das was bei euch behauptet wird nicht gelöst zu werden.

Apple will am Ende KI-Modelle auf den eigenen Produkten einsetzten. Mit MLX haben sie eine Lösung die sie selbst unter voller Kontrolle auf die eigene Hardware optimieren können. Wenn es bestimmte Fortschritte bei der Hardware gibt, kann MLX darauf angepasst werden. Wenn MLX bestimmte Features braucht, kann neuere Hardware dafür geschaffen werden.

Mit MLX hat Apple ein Framework mit dem Apple (und andere) KI-Modelle möglichst performant auf Apple Hardware zum laufen bringen kann.

Würde Apple dazu CUDA verwenden, wäre sie komplett Abhängig von NVIDIA. Abhängigkeit von z.B. Intel war überhaupt erst einer der Gründe für Apple Silicon. Warum sollte Apple gerade beim neuen Hype-Thema KI sich gleich wieder eine knüppelharte Abhängigkeit schaffen?

PyTorch ist ein Toolkit, das tendenziell eher kein 1st class citizen im Apple Entwickler-Kosmos ist. Indem Apple eigene Tools für das eigene Entwickler-Ökosystem bietet, macht es das leichter für Entwickler die in diesem Zuhause sind... also schaffen sie auch eigene Tools. Davon abgesehen kann man MLX _zusammen_ mit PyTorch verwenden (quasi statt CUDA).
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.