Erste Grafikbenchmarks: M1-Chip vs. Nvidia 1050Ti vs. Radeon RX 560

Kaum jemand verspottet Apples eigene Chips noch als "Handyprozessor", nachdem sich zeigte, dass selbst ein Ultrabook wie das MacBook Air gegen leistungsfähige Desktop-Rechner konkurrieren kann – oder diese gar übertrifft. Schon in der letzten Woche tauchten diverse Benchmark-Tests auf, die von beeindruckender Rechenleistung zeugen (siehe unter anderem ). Doch wie ist es eigentlich um die Grafik-Performance bestellt – können die M1-Chips auch in dieser Disziplin glänzen?


Vergleich mit zwei populären Grafikkarten
Inzwischen liegen auch hierzu erste Daten vor. Zwar beziehen sich die Vergleichswerte auf Grafikkarten des Typs Nvidia 1050Ti und Radeon RX 560, also nicht mehr ganz taufrische Modelle, dennoch kann man aus den Werten einiges ablesen. Selbst die genannten Modelle verweisen Intels potenteste Chipsatzgrafik nämlich empfindlich in die Schranken – mit bis zu 60% an Leistungsvorsprung. Gleichzeitig liegt die Leistungsaufnahme aber bei 75 Watt und somit bei einem Vielfachen der M1-Grafikkerne.

Die ersten Benchmark-Vergleiche stimmen optimistisch, denn der M1 muss das Duell keinesfalls scheuen. Ein wichtiger Hinweis: Die Daten stammen von GFXBench 5.0, also einem Test, der eher auf Smartphone-Benchmarking ausgerichtet ist. Aus diesem Grund sollte man die absoluten Werte mit Vorsicht betrachten, die Tendenz ist aber deutlich:


Für Chipsatzgrafik: Außerordentlich gut
Ohne jeden Zweifel dürfte der M1 also die Grafikleistung aller Macs ohne dedizierter Grafikkarte weit übertreffen – worauf Apple auch in den Produktbeschreibungen hinweist. Gleiches gilt auch für Macs, die mit einer Mittelklasse-Grafikkarte ausgestattet sind. Wie es möglich ist, mit einer integrierten Grafiklösung derlei Performance zu erreichen, hatten wir in der vergangenen Woche im Artikel "Was ist Shared Memory, Unified Memory und dediziertes VRAM?" erläutert: ).


... 2021 wird zeigen, was Apple mit neuen Grafikchips erreicht
Wirklich spannend wird aber, wie sich die Grafikleistung im kommenden Jahr entwickelt. Angeblich entwickelt Apple für den kommenden iMac (und wohl auch das MacBook Pro 16") einen gesonderten Grafikchip, Codename "Lifuka" (siehe ). Da jene Baureihen, vor allem aber ein zukünftiger Mac Pro, grafisch auf einem ganz anderen Level spielen müssen, kommt Apple um noch schnellere Grafiklösungen nicht umher. Wie genau die technische Umsetzung aussieht, lässt sich zum aktuellen Zeitpunkt indes schwer voraussagen. Wenig wahrscheinlich klingt aber, dass es noch "Grafikkarten von der Stange" gibt, also handelsübliche Produkte von Nvidia und AMD. Jene ließen sich nicht an Apples "Unified Memory"-Architektur anbinden, womit ein großer Vorteil des Systems wegfiele.

Kommentare

Crypsis8616.11.20 15:59
wow, schon beeindruckend. ich liebe es, wenn hersteller vollmundige ankündigungen machen und dann einfach liefern. wenn man bedenkt, dass das erst die einstiegsklasse !! ist. was mag da noch kommen innerhalb der ersten gerätegeneration...

das dürfte ja dann ungefähr eine rx570 sein, die man jetzt einfach so im 13" macbook dabei hat?! so ca.?
+11
Mendel Kucharzeck
Mendel Kucharzeck16.11.20 16:00
Das ist wirklich beeindruckend, dass man jetzt sogar im Mac mini und MacBook Air eine fähige GPU hat.
+18
Thyl16.11.20 16:23
Also bleibt es dabei, dass die M1-GPUs etwa 20% der Leistung einer Vega II zeigen. Da der Mac Pro bis zu 4 Vega II haben kann, also etwa 5% der Leistung eines maximal ausgebauten Mac Pro.

Da ist schon noch ein langer Weg hin. iMac und Macbook Pro Niveau hingegen könnte Apple relativ simpel durch die Kopplung von 2 M1-SoCs erreichen. Das wird ihnen aber vermutlich nicht reichen.

Was GPUs von AMD anbelangt: wenn man sich das Schema der Gesamtbaugruppe ansieht, das Apple bei der Präsentation gezeigt hat, so sind CPUs und GPUs mit dem Speicher über das Fabric verbunden. Damit spricht eigentlich nichts dagegen, eine AMD-GPU so anzubinden. Das Fabric muss nur Schaltungen enthalten, die zwischen der GPU und dem Speicher vermitteln.

AMD hat auch so ein Fabric, das sogar lizensierbar ist, wenn ich das richtig verstehe. Wer weiß, was Apple da verwendet.
-1
Dante Anita16.11.20 16:24
Wenn jetzt Blizzard noch bestätigen könnte, dass sie WoW für den M1 anpasen, könnte ich ein MacMini bestellen.
+6
pünktchen
pünktchen16.11.20 16:28
Noch ein Benchmark:
pünktchen
laut Affinity Photo Benchmark etwa 85% der Leistung einer RX 580X

und dabei 25% schneller als die Intel Core i5 6-core CPU in dem iMac
+5
gegy
gegy16.11.20 16:32
Da sieht man mal, was alles geht, wenn man in der Chip Hardware aufräumt und mal alles von 0 neu aufbaut. Ich glaube Intel, NVidia und AMD schleppen da schon einiges an "Müll" die letzen Jahre mit.
+13
Charlie216.11.20 16:34
Auch wenn Highend-Grafikkarten noch lange nicht erreicht werden, so könnte zumindest der Markt für mittelschnelle Grafikkarten schrumpfen — wenn denn Windows-PCs Richtung ARM gehen sollten.

Wobei sie dann noch immer nicht über den M1 verfügen können.
Und für n Apple und n Ei schon garnicht, also bleibt es wohl doch so, wie es ist.
-5
Mecki
Mecki16.11.20 16:49
gegy
Da sieht man mal, was alles geht, wenn man in der Chip Hardware aufräumt und mal alles von 0 neu aufbaut.
Najaaa... jetzt wollen wir mal die Kirche im Dorf lassen. Apple hat hier nicht bei 0 angefangen. Apple hat sich beim M1 bestimmt vieles von den iPhone/iPad CPUs abgeschaut und auch diese haben nicht bei 0 angefangen, sondern basieren auf Designs, die Apple mal eingekauft hat und seither eigenständig weiterentwickelt.

Die M1 zeigt eher, dass die ARM Architektur x86 einfach grundsätzlich überlegen ist (was ich schon immer gesagt habe), das wird mit den kommenden CPUs von Apple bald noch viel deutlicher werden. Und bei GPU zeigt der M1, dass auch Desktopsysteme von den Optimierungen profitieren, die man entwickelt hatte, um besser Ergebnisse auf mobilen Systemen zu erhalten, Dinge, denen NVidia und AMD bisher am Desktop nur wenig Beachtung geschenkt haben (weil Desktop, mächtig, Ressourcen ohne Ende, usw.), aber Optimierung zahlt sich einfach immer auf, auch auf mächtigen Systemen.
+2
pünktchen
pünktchen16.11.20 16:50
Thyl
iMac und Macbook Pro Niveau hingegen könnte Apple relativ simpel durch die Kopplung von 2 M1-SoCs erreichen. Das wird ihnen aber vermutlich nicht reichen.

Ich denke wenn man schon mehrere Prozessoren braucht dann wird es doch effizienter sein die CPUs und die GPUs zusammenzupacken. Es spricht doch nichts dagegen einen Apple G1 Chip mit sagen wir 24 GPUs zu bestücken und den M2 dafür mit 24 CPUs. Wenn Apple so riesige Dies nimmt wie ARM und NVIDIA* dann passen da sicher auch 48 oder 60 GPUs drauf.

Interessanter finde ich tatsächlich die Frage nach dem "Fabric". Da wissen wir gar nichts zu.

* zB 536 mm2 beim AMD Navi 21 versus vermutlich etwa 120 mm2 beim M1
+2
pünktchen
pünktchen16.11.20 16:52
Mecki
Die M1 zeigt eher, dass die ARM Architektur x86 einfach grundsätzlich überlegen ist (was ich schon immer gesagt habe)

Selbst wenn das so wäre was ich bis auf die Decoderbreite bezweifle, hier geht es um die GPU und nicht um die CPU.
+5
pünktchen
pünktchen16.11.20 16:56
notebookcheck.com hat hier noch die aktuelle integrierte Konkurrenz von Intel Tigerlake und AMD Ryzen dazu genommen:

Sieht nicht gut für die aus.
+5
Maestro7416.11.20 17:01
Dante Anita
Wenn jetzt Blizzard noch bestätigen könnte, dass sie WoW für den M1 anpasen, könnte ich ein MacMini bestellen.

+1
+1
Cyman16.11.20 17:04
Ich glaube, diese Benchmarks vor ein paar Tagen nach meiner Suche auch gefunden zu haben, weil mich interessierte, wie speziell die GPU-Performance im Vergleich zu den intel-Geräten (wie meinem alten 15" MBPr (Late 2013) mit GeForce GT750M) performt.

Es sieht ganz danach aus, dass mein aktueller, also alter Rechner da ziemlich alt aussieht. Die Frage ist nun, ob ich auf das 16"-Modell mit Apple Silicon warte oder meinen 15" jetzt in Rente schicke und zwischenzeitlich das 13" M1 MBP nutzen sollte bis das 16"-Modell kommt...
+1
Cyman16.11.20 17:06
Maestro74
Dante Anita
Wenn jetzt Blizzard noch bestätigen könnte, dass sie WoW für den M1 anpasen, könnte ich ein MacMini bestellen.
+1

Was Blizzard macht, ist für mich auch wichtig, da ich immer noch Diablo 3 zocke (wenn auch nur gelegentlich). Ich hoffe, dass mit Big Sur oder dem Nachfolger auch Diablo Immortal auf dem Mac spielbar sein wird (wenn es denn mal fertig ist).
+2
Bennylux
Bennylux16.11.20 17:07
Frage mich wie das mit den Grafikarten gehandhabt wird? Werden die dann obsolet oder wie wird das funktionieren? Kann mir nicht vorstellen, dass AMD oder NVidia da noch Sachen für die ARM-Macs machen werden.

Kenne mich mit der Materie aber zu wenig aus. Denke immer noch, dass man für grafisch intensive Sachen, wie z.B. Spiele eine Grafikkarte nötig ist?
Think different! 
0
macfori16.11.20 17:12
Thyl
Also bleibt es dabei, dass die M1-GPUs etwa 20% der Leistung einer Vega II zeigen. Da der Mac Pro bis zu 4 Vega II haben kann, also etwa 5% der Leistung eines maximal ausgebauten Mac Pro.

Ich habe mal die Verhältnisse genommen und PassMark Ergebnisse ergänzt bzw. für die Vergleichsberechnungen verwendet.
Natürlich nur ein Rechenmodell.
+5
UWS16.11.20 17:15
Geduld, Geduld, ist ja nicht mehr lange...ab morgen wird es dann sicher harte Fakten geben und wir sehen weiter.
0
MetallSnake
MetallSnake16.11.20 17:22
Was hat es denn mit dem ALU 2 Test auf sich? Die weichen die Werte extrem von einander ab.
Die Radeon schafft da über 6200 FPS und die GeForce "nur" noch 510 . Ist auch der einzige Test bei dem der M1 der langsamste der 3 GPUs ist.
Erwachsensein ist halb gestorben --Relatives Menschsein
+1
Quickmix
Quickmix16.11.20 17:27
Dante Anita
Wenn jetzt Blizzard noch bestätigen könnte, dass sie WoW für den M1 anpasen, könnte ich ein MacMini bestellen.

+1
0
pünktchen
pünktchen16.11.20 18:03
macfori
Ich habe mal die Verhältnisse genommen und PassMark Ergebnisse ergänzt bzw. für die Vergleichsberechnungen verwendet.

Ist das nicht ein CPU Benchmark? Was nützt der bei einem GPU Vergleich?
+2
Thyl16.11.20 18:17
pünktchen
Thyl
iMac und Macbook Pro Niveau hingegen könnte Apple relativ simpel durch die Kopplung von 2 M1-SoCs erreichen. Das wird ihnen aber vermutlich nicht reichen.

Ich denke wenn man schon mehrere Prozessoren braucht dann wird es doch effizienter sein die CPUs und die GPUs zusammenzupacken. Es spricht doch nichts dagegen einen Apple G1 Chip mit sagen wir 24 GPUs zu bestücken und den M2 dafür mit 24 CPUs. Wenn Apple so riesige Dies nimmt wie ARM und NVIDIA* dann passen da sicher auch 48 oder 60 GPUs drauf.

Interessanter finde ich tatsächlich die Frage nach dem "Fabric". Da wissen wir gar nichts zu.

* zB 536 mm2 beim AMD Navi 21 versus vermutlich etwa 120 mm2 beim M1
Mich haben zwei Sachen auf die Idee gebracht:

1., dass Apple drei Produkte mit einem einzigen SoC ausstattet, offensichtlich, um die Anzahl der zu entwickelnden Chips klein zu halten. Diese Idee ließe sich auf die skizzierte Weise noch fortführen. Ein einziger SoC für 90 % der Geräte.

2. Die Limitierung auf 16 GB. Zwei M1, und wir hätten gleich 32 GB, was vielen reichen wird.

Aber klar, irgendwann kommt Apple nicht um weitere Chips drumrum, das Konzept ist damit schon ausgereizt, irgendwie glaube ich nicht, dass das Fabric mehr als zwei SoCs integrieren kann. Aber wer weiß.
0
Thyl16.11.20 18:19
Bennylux
Frage mich wie das mit den Grafikarten gehandhabt wird? Werden die dann obsolet oder wie wird das funktionieren? Kann mir nicht vorstellen, dass AMD oder NVidia da noch Sachen für die ARM-Macs machen werden.

Kenne mich mit der Materie aber zu wenig aus. Denke immer noch, dass man für grafisch intensive Sachen, wie z.B. Spiele eine Grafikkarte nötig ist?
macfori
Thyl
Also bleibt es dabei, dass die M1-GPUs etwa 20% der Leistung einer Vega II zeigen. Da der Mac Pro bis zu 4 Vega II haben kann, also etwa 5% der Leistung eines maximal ausgebauten Mac Pro.

Ich habe mal die Verhältnisse genommen und PassMark Ergebnisse ergänzt bzw. für die Vergleichsberechnungen verwendet.
Natürlich nur ein Rechenmodell.
ah, I stand corrected!
0
Mecki
Mecki16.11.20 18:23
Thyl
2. Die Limitierung auf 16 GB. Zwei M1, und wir hätten gleich 32 GB, was vielen reichen wird.
Das haut nicht hin, weil dann jeder der beiden M1 nur Zugriff auf je 16 GB hätte. Denn der Speicher ist direkt angebunden und sitzt mit auf der CPU. Da Threads aber frei zwischen den Cores aller CPUs wandern können, müssen sie auch immer auf jeglichen Speicher zugreifen können. Aber um auf die 16 GB der anderen M1 zuzugreifen, müsste der Zugriff über einen Bus gehen und das allein würde ihn dramatisch ausbremsen. Und überhaupt bringen mehrere CPUs gar keine Vorteile gegenüber mehr Cores und sind immer nur eine Notlösung, wenn aus irgend einen Grund mehr Cores nicht möglich waren.
+3
splash16.11.20 18:37
Dumme Frage: beziehen sich die Zahlen im Artikel auf einen GPU-Kern oder ist es die Summe?
Und kann man bei der Einstiegsversion mit 7 Kernen davon ausgehen, dass die Grafik-Leistung um 1/8 geringer ist? Würde ich das in einem nichtprofessionellen Umfeld überhaupt spüren? Games interessieren mich nicht. Ich würde höchstens mal ein kurzes Video bearbeiten- aufgezeichnet mit dem iPhone.
+1
Mecki
Mecki16.11.20 19:13
splash
Dumme Frage: beziehen sich die Zahlen im Artikel auf einen GPU-Kern oder ist es die Summe?
Also erst mal: Das ist überhaupt kein dumme Frage. Das ist sogar eine relativ intelligente Frage, denn ich wette darüber haben die meisten sich hier nicht einmal Gedanken gemacht bisher.

Die Antwort ist: Sie beziehen sich auf die Summe aller GPU Kerne, denn anders als bei einer CPU macht es bei einer GPU für Endanwender wenig Sinn die Leistung einzelner Kerne zu messen, das wird nur für den Schwanzvergleiche der GPU Hersteller benötigt (ich hab den läng... ich meine schnellsten Kern).

Der Grund ist der: Damit eine App von mehr CPU Kernen profitiert, muss sie auch so geschrieben sein, dass sie ihre Arbeit sinnvoll auf mehrere Kerne verteilen kann. Kann sie das nicht, läuft sie auf einer 1-Kern-CPU so schnell wie auf einer 100-Kern-CPU, wenn die Kerne gleich schnell sind und daher misst man hier auch die Leistung der einzelnen Kerne, da viele Apps nämlich nur minimal von mehr CPU Kernen profitieren. Anders bei der GPU: Hier muss die App gar nichts machen und von mehr Kernen zu profitieren, da die GPU die Zeichenoperationen selber auf die Kerne verteilt und mehr Kerne heißt somit automatisch mehr Zeichenoperationen in der gleichen Zeit und davon profitiert jede App.

Und kann man bei der Einstiegsversion mit 7 Kernen davon ausgehen, dass die Grafik-Leistung um 1/8 geringer ist?
In etwa, ja.

Würde ich das in einem nichtprofessionellen Umfeld überhaupt spüren?
Bei 3D Grafik liegt die Framerate halt ca. 1/8 niedriger. Schafft die 8 Core Version also 75 FPS, dann schafft die 7 Core Version eben etwa nur 66 FPS. Wird die GPU zum rechnen verwendet, dann ist sie eben 1/8 langsamer, d.h. dauert etwas mit 8 Kernen 20 Sekunden zum Berechnen, dann dauert es mit 7 Kernen eben 22,8 Sekunden, dauert es 1 Minute mit 8, dann dauert es mit 7 eben 1 Minute und 8,6 Sekunden. Gamer dürfte der Frameratenverlust durchaus stören, aber den meisten Menschen wohl eher nicht.
+4
Thyl16.11.20 19:32
Mecki
Thyl
2. Die Limitierung auf 16 GB. Zwei M1, und wir hätten gleich 32 GB, was vielen reichen wird.
Das haut nicht hin, weil dann jeder der beiden M1 nur Zugriff auf je 16 GB hätte. Denn der Speicher ist direkt angebunden und sitzt mit auf der CPU. Da Threads aber frei zwischen den Cores aller CPUs wandern können, müssen sie auch immer auf jeglichen Speicher zugreifen können. Aber um auf die 16 GB der anderen M1 zuzugreifen, müsste der Zugriff über einen Bus gehen und das allein würde ihn dramatisch ausbremsen. Und überhaupt bringen mehrere CPUs gar keine Vorteile gegenüber mehr Cores und sind immer nur eine Notlösung, wenn aus irgend einen Grund mehr Cores nicht möglich waren.
der Bus heißt Fabric und ist bereits laut der Skizze auf der Präsentation die Verbindung der verschiedenen Komponenten mit dem RAM. Wenn das Fabric rausführbar ist, wäre es kein Problem. Wie wissen derzeit einfach noch zu wenig.

Dadurch wäre die 2 SoCs dann quasi so zusammengeschaltet, als wären sie eins.

Bei AMD läuft so was als Infinity Fabric (aus der Wikipedia): Infinity Fabric (IF) is a superset of HyperTransport announced by AMD in 2016 as an interconnect for its GPUs and CPUs. It is also usable as interchip Interconnect for communication between CPUs and GPUs (for Heterogeneous System Architecture), an arrangement known as Infinity Architecture.[6][7][8] The company said the Infinity Fabric would scale from 30 GB/s to 512 GB/s, and be used in the Zen-based CPUs and Vega GPUs which were subsequently released in 2017.

The "SDF" data interconnects are run at the same frequency as the DRAM memory clock (MEMCLK), a decision made to remove the latency caused by different clock speeds. As a result, using a faster RAM module makes the entire bus faster. The links are 32-bit wide, as in HT, but 8 transfers are done per cycle (128-bit packets) compared to the original 2. Electrical changes are made for higher power efficiency.
0
splash16.11.20 19:35
Mecki

Danke für die Ausführungen!
Dann gehe ich mal davon aus, dass bei all den Benchmarks der M1 GPU von acht Kernen ausgegangen wird, richtig?

Ich werde mir voraussichtlich ein M1 MBA kaufen. 256 GB SSD reichen mir aus, der Aufpreis zu 512 GB ist mir persönlich zu hoch. Was ich aber zwingend möchte, sind 16 GB RAM. Ich denke, die 7 GPU Kern Variante ist ausreichend.
+1
Mecki
Mecki16.11.20 19:43
splash
Dann gehe ich mal davon aus, dass bei all den Benchmarks der M1 GPU von acht Kernen ausgegangen wird, richtig?
Sofern nichts anderes angegeben ist, würde ich grundsätzlich davon ausgehen.
+1
Mecki
Mecki16.11.20 19:49
Thyl
der Bus heißt Fabric und ist bereits laut der Skizze auf der Präsentation die Verbindung der verschiedenen Komponenten mit dem RAM.
Alle Komponenten sitzen auf einer einzigen Die. Das sind keine eigenständigen Chips. Davon ausgenommen sind nur die beiden RAM Chips, die sitzen zwar auf der CPU, aber sind nicht Teil der Die.



Die derzeitige Anbindung verbindet das Die mit den beiden RAM Chips.

Um mehr als 16 GB RAM zu haben, brauchst du zum einen mehr oder größere RAM Chips und zum anderen muss das Die auch mehr als 16 GB Ansprechen können.

Ein zweiter SoC könnte auch nur 16 GB Ansprechen. Dadurch, dass du zwei SoCs hast, die je 16 GB ansprechen können, erhältst du aber kein System mit 32 GB, denn wie soll der erste SoC auf das RAM des zweiten zugreifen? Das ergibt halt leider überhaupt keine Sinn was du schreibst.

Man kann nicht einfach zwei SoCs zu einem zusammen schalten. Bei den Systemen, die du als Beispiele nennst funktioniert das grundlegend anders und da kann von Haus aus jeder Chip auf Speicher in voller Ausbaustufe zugreifen. Aber das geht hier nicht, weil Unified Memory ganz andere Anforderungen hat.
+3
d2o16.11.20 21:56
Wenn jetzt die Programme komme, die genuine für den M1 und die Grafik gemacht wurden, dann könnte das auch für den Bereich der Gamer interessant werden.
Nicht für alle, aber ich denke schon, dass da ein gewisser Teil davon begeistert wäre.
+2
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.