Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Bloomberg über kommende Pro-Macs: Bis zu 32 Performance-Kerne – und 128 Grafik-Cores

Im Mobilbereich begeistern Apples neue M1-Chips und deklassieren die zuvor angebotenen Geräte. Dies trifft gleichermaßen auf den Mac mini zu, der es selbst mit einem iMac Pro ohne Probleme aufnehmen kann. Einem aktuellen Bloomberg-Bericht zufolge könnte man im kommenden Jahr aber noch mehr ins Staunen geraten. Dann wolle Apple nämlich das MacBook Pro, den iMac sowie den Mac Pro auf eigene Chips umstellen. Diese sollen auch im Grafikbereich mit erstaunlicher Leistung überzeugen.

Für MacBook Pro und iMac arbeite Apple an Chips mit bis zu 16 Kernen, wenngleich zunächst wohl Varianten mit 8 oder 12 Cores angeboten werden. Der Grund dafür sei fertigungstechnischer Natur, denn mit mehr Kernen steigt das Risiko defekter Komponenten. Zum Vergleich: Die aktuellen M1-Macs verfügen allesamt über vier Performance-Kerne. Für den Mac Pro hat Apple aber wohl noch ambitionierte Pläne, denn Bloomberg spricht von Systemen mit bis zu 32 Performance-Kernen.


Apples Grafiklösungen
Während der M1 sieben bzw. acht Grafikkerne mitbringt, plant Apple auch noch leistungsfähigere Chips – bzw. eigene Grafikkarten. Einerseits sollen Apples Systemchips 16 oder 32 Grafikkerne aufweisen, andererseits wolle Apple Grafik-Upgrades mit 64 oder gar 128 dedizierten Grafik-Cores anbieten. Bis es so weit ist, wird es laut Bloomberg aber Ende 2021 oder Anfang 2022. Man kann davon ausgeben, für derlei Optionen sehr tief in die Tasche greifen zu müssen – dennoch bekäme man mit den genannten Varianten Leistungswerte, die es so bei keinem anderen Hersteller gibt. Dies trifft sowohl auf die CPU- als auch die GPU-Performance zu.

Apples Zeitplan
Im Frühjahr erfolgt zunächst die Umstellung des MacBook Pro 16" als auch des iMacs. Performance-Versionen mit mehr Kernen folgen im Herbst, selbiges trifft auf den ersten Mac Pro mit Apple-Chips zu. 2022 soll eine neue Variante des Mac Pro in kleinerem Gehäuse erscheinen (wir berichteten: ). Das Ziel des Unternehmens laute, schon 2022 auf Intel verzichten zu können. Für den Chipriesen bedeutet dies den Wegfall eines Kunden, der je nach Schätzung zwischen 2 und 5 Prozent zum gesamten Umsatz beitrug.

Kommentare

Thorin.IT
Thorin.IT07.12.20 13:29
Whoaaa! Wenn da was dran ist,...
Dein lokaler IT-Support
+2
Mendel Kucharzeck
Mendel Kucharzeck07.12.20 13:33
Thorin.ACMT
Bisher lag Bloomberg bei Mac-Themen seltenst falsch – und sie haben ja schon Anfang 2018 den ARM-Umstieg angekündigt
+4
subjore07.12.20 13:36
Bei den 12 Kerner ist die Frage wie viele davon Performance Kerne sind.
Apple soll ja in diesem (A14) Modelljahr noch zwei Mac Prozessoren vorstellen. Einer davon hat vermutlich 8 Performance und 4 Effizienz Kerne. Und der andere? 6 P 4E oder 12P 0E?

Zu der Grafikkarte mit 128 Kernen:
Damit wäre Apple recht gut dabei im Bereich der teuersten Consumer Grafikkarten. Allerdings kommt es bei den Dingern ja nicht nur auf die Anzahl der Kerne und der Leistung pro Kern an. Mal gucken wies dann im Detail aussieht.

Bisher kamen die Mac Pros immer im Dezember, also vielleicht wird’s ja wieder was für Dezember 2021.
-2
Mendel Kucharzeck
Mendel Kucharzeck07.12.20 13:39
subjore
Damit gemeint sind 12 Performance-Kerne + 4-Effizienz-Kerne
+3
subjore07.12.20 13:43
Mendel Kucharzeck
subjore
Damit gemeint sind 12 Performance-Kerne + 4-Effizienz-Kerne

Ah ok, wobei die Frage besteht wofür der iMac Effizienz Kerne benötigt.
Die sind relativ zur Leistung relativ groß und je größer der Chip wird desto teurer wird er auch.
-3
UWS07.12.20 13:45
Hm eigentlich braucht man da keine allzu große Glaskugel...weil, irgendwas müssen sie ja in die Rechner bauen. Und um die nötige Performance hinzubekommen, müssen eben mehr Kerne her, am besten so viele wie möglich – sieht man ja auch bei AMD. Allerdings hat Apple schon beim M1 zusätzlich eine extrem gute Single-Core-Performance hinbekommen.

Was ich total spannend finde ist die Frage, wie das dann alles in einem High-End-System vereint wird. Stichworte: Grafikoptionen (nur noch Apple?), Speicherausbau und Erweiterungsslots.

Aber viel schlimmer: WARUM MUSS ICH DARAUF SO LANGE WARTEN? Sabber, Sabber
There is no cloud…it’s just someone else’s computer.
+3
UWS07.12.20 13:48
subjore
Ah ok, wobei die Frage besteht wofür der iMac Effizienz Kerne benötigt.
Ganz einfach, mit den Effizienz-Kernen werden die meisten gängigen Standard-Aufgaben gemacht, da braucht es die hohe Leistung gar nicht – und das spart in erster Linie Strom. Und DAS ist ja auch bei Desktoprechnern keine schlechte Idee...
There is no cloud…it’s just someone else’s computer.
+22
pogo3
pogo307.12.20 13:48
Da wird was dran sein, und es würde mich nicht überraschen. 8 - 16 Cores, das ist jetzt doch nichts neues. Ich hoffe nur das der iMac nicht mehr zu lange dauert, weil ich unbedingten Investitionsbedarf habe. Mein aktueller is in die Jahre gekommen, kann nach wie vor super, aber 2 Dinge bräuchte ich: schnellere Schnittstellen und Gewissheit für die nächsten Jahre.
Ich schmeiss alles hin und werd Prinzessin.
+1
Legoman
Legoman07.12.20 13:48
Und mein Autocad sagt: Ach komm, ich nutze nur einen einzigen Kern - geh dir einfach mal nen Kaffee holen, während ich rechne.
+12
moosegcr
moosegcr07.12.20 13:53
Legoman
Und mein Autocad sagt: Ach komm, ich nutze nur einen einzigen Kern - geh dir einfach mal nen Kaffee holen, während ich rechne.
Dein AutoCAD schaut auf dich
+2
subjore07.12.20 13:53
UWS
subjore
Ah ok, wobei die Frage besteht wofür der iMac Effizienz Kerne benötigt.
Ganz einfach, mit den Effizienz-Kernen werden die meisten gängigen Standard-Aufgaben gemacht, da braucht es die hohe Leistung gar nicht – und das spart in erster Linie Strom. Und DAS ist ja auch bei Desktoprechnern keine schlechte Idee...

Ja, aber dafür wird der Prozessor in der Herstellung teurer als das was du jemals an Strom einsparen wirst. Die Kosten für die Chips werden überproportional teurer je größer die werden. Und wir reden hier von Performance Kerne die bei 100% Auslastung unter 2,5 Watt verbrauchen. Bei 10% Auslastung ziehen auch die fast nichts.

Als Beispiel, wenn ein Computer 11.4 Jahre durch läuft sind das fast 100000 Stunden. Wenn jetzt der Computer jede Stunde 1Watt einsparen würde (was die Performance Kerne nicht über die ganze Zeit gerechnet hinbekommen würden), dann hätte man am Ende 100 kWh eingespart. Die tatsächlichen Einsparungen dürften deutlich darunter liegen und die Laufzeit der Computer dürfte im Schnitt auch kürzer sein.
-7
pünktchen
pünktchen07.12.20 13:56
Bei den 32 Cores kommt es halt drauf an wie gut die dann skalieren. Bisher sieht das bei Apple ja ziemlich gut aus aber 4 Cores sind halt was anderes als 32. Wenn sie das mit verhältnismässig wenig Leistungseinbusse hinbekommen könnten sie AMDs und Intels Dickschiffe um 50% übertreffen.

Bei den GPUs ist es ähnlich. Die dicksten sind zehn mal schneller, 16 mal mehr Kerne könnten also schon reichen um die zu überholen. Wenn sie gut skalieren.

Wenn das Wörtchen wenn nicht wäre ..
+4
awk07.12.20 13:58
Für den Chipriesen bedeutet dies den Wegfall eines Kunden, der bislang rund 10 Prozent zum gesamten Umsatz beitrug.

Ich hoffe das kommt so nicht von Bloomberg, denn das ist totaler Quatsch. Apple trägt geschätzt rund 5 Prozent zu Intels Umsatzerlös bei. Intel legt derzeit gut zu, hauptsächlich wegen der gut laufenden und ertragsstarken Xeon Prozessoren. Der Anteil Apples in diesem Segment ist marginal.
Gerne vergessen wird, Intel ist bekannt für seine Prozessoren, stellt aber auch andere Produkte her. Der Anteil der PC Prozessorsparte beträgt rund 55 Prozent.
Es wäre sehr angenehm könnte man die Debatte versachlichen, Dieses Intel Bashing mit zum Teil haarsträubenden Thesen, gegründet auf Unwissen, ist nicht seriös.
+4
Fenvarien
Fenvarien07.12.20 14:01
awk Die Bloomberg-Schätzung ist in der Tat zu hoch. In Analystenkreisen reichen die Schätzungen von 2 bis 5 Prozent
Ey up me duck!
+3
Deneb
Deneb07.12.20 14:10
Wenn das schon die kurzfristigen Pläne von Apple sein sollen, wie sehen dann erst die mittel- und langfristigen Pläne aus? Ich hoffe mal, dass Apple sich nicht auf diesem Vorsprung ausruhen wird, sonder ihn noch rasant weiter ausbaut. Damit könnten viele neue Kunden gewonnen werden.
+2
Dante Anita07.12.20 14:12
Da bin ich auf die Preise gespannt. Die bis jetzt vorgestellten M1-Macs haben ja ein hervorragendes Preis-Leistungs-Verhältnis. Hoffe Apple behält das einigermaßen bei.
+4
pünktchen
pünktchen07.12.20 14:17
Deneb
Ich hoffe mal, dass Apple sich nicht auf diesem Vorsprung ausruhen wird, sonder ihn noch rasant weiter ausbaut.

Die basteln ja nicht seit gestern an den Chips sondern spätestens seit dem A7 bei dem sie schon von "64-bit desktop-class architecture" sprachen, also inklusive Entwicklungszeit wohl seit zehn Jahren. Ich denke die Zeit der schnellen Fortschritte ist da langsam vorbei und wir werden uns in Zukunft mit ähnlichen Fortschritten wie bei der Konkurrenz begnügen müssen.
+2
Deneb
Deneb07.12.20 14:24
pünktchen
Deneb
Ich hoffe mal, dass Apple sich nicht auf diesem Vorsprung ausruhen wird, sonder ihn noch rasant weiter ausbaut.

Die basteln ja nicht seit gestern an den Chips...

Entscheidend wird die Frage sein, wie gut die ARM-Architektur im Vergleich zu Intel mit steigender Anzahl von Kernen skaliert. Eine zweite spannende Frage wird sein, wann die Konkurrenz auf diesen Zug aufspringen wird und wer für sie die Chips fertigen soll.
+1
UWS07.12.20 14:34
subjore
Ja, aber dafür wird der Prozessor in der Herstellung teurer als das was du jemals an Strom einsparen wirst.
Äh mag sein...ich hatte das allerdings nicht nur unter dem reinen Kosten-/Nutzenaspekt für mich persönlich betrachtet, sondern Strom sparen generell als wünschenswert definiert. Man muss das ja mal auf alle eingesetzen Rechner weltweit hochrechnen...
There is no cloud…it’s just someone else’s computer.
+6
Charlie207.12.20 14:42
Habe mal die OpenCL-Scores von Geekbench zusammengestellt:



Was dabei auffällt: die RTX müsste eigentlich 18mal so schnell sein wie die Grafik des M1, weil 10x soviele Kerne und dann noch 1,8fache Taktung. Somit hat also der M1 mit seiner Grafik deutlich mehr Power pro Kern und Taktung! Müsste man mal die Verbräuche gegenüberstellen.

Erstaunlich, dass die 2014er Iris 40 Compute Units hat, und trotzdem so langsam ist. Die 630er ist kaum schneller, hat aber die Leistungsfähigkeit pro Unit deutlich verbessert. Und Apples Grafik braucht sich nicht verstecken: Ebenso wie die Single-Core-Performance des M1 sehr gut ist, ist auch die GPU-Performance pro Unit sehr gut.
Vergleicht man M1 mit RX570, dann müsste die RX 5mal schneller sein, ist aber nur knapp 2mal schneller.
Apple braucht also nur noch die 10fache Anzahl Units in ein Gehäuse tun, dann sind sie gleich schnell bei 60% der GeForce-Taktung.

Und bei nicht nur 80, sondern den 128 von Bloomberg erwähnten GPU-Cores ...
+2
MacRS07.12.20 14:59
Ich kann mit Cores in Sachen GPUs gar nichts anfangen. Mit TFlops/Textureinheiten/Shader wären interessant.
+1
pünktchen
pünktchen07.12.20 15:02
Jeder GPU-Core hat wohl 8 Ausführungseinheiten = 128 bei der Variante des M1 mit allen 8 Cores. Und theoretisch max. 2,6 Teraflops.

NVidia gibt für seine GeForce RTX 3090 mit 36 TFLOPS an. Allerdings mit einer TDP von um die 400 Watt (statt der 10 Watt des M1).
+3
Charlie207.12.20 15:10
Du meinst 8 x 16 = 128?

Bei 400 Watt für die RTX dürfte der M1 40 Watt ziehen bei 1/10 der Performance. Mit 10 Watt ist die GPU des M1 also 4mal so effizient.
+1
Saffire07.12.20 15:11
mich würde interessieren, ob man anstatt immer mehr Kernen in einer CPU nicht einfach mehrere M1 parallel schalten könnte mit ähnlichen Leistungswerten. Mehr Leistung durch einfach mehr M1´s?
0
Charlie207.12.20 15:13
Dann hat man aufgeteiltes Memory, das geht so nicht. Zumindest nicht so einfach.
0
gfhfkgfhfk07.12.20 15:13
Charlie2
Was dabei auffällt: die RTX müsste eigentlich 18mal so schnell sein wie die Grafik des M1, weil 10x soviele Kerne und dann noch 1,8fache Taktung. So dass der M1 mit seiner Grafik deutlich mehr Power pro Kern und Taktung hat! Müsste man mal die Verbräuche gegenüberstellen.
Der Vergleich von Units ist relativ sinnfrei, weil die bei jedem Anbieter unterschiedlich ausgestaltet sind. Die RTX3090 hat 10496:328:112:328:82 als Core Configuration (Shaders:Texture Mapping:Render Output:Tensor:Raytracing Units). Wenn man das vergleichen will, muss man mehr wissen über die Units in der GPU.
+3
gfhfkgfhfk07.12.20 15:15
Saffire
mich würde interessieren, ob man anstatt immer mehr Kernen in einer CPU nicht einfach mehrere M1 parallel schalten könnte mit ähnlichen Leistungswerten. Mehr Leistung durch einfach mehr M1´s?
Jein, denn darauf muss man die Software explizit anpassen, da man dann ein NUMA-System hat. Apple hatte das damals mit dem MacPro 4,1 und 5,1 und die Umsetzung war nicht sonderlich geglückt, weshalb Apple danach nur noch MacPros mit ohne NUMA auf dem Markt brachte.
+2
Charlie207.12.20 15:17
Der Vergleich zeigt, dass eine Compute Unit des M1 mehr wegschafft als eine Unit der RTX. Das ist nicht sinnfrei, sondern Fakt. Was auch immer da organisatorisch in einer Unit jeweils gemacht wird. Entscheidend ist, was hinten rauskommt
+2
pünktchen
pünktchen07.12.20 15:21
Charlie2
Du meinst 8 x 16 = 128?

Ja 8 Cores * 16 AE = 128 AE, sorry.

Charlie2
Bei 400 Watt für die RTX dürfte der M1 40 Watt ziehen bei 1/10 der Performance. Mit 10 Watt ist die GPU des M1 also 4mal so effizient.

Wenn man die kühleren Laptopvarianten nimmt ist der Unterschied nicht mehr ganz so gross, aber immer noch Faktor 2-3.
0
MacRS07.12.20 15:32
pünktchen
Jeder GPU-Core hat wohl 8 Ausführungseinheiten = 128 bei der Variante des M1 mit allen 8 Cores. Und theoretisch max. 2,6 Teraflops.

NVidia gibt für seine GeForce RTX 3090 mit 36 TFLOPS an. Allerdings mit einer TDP von um die 400 Watt (statt der 10 Watt des M1).
Sehr interessant - wobei man sagen muss, dass die Apple-GPUs offenbar noch relativ niedrig getaktet sind. Das wäre dann noch mal eine Stellschraube.

Wenn man schaut, was so eine Playstation 5 oder die XBOX Series X so kann... Das wäre einfach unglaublich, wenn das so kommt
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.