Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples M1-Chip: Analyse sieht ARM-Macs deutlich vor Intel-Prozessoren

Apple widmete sich beim gestrigen Event allein den neuen ARM-Macs und betonte die große Leistungsfähigkeit des M1-Chips, der künftig im MacBook Air, MacBook Pro (13 Zoll) und Mac mini zum Einsatz kommt. Einer Analyse von AnandTech zufolge kann es sich bei Apples M1 tatsächlich um die derzeit schnellste Laptop-CPU handeln.


Mehr Leistung bei deutlich weniger Energiebedarf
Der Bericht stützt sich unter anderem auf Erkenntnisse anhand des im iPhone 12 schon verfügbaren A14-Chips. AnandTech nennt Apples neuen ARM-Chip daher den „A14X für Macs“ – also eine leistungsstärkere Variante. Mangels bereits erhältlicher M1-Macs vergleicht der Bericht die Leistungsreserven des A14-Chips mit x86-Chips von Intel und AMD. Im SPECfp-Benchmark zieht der A14 meist an der Intel-Konkurrenz vorbei. Bei SPEC2006 liegt Apples Chip weit vorne und muss sich nur AMDs Ryzen-5000-Serie geschlagen geben.

Das Abschneiden der A14-SoC sei schier „unfassbar“, da Apples A-Chip inzwischen mit den besten Prozessoren des x86-Segments nicht nur mithalten, sondern diese zum Großteil auch überholen könne – und das bei einer deutlich geringeren Leistungsaufnahme. Während die im Test berücksichtigten Intel Core i7 (1185G7, 21 Watt) und AMD Ryzen 5950X (49 Watt) bereits ohne integrierten DRAM und weitere Komponenten deutlich mehr Energie erfordern, benötigt Apples A14 inklusive DRAM und weiterer SoC-Bestandteile nur 5 Watt. Da der M1 über mehr Kerne und Performance als der A14-Chip verfügt, dürfte der Abstand zum Intel-Lager abermals wachsen.


Quelle: AnandTech

Intel stagniert – Apples A-Chips ziehen vorbei
Zudem sei die Entwicklungsgeschwindigkeit Apples in den letzten Jahren beeindruckend. Während Intel die jeweils beste Single-Thread-Performance der hauseigenen Prozessoren in den vergangenen fünf Jahren nur um 28 Prozent steigern konnte, habe sich der gleiche Wert bei Apples A-SoCs im gleichen Zeitraum um 198 Prozent verbessert. In AnandTechs Grafik hat Apple Intel damit leistungsmäßig schon hinter sich gelassen. Der Analyse zufolge habe Apple angesichts des zunehmenden Leistungsgefälles keine andere Wahl gehabt, als von Intel zu den eigenen A-Chips zu wechseln. Angesichts des guten Abschneiden des A14-Chips zeigt sich der Bericht gespannt darauf, welche Leistungssprünge Apple in künftigen ARM-Desktoprechnern gelingt.

Kommentare

Dante Anita11.11.20 17:35
Wenn erst der M2 oder M3 kommt, sieht Intel nur mehr dessen Heckspoiler 🏎 🚀
+10
erikhuemer
erikhuemer11.11.20 17:41
Interessant wäre zu wissen, wie viel Performance rein auf die Strukturbreite zurück zu führen ist. Da kann Intel ja noch aufholen. Und ob es in der Geschwindigkeit der Miniaturisierung weitergeht?
Der Fortgang der wissenschaftlichen Entwicklung ist im Endeffekt eine ständige Flucht vor dem Staunen. Albert Einstein
0
aggi
aggi11.11.20 18:24
Wenn die bei Intel die 7 nm Chips vorstellen, kommt bei Apple der 3 nm zum Einsatz.
Soll lt. Presse 2022 bei TSMC in Serie gehen können.
+1
Blofeld
Blofeld11.11.20 18:57
ob Apple dann wohl jedes Jahr Modell-Upgrades macht?
Sinnvoll wäre es
0
Michael Lang11.11.20 18:57
Die Strukturbreite macht sich doch vor allem im Energieverbrauch und der Integrationsdichte bemerkbar. Die Geschwindigkeit rührt doch eher von der Architektur her, denke ich.
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
+2
Mecki
Mecki11.11.20 19:00
Sag ich doch. x86 lässt sich nicht weiter beschleunigen, dazu ist die Architektur zu komplex. Selbst wenn man Instruktionen intern in Mikroanweisungen zerlegt, stößt man hier an die Grenzen des sinnvoll machbaren. Mehr Geschwindigkeit pro Core ginge nur mit noch mehr Takt und Stromverbrauch und hier stößt man zunehmend an physische Grenzen. Diese kann man nur mit Verkleinerung der Strukturbreite umgehen, was aber auch nicht einfach mal so möglich ist und auch immer mehr Probleme bereitet. Und mehr Cores skaliert auch nur begrenzt, weil sich zum einen die Cores zunehmend gegenseitig auf dem CPU Bus ausbremsen, da x86 hier zu teuer ist, wenn es um synchronisierte Operationen geht, und zum anderen auch hier der Stromverbrauch und die damit verbundene Abwärme irgendwann sinnvolle Grenzwerte überschreitet.

Intel kann schon lange nichts mehr wirklich beschleunigen, sondern trickst seit Jahren nur noch irgendwie herum (was u.A. zu den ganzen Sicherheitsproblemen in der CPU geführt hat, weil man hier mit aller Gewalt Geschwindigkeit herauskitzeln wollte) bzw. führt ständig neue Instruktionen ein, nur die wiederum werden vom Compilern selten bis gar nicht verwendet, können kaum von Apps genutzt werden, die auch auf älteren CPUs laufen sollen (nicht ohne immer zwei Versionen des Codes zu erstellen) und niemand schreibt Assembler heute noch von Hand, nicht einmal mehr Kernelentwickler. Diese Instruktionen helfen nur wenigen konkreten Situationen, wo das System sie gezielt nutzen kann (beim Verschlüsseln mit AES oder in einem Video Codec), führen aber nicht grundlegend dazu, dass Apps an sich schneller laufen, da die meisten Apps rein gar nicht von deren Existenz profitieren können.
+8
athlonet11.11.20 19:13
Michael Lang
Die Strukturbreite macht sich doch vor allem im Energieverbrauch und der Integrationsdichte bemerkbar. Die Geschwindigkeit rührt doch eher von der Architektur her, denke ich.
Evtl. machen die kürzeren Signalwege auch einen kleinen Unterschied bei der Geschwindigkeit.
0
ibasst
ibasst11.11.20 19:26
Die 5nm Anlagen kann sich Intel genauso bei ASML kaufen, wie jeder andere Chiphersteller auch.
Und in jeder Anlage stecken die EUV Laser von meinem Arbeitgeber
+4
momirv11.11.20 19:47
Mecki
Sag ich doch. x86 lässt sich nicht weiter beschleunigen, dazu ist die Architektur zu komplex. Selbst wenn man Instruktionen intern in Mikroanweisungen zerlegt, stößt man hier an die Grenzen des sinnvoll machbaren. Mehr Geschwindigkeit pro Core ginge nur mit noch mehr Takt und Stromverbrauch und hier stößt man zunehmend an physische Grenzen. Diese kann man nur mit Verkleinerung der Strukturbreite umgehen, was aber auch nicht einfach mal so möglich ist und auch immer mehr Probleme bereitet. Und mehr Cores skaliert auch nur begrenzt, weil sich zum einen die Cores zunehmend gegenseitig auf dem CPU Bus ausbremsen, da x86 hier zu teuer ist, wenn es um synchronisierte Operationen geht, und zum anderen auch hier der Stromverbrauch und die damit verbundene Abwärme irgendwann sinnvolle Grenzwerte überschreitet.
AMD hat doch gerade mit Zen3 das Gegenteil bewiesen!
+3
d2o11.11.20 19:55
Woran könnte es liegen, dass Intel nicht das liefern kann, was TSMC liefert?
Ist Intel wirklich so hinterher oder war es ein Grund, den man Apple geliefert hat, um die Verbindung Intel - Apple zu lösen?
-2
Mac-Rookie
Mac-Rookie11.11.20 20:06
Die Ära INTEL ist definitiv vorbei. Selbst AMD hat inzwischen die besseren CPUs und lässt INTEL hinter sich.
Bügeln ist keine Frauenbewegung.
0
Mecki
Mecki11.11.20 20:11
momirv
AMD hat doch gerade mit Zen3 das Gegenteil bewiesen!
AMD hat einmal das komplette bisherige Design über den Haufen geworfen und von Grund auf an neu aufgebaut und was haben sie damit erreicht?
Erreicht wird dieser Leistungssprung durch ein komplettes Redesigns der Prozessorarchitektur. AMD spricht über IPC-Zuwächse von bis zu 20%. Die IPC bezeichnet die Aufgabenmenge, die ein Prozessor während eines Taktzyklus erledigen kann. Multipliziert ihr sie mit der Taktrate der CPU, dann erhaltet ihr grob gerechnet die Single-Thread-Performance.


Wenn du schon wegen 20% steil gehst, dann warte mal ab wie viel der M2 schneller als der M1 werden wird
+1
Ely
Ely11.11.20 20:19
Irgendwann ist auch ein Punkt erreicht, wo das Material an physikalische Grenzen der Miniaturisierung/Quantenmechanik stößt. Bei Silizium dürfte das bald soweit sein.
+3
Thyl11.11.20 20:50
Ely
Irgendwann ist auch ein Punkt erreicht, wo das Material an physikalische Grenzen der Miniaturisierung/Quantenmechanik stößt. Bei Silizium dürfte das bald soweit sein.
wo hab ich das schon mal gelesen? Und wann? Vor 15 Jahren? Mh. Nein, im Ernst, Du hast Recht, aber es scheint bereits einige Male gelungen zu sein, diese Grenzen zu verschieben.
0
momirv11.11.20 21:04
Mecki
momirv
AMD hat doch gerade mit Zen3 das Gegenteil bewiesen!
AMD hat einmal das komplette bisherige Design über den Haufen geworfen und von Grund auf an neu aufgebaut und was haben sie damit erreicht?
Erreicht wird dieser Leistungssprung durch ein komplettes Redesigns der Prozessorarchitektur. AMD spricht über IPC-Zuwächse von bis zu 20%. Die IPC bezeichnet die Aufgabenmenge, die ein Prozessor während eines Taktzyklus erledigen kann. Multipliziert ihr sie mit der Taktrate der CPU, dann erhaltet ihr grob gerechnet die Single-Thread-Performance.


Wenn du schon wegen 20% steil gehst, dann warte mal ab wie viel der M2 schneller als der M1 werden wird

Wer sagt, dass ich wegen 20% steil gehe???

Du widersprichst dir aber selbst. Du sagst „Sag ich doch. x86 lässt sich nicht weiter beschleunigen, dazu ist die Architektur zu komplex“. Du zitierst „ AMD spricht über IPC-Zuwächse von bis zu 20%“. Beide Aussagen können nicht zur gleichen Zeit gültig sein.

Was ich eigentlich sagen will, ist, dass die Aussage, dass x86 nicht mehr schneller werden können, einfach nur Quatsch ist. Habe ich, glaube ich, das erste mal 1995 gehört oder so und seit dem immer wieder.
Und das sage ich als Apple-Fanboy!
+1
sierkb11.11.20 21:13
[OT]

Ely
Irgendwann ist auch ein Punkt erreicht, wo das Material an physikalische Grenzen der Miniaturisierung/Quantenmechanik stößt. Bei Silizium dürfte das bald soweit sein.

Mindestens in der Theorie, wenn nicht sogar in der Praxis geht man (in diesem Fall ist es Google – Google forscht und baut seit Jahren bereits an Quantencomputern – jahrelang in Zusammenarbeit mit dem Hersteller D-Wave (Kunde von denen neben Google u.a. auch die NASA), inzwischen entwirft und baut Google eigene Quanten-Computer, haben diese bereits im Einsatz – z.B. bei ML-/KI-Aufgaben wie z.B. Bild- und Sprachanalysen – liefern sich u.a. mit IBM ein Kopf-an-Kopf-Rennen in puncto Quantenüberlegenheit (engl. Quantum Supremacy) , bzw. haben da grad' die Nase vorn ) schon einen Schritt weiter und ist dabei, supergekühlte Chips mit Supraleiter-Eigenschaften zu entwerfen, die eine Verschmelzung aus klassischem Substrat(Silizium)-basierten Chip-Design und Quanten-Computer sein sollen, mindestens ein Patent dazu gibt es bereits (die Patentschrift nennt u.a. Niobium oder Aluminium als Basismaterial statt Silizium sowohl für den klassischen Prozessor-Anteil wie für den Quanten-Computer-Teil des betreffenden hybriden Chips):

Google Patents Search: Patent US20200257644A1: Masoud Mohseni & Hartmut Neven, Google LLC: Chips including classical and quantum computing processors
Abstract: An apparatus includes a substrate, a classical computing processor formed on the substrate, a quantum computing processor formed on the substrate, and one or more coupling components between the classical computing processor and the quantum computing processor, the one or more coupling components being formed on the substrate and being configured to allow data exchange between the classical computing processor and the quantum computing processor. , (PDF, 21 Seiten)

US Patent Office (USPTO): Patent US 2020/0257644 A
U.S. patent application number 16/863623 was filed with the patent office on 2020-08-13 for chips including classical and quantum computing processors. The applicant listed for this patent is Google LLC. Invention is credited to Masoud Mohseni, Hartmut Neven. , (PDF, 21 Seiten)

[/OT]
+1
Mecki
Mecki11.11.20 22:07
momirv
Du sagst „Sag ich doch. x86 lässt sich nicht weiter beschleunigen,
Nicht wesentlich, wenn du für 20% praktisch so viel Arbeit investieren musst, wie du auch gebraucht hättest um gleich einen Komplett neue Architektur aus der Taufe zu heben (die dazu bestimmt noch viel schneller gewesen wäre, weil sie eben kein Altlasten hätte). Apple hat bei jedem iPhone Release mehr als 20% gegenüber der Vorversion bis jetzt geschafft und das mit deutlich weniger Entwicklungsaufwand, denn die mussten dafür nicht jedes mal die Architektur komplett neu aufbauen, oder? Ja, AMD hat es jetzt noch einmal geschafft, mit aller letzter Kraft. Keine Ahnung wie du aus diesem einmaligen und enormen Kraftakt jetzt schließen willst, dass da jetzt noch diverse weiter Leistungssteigerungen möglich sind.

Klar, kleine Leistungssteigerungen sind immer möglich, 2% hier, 3% dort, durch massive Tricks, die versuchen um die Schwächen der x86 Architektur herum zu arbeiten (und die CPUs immer unsicherer machen werden, weil Sicherheit steht diesen Optimierungen im Wege), aber wen interessieren die, wenn woanders CPUs ihre Leistung jedes Jahr um ein vielfaches steigern können? Du klingst hier wie die Leute, die mit alle Gewalt Verbrennungsmotoren am Leben halten wollen und hier von komplett unrealistischen Verbrauchswerten träumen, während die breite Masse langsam endlich akzeptiert, dass sich dieses Konzept überlebt hat.
0
pünktchen
pünktchen11.11.20 22:22
Interessant sind vor allem die Details auf der zweiten Seite zu den Architekturmerkmalen. Der Firestorm Core ist extrem weit und tief verglichen mit allen Konkurrenzprodukten.
+2
Thyl12.11.20 06:55
oha, und dann taucht aus dem Nichts ein Android-Teilchen auf, das noch höhere Geekbench-Werte hat, und das bei 1.9 Ghz statt 3.2, wie bei Apple:

https://browser.geekbench.com/v5/cpu/4578497
-2
arekhon
arekhon12.11.20 08:11
Thyl
oha, und dann taucht aus dem Nichts ein Android-Teilchen auf, das noch höhere Geekbench-Werte hat, und das bei 1.9 Ghz statt 3.2, wie bei Apple:

https://browser.geekbench.com/v5/cpu/4578497



"This benchmark result has been flagged as inaccurate.
This benchmark result may be invalid due to an issue with the timers on this system."
-1
McErik12.11.20 08:35
Mit einer Strukturbreite von 5 nm sind wir m.E. der physikalischen Grenze schon ziemlich nah!
5 nm sind gerade einmal 50 Å. Ein Siliziumatom hat im tetraedrischen Kristall einen kleinsten Abstand zu seinem Nachbarn von 2,35 Å. Das ergibt kubisch flächenzentrierte Elementarzellen mit einer Kantenlänge von 5,43 Å. Also in 5 nm haben gerade einmal 9 kristalline Elementarzellen nebeneinander oder 13 Siliziumatome in einer Ebene hintereinander Platz.
Und dann benötigt man noch die Dotierung und Isolation zur Nachbarleitung.
Wenn man sich das vergegenwärtigt, wird klar, dass bei so kleinen oder noch kleineren Strukturen relevante Fertigungsfehler und damit Fehlschaltungen stark zunehmen. Dazu passt, dass Apple (meines Wissens erstmalig) GPUs mit einem fehlerhaften Kern (7 statt 8 funktionierenden) anbietet.
Meine Prognose: Die Strukturverkleinerung geht noch bis 3 nm und dann ist Schluss, weil die Zuverlässigkeit der Schaltungen dann einfach nicht mehr gegeben ist.
Es geht ja um die Verkürzung der Wege für die zur Schaltung bewegten Elektronen. Wenn man die Strukturen nicht mehr in einer Ebene verkleinern kann, könnte ein dreidimensionaler Aufbau von Strukturen weiterhelfen. Darin sehe ich einen möglichen Ansatz zur weiteren „Leistungssteigerung“ in fernerer Zukunft.

Quantencomputer sind in vielfacher Hinsicht ganz anders. Einen Alltagseinsatz für jedermann und somit einen Ersatz für die (Silizium-) Halbleiterprozessoren sehe ich nicht ansatzweise.
+6
awk12.11.20 08:51
Michael Lang
Die Strukturbreite macht sich doch vor allem im Energieverbrauch und der Integrationsdichte bemerkbar. Die Geschwindigkeit rührt doch eher von der Architektur her, denke ich.

Geringere Strukturbreite ist direkt mit der Leistungsfähigkeit verknüpft. Durch die geringere Leistungsaufnahme ist ein höherer Takt möglich. Zudem steigt die Zahl der möglichen Transistoren auf dem "Chip" an, was wiederum in größerer Leistungsfähigkeit mündet. Das zeigt Apple gerade eindrucksvoll.
0
pünktchen
pünktchen12.11.20 09:06
McErik
Dazu passt, dass Apple (meines Wissens erstmalig) GPUs mit einem fehlerhaften Kern (7 statt 8 funktionierenden) anbietet.

Ist beim A12X (7 GPU Kerne) und beim A12Z (8) auch schon so.
0
Colonel Panic
Colonel Panic12.11.20 14:39
McErik
5 nm sind gerade einmal 50 Å.

Die Namen der Technologieknoten sind schon seit Jahren nur noch Marketing ohne Bezug zur tatsächlichen Strukturgröße. Für 5 nm habe ich folgendes gefunden:

"the 5-nanometer process technology is characterized by its use of FinFET transistors with fin pitches in the 20s of nanometer and densest metal pitches in the 30s of nanometers."

Wobei um die 30 Nanometer auch nicht gerade groß sind.

Quelle:

EUV hat übrigens 13,5 nm Wellenlänge. Für noch kleinere Strukturen benötigt man ein anderes Verfahren.
+2
McErik12.11.20 16:31
Colonel Panic
Danke für die Info!
0
FritzS13.11.20 16:03
aggi
Wenn die bei Intel die 7 nm Chips vorstellen, kommt bei Apple der 3 nm zum Einsatz.
Soll lt. Presse 2022 bei TSMC in Serie gehen können.
Irgendwann ist da aus physikalischen Gründen Schluss, man kommt dann auf „Strichstärken“ wo sich bereits Quantenmechanische Phänomene zeigen.
0
FritzS13.11.20 16:12
McErik
Mit einer Strukturbreite von 5 nm sind wir m.E. der physikalischen Grenze schon ziemlich nah!
5 nm sind gerade einmal 50 Å. Ein Siliziumatom hat im tetraedrischen Kristall einen kleinsten Abstand zu seinem Nachbarn von 2,35 Å. Das ergibt kubisch flächenzentrierte Elementarzellen mit einer Kantenlänge von 5,43 Å. Also in 5 nm haben gerade einmal 9 kristalline Elementarzellen nebeneinander oder 13 Siliziumatome in einer Ebene hintereinander Platz.
Und dann benötigt man noch die Dotierung und Isolation zur Nachbarleitung.
Wenn man sich das vergegenwärtigt, wird klar, dass bei so kleinen oder noch kleineren Strukturen relevante Fertigungsfehler und damit Fehlschaltungen stark zunehmen. Dazu passt, dass Apple (meines Wissens erstmalig) GPUs mit einem fehlerhaften Kern (7 statt 8 funktionierenden) anbietet.
Meine Prognose: Die Strukturverkleinerung geht noch bis 3 nm und dann ist Schluss, weil die Zuverlässigkeit der Schaltungen dann einfach nicht mehr gegeben ist.
Es geht ja um die Verkürzung der Wege für die zur Schaltung bewegten Elektronen. Wenn man die Strukturen nicht mehr in einer Ebene verkleinern kann, könnte ein dreidimensionaler Aufbau von Strukturen weiterhelfen. Darin sehe ich einen möglichen Ansatz zur weiteren „Leistungssteigerung“ in fernerer Zukunft.

Quantencomputer sind in vielfacher Hinsicht ganz anders. Einen Alltagseinsatz für jedermann und somit einen Ersatz für die (Silizium-) Halbleiterprozessoren sehe ich nicht ansatzweise.
Auf der ISS könnte es beim Betrieb eines solchen Rechners zu einigen unvorhersehbaren Phänomenen kommen. So kleine Strukturen sind nicht gerade Strahlungs- und Beschussfest (was Teilchen betrifft). Ich vergaß - auch Gammabursts sind Strahlung und Teilchen zugleich.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.