Intel stellt neue Architektur vor: Ein bisschen wie der M1 – aber zu spät für Apple

Es handelt sich wohl um die erste neue Intel-Architektur seit langer Zeit, die in der Apple-Welt aller Wahrscheinlichkeit nach nicht mehr von Relevanz ist. Es wäre nämlich eine große Überraschung, würde Apple im Herbst noch eine der Mac-Baureihen auf Intels "Alder Lake"-Plattform anstatt auf eigene Chips umstellen. Dennoch lohnt natürlich immer ein Blick darauf, wie es mit jener Hardware weitergeht, der Apple den Rücken kehrt. Wie Intel nun offiziell bestätigte, sollen die neuen Prozessoren in der zweiten Jahreshälfte auf den Markt kommen.


Performance- und Effizienz-Kerne
Als "signifikanter Durchbruch" in der x86-Architektur angepriesen, setzt Intel auf Fertigung im 10-nm-Verfahren ("10nm SuperFin") und vereint Performance- und Effizienzkerne auf einem Chip. Diese Konzeption kennt man bereits von iPhone-, iPad- und neuerdings Mac-Chips, welche ebenfalls zwei verschiedene Core-Arten verwenden. Intel verspricht, nicht nur mehr Performance, sondern vor allem auch geringeren Energiebedarf erreichen zu können. Letzteres ist vor allem für Notebooks von Bedeutung, denn Apples M1-Chip demonstrierte, was derzeit mit Intel-Prozessoren nicht möglich ist.


Nur ein erster Ausblick
Alder Lake steht aber nicht nur für Notebook-, sondern auch für Desktop-Systeme zur Verfügung. Während "Tiger Lake" die 11. Generation war, gilt die kommende Plattform gemäß Intels Zählweise als "12th Generation". Nähere Details zu den Prozessoren will Intel allerdings erst im Jahresverlauf verkünden. Die jetzt erfolgte Ankündigung anlässlich der CES war explizit nur ein Ausblick auf zukünftige Produkte.

Chip leakte schon früher
Erste Leaks zu Alder Lake hatte es bereits vergangenen Herbst gegeben. Damals wurde unter anderem bekannt, wie groß der Chip wird – was als Indiz auf ein neues Chip-Design mit mehr Kernen galt. Ebenfalls klar war zu diesem Zeitpunkt, dass Intel nicht auf 7-nm-Fertigung umsteigen kann, sondern auf das 10-nm-Verfahren setzt. Erst 2022 oder 2023 steht dann die Umstellung auf 7 oder 5 bzw. gar 4 nm an – möglicherweise durch Unterstützung von anderen Chip-Herstellern wie TSMC (siehe ).

Kommentare

deus-ex12.01.21 10:51
Die Frage ist ob hier nicht die Architektur (x86) das eigentliche Problem ist und nicht (nur) die Struktur.
+8
ERNIE12.01.21 11:20
deus-ex
Die Frage ist ob hier nicht die Architektur (x86) das eigentliche Problem ist und nicht (nur) die Struktur.

Zumindest kann (könnte) Intel durch geringere Strukturbreiten mehr aus der Architektur heraus holen.
0
Niederbayern
Niederbayern12.01.21 11:20
kenn mich mit Chips, Architektur und Co.nicht aus aber für mich wirkt es so, als ob Intel in der Vergangenheit nicht mehr getan hat wie nötig, schließlich mussten die meisten Unternehmen ja auf Intel setzen und deren Chips abnehmen. Jetzt wo Apple gezeigt hat was ohne Intel möglich ist muss Intel abliefern, zur Not halt mit nem Partner. MS wird sich in absehbarer Zeit ja auch von Intel verabschieden und auf eigene Chips setzen.
+6
LoCal
LoCal12.01.21 11:34
Niederbayern
kenn mich mit Chips, Architektur und Co.nicht aus aber für mich wirkt es so, als ob Intel in der Vergangenheit nicht mehr getan hat wie nötig, schließlich mussten die meisten Unternehmen ja auf Intel setzen und deren Chips abnehmen. Jetzt wo Apple gezeigt hat was ohne Intel möglich ist muss Intel abliefern, zur Not halt mit nem Partner.

Da hast Du nicht ganz unrecht. Intel hatte in den letzten Jahrzehnten viel Konkurrenz und mit ihr scheinbar zu leichtes Spiel.
Architekturen wie MIPS (SGI), Sparc (Sun) und Alpha (DEC, HP) wurden vorallem über den Preis zerstört.
x86-Konkurrenz wie ViA, Cyrix und zum Teil auch AMD wurden durch "brachiale Gewalt" (intel hatte die Ressourcen immer noch eine Schippe drauf zu legen) Plattgemacht.
Transmeta scheiterte an sich selbst und die PowerPC-Posse am Strategiegerangel.
So konnte intel nur selbst im Weg stehen und das haben sie dann wohl auch geschafft.

Den ersten Dämpfer erhielt intel aber schon vor Jahre, nämlich dann, als iPhone, iPad und deren Konkurrenten auf ARM setzten und intel zum Zuschauen verdammt war.
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
+6
arekhon
arekhon12.01.21 11:37
Ich halte es auch für Fraglich, ob Intel die gleiche Effizienz erreichen wird - IMO wahrscheinlich eher nicht.

Für Apple gibt es wohl außerdem wenigstens zwei weitere Gründe für die Umstellung, unabhängig von der Effizienz:

1. Offensichtlich ist wohl, dass sie bei den eigenen Chips genau die Dinge optimieren können, die sie wollen und nicht nur bekommen was der Mainstream-Markt vorgibt.
2. Außerdem ist damit auch die Angleichung zu den iPhones und iPads vollbracht und die Plattformunterschiede wurden minimiert.

Beides Vorteile für Apple, die weder Intel noch AMD in dem Umfang liefern können.

Interessant finde ich in dem Zusammenhang, dass hier wieder Strukturen entstehen, die wir zuletzt hatten, als es noch mehrere große IT-Unternehmen gab, wo CPU und OS aus einem Hause kamen. Mir kommen da ehemals DEC (Alpha) und HP (PA-RISC) in den Sinn. Aber eine Vielfalt wie zuletzt in den 80ern und noch den 90ern mit Alpha, MIPS, PA-RISC, Power und SPARC, die in manchen Workstation-Ausprägungen zeitweise sogar für Privatanwender erschwinglich waren, wird es wohl nicht wieder geben.
Der Große Unterschied ist bei Apple aber, dass sie dabei die Sache von unten (iPhone) aufrollen, und nicht versucht haben Server-Technologie für Workstations tauglich zu machen. Außerdem hat Apple viel Erfahrung mit solchen Umstellungen, von 68k auf PPC, von PPC auf x86.
+7
AJVienna12.01.21 11:38
Das kommt viel zu spät. Letztes Jahr hätte Intel damit noch gegen AMD antreten können. Dieses Jahr wahrscheinlich nicht mal das. Gegen Apples M1 werden sie immer noch ziemlich Schwach aussehen. Gegen M2 oder M1X sowieso.
+2
pünktchen
pünktchen12.01.21 11:46
Die Kombination Big-Little ist für Intel nicht ganz neu, die Lakefield Prozessoren haben das auch schon. 1 Core + 4 Atom Cores.

Neu ist dass Intel das Design auch auf leistungsfähigere Prozessoren ausdehnt.
+1
RyanTedder
RyanTedder12.01.21 12:50
deus-ex
Die Frage ist ob hier nicht die Architektur (x86) das eigentliche Problem ist und nicht (nur) die Struktur.

Das weiß man erst, wenn Intel die gleiche Strukturbreite erreicht hat.
+1
LoCal
LoCal12.01.21 12:52
arekhon
Interessant finde ich in dem Zusammenhang, dass hier wieder Strukturen entstehen, die wir zuletzt hatten, als es noch mehrere große IT-Unternehmen gab, wo CPU und OS aus einem Hause kamen. Mir kommen da ehemals DEC (Alpha) und HP (PA-RISC) in den Sinn. Aber eine Vielfalt wie zuletzt in den 80ern und noch den 90ern mit Alpha, MIPS, PA-RISC, Power und SPARC, die in manchen Workstation-Ausprägungen zeitweise sogar für Privatanwender erschwinglich waren, wird es wohl nicht wieder geben.

Heute wird sich doch schon beschwert, wenn der MacPro 6000 Euro kostet.
Würde man z.B. den Preis einer Octane 2 auf heute hochrechnen, dann hätte sie wohl den Gegenwert einer Eigentumswohnung
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
0
LoCal
LoCal12.01.21 12:56
RyanTedder
deus-ex
Die Frage ist ob hier nicht die Architektur (x86) das eigentliche Problem ist und nicht (nur) die Struktur.

Das weiß man erst, wenn Intel die gleiche Strukturbreite erreicht hat.

Nicht ganz, sowas kann man schon interpolieren und da kommt der x86 immer noch nicht so gut weg. Für intel war die Erhöhung der Taktfrequenz lange das Mittel der Wahl, da war das Ende der Fahnenstange aber irgendwann auch erreicht und dann wurden es eben die Anzahl der Cores. Aber ansonsten ruhte man sich auf den Lorbeeren Dollarnoten aus.
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
0
Thyl12.01.21 12:57
LoCal

Architekturen wie MIPS (SGI), Sparc (Sun) und Alpha (DEC, HP) wurden vorallem über den Preis zerstört.
Meine Wahrnehmung war da etwas anders. Kaum hatte intel den Itanium (zusammen mit HP) angekündigt, machte sich die Konkurrenz in die Hose. Die ganze Aufmerksamkeit fokussierte sich auf intel. In einer Arto vorauseilendem Gehorsam stellten Konkurrenten Produkte um oder ein. Als der Itanium als zahnloser Tiger landete, war schon einiges passiert beim Architektursterben.
+1
LoCal
LoCal12.01.21 13:46
Thyl
LoCal

Architekturen wie MIPS (SGI), Sparc (Sun) und Alpha (DEC, HP) wurden vorallem über den Preis zerstört.
Meine Wahrnehmung war da etwas anders. Kaum hatte intel den Itanium (zusammen mit HP) angekündigt, machte sich die Konkurrenz in die Hose. Die ganze Aufmerksamkeit fokussierte sich auf intel. In einer Arto vorauseilendem Gehorsam stellten Konkurrenten Produkte um oder ein. Als der Itanium als zahnloser Tiger landete, war schon einiges passiert beim Architektursterben.

Naja, bei SGI waren eher x86-Linux-Renderfarmen der Anfang vom Ende. Als dann noch nVidia (mit ordentlich SGI-KnowHow) GPUs brachte, die mit SGIs Kisten mithalten konnten, war es für SGI schon zu spät. Sämtliche Strategiewechsel verpufften.
Gleiches, in anderen Bereichen, gilt für SUN.
Jean-Louis Gassée hat vor ein paar Tagen einen Interessanten Thread geteilt. Dort wurde zwar eigentlich die Entstehungsgeschichte von AWS beschrieben (kurz: Bezos merkte, dass die Server ausserhalb der Hauptsaison, also für ca 46 Wochen im Jahr, nicht annähernd ausgelastet waren … da kam er auf die Idee die Ressourcen zu vermieten). Und ein Teil davon war, dass sie von SUN (was später von jemandem auf PA-RISC korrigiert wurde) auf Linux-Cluster wechselten, weil das günstiger war. Sie brauchten zwar mehr Rechner, aber es war am Ende doch billiger.

EDIT: Den Thread doch noch gefunden
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
+2
MacRaul13.01.21 20:05
Es ist wohl eher zu spät für INTEL,

denn was hier als großartige Innovation angekündigt wird, ist auf der ARM Plattform schon seit vielen Jahren Standard. Und dabei kommt es auch noch auf die Umsetzung von BIG.little an, denn in seiner einfachsten Form gibt es gleich viel BIG und little Kerne und alle Prozesse werden je nach Arbeitslast entweder von den Performance Kernen oder von den Stromsparkernen aber niemals von allen gemeinsam abgearbeitet. Das hat den Vorteil der einfachen Zuordnung der Aufgaben ohne tiefgreifende Unterstützung durch Betriebssystem und Software - es gibt einen Schwellwert der Gesamtlast, darunter sind die little Kerne zuständig und können dabei Strom sparen und darüber wird alles von den BiG Kernen möglichst schnell abgearbeitet.
Apple kann nach mittlerweile 5 Jahren permanenter Weiterentwicklung alle BIG und little Kerne individuell und gleichzeitig ansprechen und deshalb steigern die Stromsparkerne auch die Gesamtperformance, allerdings bezweifle ich, ob INTEL das gleich auf Anhieb ebenfalls hinbekommt, vor allem in Hinsicht darauf, dass ihnen jede Kontrolle über Betriebssstem und Anwendungssoftware fehlt.
Daher geht meine Vermutung dahin, dass INTEL big.little bei allen mobilen Chipvarianten nur zum Stromsparen verwendet und hier keinerlei Verbesserung der Performance erreicht wird und am Desktop mehr oder weniger als Marketing Gag dient, denn aktuell ist bei 10 Cores die jeweils offizielle TDP mehr als ausgereizt, also verzichtet man auf 2 BIG core und verwendet das frei gewordene thermische Budget lieber für 8 little Cores, was sich werbetechnisch als innovativer 16 Core Prozessor am Prospekt viel besser verwerten lässt, egal ob dabei wirklich ein Leistungszugewinn erreicht wird - INTEL Iris XE Max lässt grüßen.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.