Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Panne bei Intel: 7-nm-Chips sind fehlerhaft, Veröffentlichung erst 2022 oder 2023

Intel legt den Geschäftsbericht für das zweite Quartal 2020 vor – und kann mit einigen durchaus respektablen Zahlen aufwarten. Der Erlös von 19,73 Milliarden US-Dollar liegt nicht nur um 20 Prozent über jenem des Vorjahrs; auch die Schätzungen von Analysten wurden übertroffen. Die Jahreszahlen fallen weniger erfreulich aus, da Intel Korrekturen vornahm und erstmals die Auswirkungen der Corona-Krise berücksichtigte. Das ist allerdings nicht die einzige Hiobsbotschaft, die Intel für Anleger bereithält.


Probleme mit 7-nm-Chips
Intel-CEO Bob Swan erklärte, einen „defect mode“ bei der Fertigung von 7-nm-Chips ausfindig gemacht zu haben. Das Unternehmen habe deshalb in „Notfallpläne“ investiert und externe Halbleiterwerke mit der Lösung des Problems beauftragt. Swan erklärte sich mit der Leistung dieser Chips „nicht zufrieden“; außerdem wärfen die Chips zu wenig Rendite ab. Somit liege das Unternehmen bereits zirka zwölf Monate hinter den internen Zielen. Die Verschiebung dieser Prozessoren ist durchaus schwerwiegend: Bis diese eingeführt werden, müssen sich Interessierte noch bis Ende 2022 oder gar Anfang 2023 gedulden. Der vollständige Bericht lässt sich hier einsehen.

Fokus nun auf 10-nm-Halbleiter
Bis es Intel gelingt, die Probleme bei der Fertigung von Halbleitern im 7-nm-Verfahren in den Griff zu bekommen, konzentriert sich das Unternehmen auf 10-nm-Chips. So sollen entsprechende „Tiger Lake“-Prozessoren in naher Zukunft auf den Markt kommen. Etwas später in diesem Jahr folgen die ebenfalls im 10-nm-Verfahren hergestellten „Tiger Lake“-Serverprozessoren. Die mit dem Codenamen „Alder Lake“ versehenen CPUs sollen in der zweiten Jahreshälfte 2021 Marktreife erlangen und erstmals eine 10-nm-Desktop-CPU beinhalten.

Apple sagt sich von Intel los
Apple kündigte im Rahmen der WWDC an, noch einige Macs mit Intel-Prozessoren anbieten zu wollen, ehe die Umstellung auf Apple Silicon erfolgt. Tatsächlich gibt es aber Zweifel an dieser Behauptung. Der US-Konzern wird zukünftig auf eigene Chips setzen und sich daher von Intel unabhängig machen. Einer der Gründe hierfür könnte die Geschwindigkeit von Intel bei der Entwicklung neuer Halbleiter sein: Bereits in der Vergangenheit musste das Unternehmen immer wieder Verspätungen einräumen und bereits Marktanteile an den Konkurrenten AMD abtreten.

Kommentare

Nekron24.07.20 11:20
Apple dreht Intel den Rücken zu, AMD kommt aus der Versenkung zurück und Nvidia kauft wohlmöglich ARM und könnte anfangen eigene CPU´s zu entwicklen. Sehen wir hier wohlmöglich den nächsten Untergang eines Technologiekonzernes aus den Anfangszeiten des Silizium-Zeitalters?
+13
Steffen Stellen24.07.20 11:21
und.....tschüss...
+4
gegy24.07.20 11:32
Sieht tatsächlich so aus, als würde sich Intel schön langsam selbst aus dem Markt nehmen.
Ich würde es sehr begrüßen, wenn wir mal ein Zeitalter sehen, wo man betriebssystemübergreifend leicht portieren kann.
+4
nane
nane24.07.20 11:36
Nekron
Ich denke man darf INTeL nicht unterschätzen. Die haben gerade keinen "Lauf". Was schief gehen kann geht schief, das passiert nun mal. Aber man darf die Erfahrung und auch das "Können" dass in so einem Giganten steckt niemals unterschätzen. Die Mitarbeiter sind sehr fähig und was INTeL bisher an CPUs abgeliefert hat war recht gut bis Spitzenklasse. Es hat schon einen Grund warum in 80% aller PCs weltweit INTeL CPUs stecken. OK das INTeL Management hat auch den einen oder anderen Zug abfahren lassen, Mobil-Prozessoren, Modems, Netzwerkchips, Speichermedien und vor allem im Bereich der Grafik-Chips da hat sich lange Zeit nicht viel bewegt. Und es wurden viele Fehler gemacht, CPU Lücken schlecht gefixt usw. Aber noch ist INTeL ziemlich weit weg vom Untergang.

gegy
Leichte Portierbarkeit wird es wohl nie geben. Die Ansprüche, die Aufgaben und die Werkzeuge sind zu verschieden. Und das ist auch gut so. Jedes Problem benötigt ein spezifisches Werkzeug. Zu viele Kompromisse machen Werkzeuge zwar breiter nutzbar aber auch spezifisch schlechter. Ein gutes Software-Produkt entsteht nicht durch maximale Kompromissbereitschaft sondern durch maximale Spezialisierung.
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
+7
gegy24.07.20 11:40
nane
Bei Intel fehlt meiner Meinung nach der frische Wind und das alte Pferd ist träge geworden. Intel hat den Leistungshunger ihrer Prozessoren übersehen und nun kommt jemand der genau in diese Kerbe schlägt. Man darf Intel zwar nicht unterschätzen, aber ich glaube, intern fragen sich dort schon viele: Was haben wir falsch gemacht und die, die es wissen fragen sich: Wie sollen wir das wieder aufholen.
0
Nekron24.07.20 11:41
nane
Nekron
Ich denke man darf INTeL nicht unterschätzen. Die haben gerade keinen "Lauf". Was schief gehen kann geht schief, das passiert nun mal. Aber man darf die Erfahrung und auch das "Können" dass in so einem Giganten steckt niemals unterschätzen. Die Mitarbeiter sind sehr fähig und was INTeL bisher an CPUs abgeliefert hat war recht gut bis Spitzenklasse. Es hat schon einen Grund warum in 80% aller PCs weltweit INTeL CPUs stecken. OK das INTeL Management hat auch den einen oder anderen Zug abfahren lassen, Mobil-Prozessoren, Modems, Netzwerkchips, Speichermedien und vor allem im Bereich der Grafik-Chips da hat sich lange Zeit nicht viel bewegt. Aber noch ist INTeL ziemlich weit weg vom Untergang.

Ich stimme dir zu, Intel ist weit weg vom Untergang. Dies ist aber eher auf Massenträgheit zurückzuführen als auf gutes Business. Wie du schon erwähnt hast, Intel ist weiter führend bei CPU´s, hat aber sonst jeden Trend und jede Entwicklung gekonnte ausgellassen.
+2
trw
trw24.07.20 11:42
Nekron
... Sehen wir hier wohlmöglich den nächsten Untergang eines Technologiekonzernes aus den Anfangszeiten des Silizium-Zeitalters?

Naja, man weiss nie, was kommt. Apple hat es ja z.B. auch mit Bravour zurückgeschafft.
0
Kronar (back)24.07.20 11:45
gegy
Intel hat den Leistungshunger ihrer Prozessoren übersehen und nun kommt jemand der genau in diese Kerbe schlägt. Man darf Intel zwar nicht unterschätzen, aber ich glaube, intern fragen sich dort schon viele: Was haben wir falsch gemacht und die, die es wissen fragen sich: Wie sollen wir das wieder aufholen.
Die gleiche Diskussion gab es schon einmal, ist jetzt so gute 20 Jahre her, war damals als der Power PC G3 rauskam und den Intel Pentium II erst einmal ziemlich alt hat aussehen lassen (Wer sich noch daran erinnert: die Snail bzw. Toasted Bunny Werbung von Apple). 5 Jahre später ist Apple von PowerPC auf Intel umgestiegen...
Ich wäre vorsichtig, Intel schon abzuschreiben, zu mal sie ja jetzt auch CPUs mit unterschiedlichen Cores rausbringen werden...Aber nichts desto trotz ist das peinlich für Intel...
+7
TiBooX
TiBooX24.07.20 11:48
Während Intel noch an 10nm Technik „bastelt“ geht der Apple Chipfertiger TSMC mit 5nm bereits in Massenproduktion.

Selbst wenn die ARM Prozessoren noch weniger Performance als Intel Chips aufweisen würden, stünde ihnen die 4-fache Chipfläche! Zur verfügung. Und das bei besseren thermischen Werten.
Gerade bei Serverfarmen und im Mobilbereich ist die Energieeffizienz entscheidend und da sind die ARM basierten Prozessoren gerade deutlich vorne.
People who are really serious about software should make their own hardware [A. Kay]
+2
nane
nane24.07.20 11:49
Wichtig und meist übersehen wird in der "Untergangs-Diskussion" rund um INTeL etwas essentielles und zwar: INTeL X86 und Windows ist "der" weltweite IT Standard und nicht irgend ein Standard. Dieser Standard ist auf breiter Fläche in hohem Masse durchgesetzt, kein LINUX, kein ARM, kein Apple, kein irgend-sonst-was wird daran etwas ändern. Zumindest nicht in den nächsten Jahrzehnten. Auch AMD nicht. Denn auch AMD zementiert den X86 Standard weiter ein, wenn auch mit aktuell günstigeren und sehr leistungsfähigen CPUs.

Die ARM CPUs haben das Zeug, den Markt aufzurollen und zu verändern. Aber ob das wirklich gelingt sehen wir in vielleicht 20 Jahren.
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
0
Retrax24.07.20 11:51
Steffen Stellen
und.....tschüss...
Ich finde diese "und tschüss..." Mentalität mindestens fragwürdig.
Man tut Intel damit unrecht.

Intel hat historisch viel geleistet für die digitale Revolution - und wird es evtl. auch zukünftig tun. Es sind schon viele Phönixe aus der Asche auferstanden.
+5
subjore24.07.20 12:23
Naja, wir wissen ja gar nicht genau warum Intel solche Probleme hat. Warum stellen die 2020 statt 2016 auf 10nm um? Ok, der Zeitplan für 2016 war zu ambitioniert aber warum hatten die jetzt so eine große Pause? TMSC war 3 Jahre hinten dran. Jetzt führen sie 1 Jahr.
Intel steckt jetzt alles in 10nm, TMSC steckt in Zukunft alles in 5nm. Um die Zahlen umzurechnen muss man die TMSC Struktur ungefähr mit 1.8 multiplizieren, aber trotzdem führen sie. Und sie liegen voll im Zeitplan für 3nm während Intel jetzt bei 7nm doch noch ein Jahr länger benötigt. So werden sie nicht so schnell wieder Land gewinnen.
Derzeit macht Intel noch gut Umsatz und Gewinn, aber das wird sich ändern.
Ich hab neulich mal bei Notebookbilliger nach desktop PCs für rund 2000 Euro gesucht und habe nur 1 AMD computer aber recht viele Intel Computer gefunden. Obwohl AMD bei Preis Leistung Intel derzeit um Welten schlägt. Die Hersteller werden langsam ihre Reihen, in denen bisher immer nur Intel Prozessoren drin waren auf AMD umstellen, aber das braucht wohl Jahre.
+1
subjore24.07.20 12:38
Retrax
Steffen Stellen
und.....tschüss...
Ich finde diese "und tschüss..." Mentalität mindestens fragwürdig.
Man tut Intel damit unrecht.

Intel hat historisch viel geleistet für die digitale Revolution - und wird es evtl. auch zukünftig tun. Es sind schon viele Phönixe aus der Asche auferstanden.

Ja es ist sehr wichtig für den Markt dass Intel dabei bleibt. Es ist vermutlich gut, dass ihre Dominanz gebrochen wird, aber wenn jetzt eine TMSC Dominanz kommt (nach der es aussehen könnte), hätten wir nichts gewonnen.
+2
sierkb24.07.20 13:06
Intel versucht derzeit, mit Lakefield, den ARM-Weg (den Apple mit seinen A-Prozessoren bzw. Apple Silicon-Prozessoren nochmals weiter nach vorne pusht), den hybriden Weg, einzuschlagen – die Kombination mehrerer unterschiedlich gearteter Kerne (statt bisher gleich gearteter) in einem Prozessor, getrimmt jeweils auf unterschiedliche Schwerpunkte – Leistung bzw. Geschwindigkeit und Effizienz bzw. Stromsparen und je nach Anforderung dynamisch jeweils an-, hinzu- oder abschaltbar:

Golem (21.07.2020): Alder Lake S: Intel bestätigt x86-Hybrid-Kerne für Desktop-CPUs
Lakefield war der Testballon in Notebooks, mit Alder Lake sollen Core- und Atom-Kerne im Desktop-Segment gekoppelt werden.

Golem (16.07.2010): Core i5-L16G7 (Lakefield) im Test: Intels x86-Hybrid-CPU analysiert
Was bisher ARM-basierten CPUs vorbehalten war, bringt Intel für x86-Chips. Und es funktioniert, wie unsere Benchmarks zeigen.


Wird spannend. Die Frage ist, ob's reicht, noch rechtzeitig die Kurve zu kriegen, oder ob's bereits zu spät ist.
+2
RyanTedder24.07.20 13:40
Ich freue mich tatsächlich für AMD, noch ein paar Jahre Luft zu gewinnen und mehr Bedeutung zu erlangen. Leider ist der Vorsprung zu Intel aber trotzdem nicht stark genug um die Oberhand zu gewinnen, sondern lediglich um die versäumten letzten Jahre maximal aufzuholen. So dramatisch sehe ich das ganze tatsächlich nicht
-2
Peter Longhorn24.07.20 14:10
sierkb
Intel versucht derzeit, mit Lakefield, den ARM-Weg (den Apple mit seinen A-Prozessoren bzw. Apple Silicon-Prozessoren nochmals weiter nach vorne pusht), den hybriden Weg, einzuschlagen – die Kombination mehrerer unterschiedlich gearteter Kerne (statt bisher gleich gearteter) in einem Prozessor, getrimmt jeweils auf unterschiedliche Schwerpunkte – Leistung bzw. Geschwindigkeit und Effizienz bzw. Stromsparen und je nach Anforderung dynamisch jeweils an-, hinzu- oder abschaltbar:

Golem (21.07.2020): Alder Lake S: Intel bestätigt x86-Hybrid-Kerne für Desktop-CPUs
Lakefield war der Testballon in Notebooks, mit Alder Lake sollen Core- und Atom-Kerne im Desktop-Segment gekoppelt werden.

Golem (16.07.2010): Core i5-L16G7 (Lakefield) im Test: Intels x86-Hybrid-CPU analysiert
Was bisher ARM-basierten CPUs vorbehalten war, bringt Intel für x86-Chips. Und es funktioniert, wie unsere Benchmarks zeigen.


Wird spannend. Die Frage ist, ob's reicht, noch rechtzeitig die Kurve zu kriegen, oder ob's bereits zu spät ist.
Die Frage ist: Wer braucht bei einem Desktop-Rechner oder Server das Big/Little Prinzip? Das ist gut für lange Akkulaufzeit. Aber ein Gerät, das meist/immer am Strom hängt?

Für mich ist das Big/Little bei x86 mehr eine Notfall-Entscheidung. Da man sonst mit allem hinterherhinkt muss man sich halt etwas anderes einfallen lassen mit dem man sagen kann: Wir haben was neues für euch!

Und moderne Notebooks schaffen heute schon 24 Stunden Akkulaufzeit wenn man sie nicht stark beansprucht. Was bringt es da dann Big/Little einzubauen? 30 Stunden? Wer brauchts? Sobald man sie belastet sind eh wieder die Big-Kerne am rechnen und somit die Akkulaufzeit weiterhin im Keller.

Bei einem Gerät, das nicht 99% im Standby läuft (wie beim Smartphone) ist Big/Little heutzutage unnötig. Maximal eben für Connected Standby Betrieb ansatzweise sinnvoll... aber für das Arbeiten irrelevant.
-1
andreasm24.07.20 14:11
Ein nicht unerheblicher Teil von Intels Geschäft ist doch inzwischen der Serverbereich . Und das mit Gewinnmargen, die denen von Apple in nichts nachstehen . Bislang ist mir noch nichts bekannt dass diese Dominanz von irgendjemandem angegriffen werden würde.

Ich denke einen Abgesang auf Intel anzustimmen ist definitiv verfrüht.
+4
sierkb24.07.20 14:46
Peter Longhorn:

Warum nochmal rüsten seit einiger Zeit zunehmend Rechenzentren um auf ARM-Architektur? Warum nochmal finden sogar HPC und sogar Supercomputer auf ARM-Basis seit einiger Zeit und in letzter Zeit besonders großes Interesse und werden geordert? Weil Effizienz bei hoher Performance, Wärmeentwicklung, Stromverbrauch für die alle so überhaupt kein Thema ist? Und die Intel-/AMD-Architektur der alleinige Heilsbringer, zu dem es null Alternative gibt?

Warum geht Microsoft mit Windows immer mehr in Richtung ARM und kniet sich da rein? Weil das für die kein Thema ist, völlig uninteressant und die Intel-/AMD-Architektur der alleinige Heilsbringer, zu dem es null Alternative gibt?

Wer das braucht? Wer zum Beispiel mit spitzem Bleistift rechnet und nicht einen Großteil als Abwärme in die Luft und Umwelt abgeben will oder, per gesetzlicher Auflagen reguliert, nicht mehr so darf wie bisher. Und wer nicht mehr bereit ist, horrende Aufwendungen für mosntröse Kühlkonzepte zu betreiben und dafür extrem hohe Kosten und Mühen und Seiten- und Nebeneffekte hat, das zu bewerkstelligen. 'Ne Nummer kleiner oder ganz drauf verzichten zu können, ist für manchen auch schon ein Gewinn und rechnet sich.

Die Zeiten der hemmungslosen Rausrotzerei (Wat kost' die Welt? Nach mir die Sintflut!) neigt sich dem Ende zu, es wird nachhaltiger gedacht und geplant, Effizienz, Energieeffizienz ist ein Thema, und es rechnet sich am Ende sogar, teilweise ist es gesetzlich sogar so gefordert durch bestimmte Richtlinien und Grenzwerte, die einzuhalten sind, wer drüber liegt, zahlt drauf oder gar Strafe oder der Betrieb der Anlage, des Werks, des Rechenzentrums wird sogar nicht erst genehmigt und zugelassen, weil die Umweltauflagen so streng sind (auch in puncto Energieverbrauch/Energieeffizienz der Anlage).

Du fragst im Jahre 2020 ernsthaft, wer das braucht? Es ist absolut notwendig und sinnvoll, das zu tun und mehr auf Verbrauch und Effizienz und Energieeffizienz zu achten! Nicht nur die Umwelt und den Fußabdruck in derselben betreffend. Sondern auch den eigenen Geldbeutel betreffend.

Und: warum wohl hat sogar Intel ARM-Lizenzen? Aus Jux und Tollerei? Nein. Ganz sicher nicht. Sondern weil Kunden von Intel das so wünschen und damit gerne auch von Intel bedient werden wollen, sonst sind sie weg und lassen sich von jemandem Anderen bedienen, der ihnen gibt was sie wünschen bzw. weil Intel sie halten und nicht verlieren will als Kunden. Warum wohl werden derzeit Stimmen laut, dass Intel genau das, diese ARM-Sparte made by Intel, weiter verstärken und ausbauen sollte, weil es ihnen evtl. das Überleben sichern und einen erfolgreichen Weg in die Zukunft ebnen und sichern könnte?

Denkst Du, dass Energieeffizienz, Stromverbrauch, Abwärme und bauliche Maßnahmen zur Kühlung nebst dem Platzbedarf dafür und die Bau- und Betriebskosten diesbzgl. im Großen keine bzw. nur eine untergeordnete Rolle spielen und nur bei kleinen handlichen Consumergeräten wie Smartphones und Tablets von Belang sind?
+5
Peter Longhorn24.07.20 15:02
sierkb
Peter Longhorn:
Ziemlich viel blabla, das eigentlich auch meiner Meinung entspricht.

Ähm? Vielleicht mal sinnerfassend lesen.

Ich habe nichts davon geschrieben, dass Performance/Watt keinen interessiert. Wie du schon schreibst ist genau das Gegenteil der Fall. Das passt auch bei ARM Prozessoren genau so wie bei x86 (AMD machts Intel ja derzeit vor...).

Das, was ich geschrieben habe ist: Die leistungsärmeren Prozessoren braucht im Desktop keiner. Das hat NICHTS mit Performance/Watt zu tun.

Also nochmal: Ein Desktop hängt am Strom. Worin liegt der Vorteil bei einem Little-Prozessor? Ein Laptop schafft heute bereits 24 Stunden Akkulaufzeit wenn man nicht viel Leistung fordert. Worin liegt der Vorteil bei einem Little-Prozessor?
Eben nur für connected standby von Vorteil.

DAS HAT NICHTS MIT SUPERCOMPUTERN ZU TUN! Und auch NICHTS mit ARM.

Natürlich ist es schön wenn ein Prozessor im Standby wenig Strom braucht. Aber Intels Prozessoren brauchen extrem viel Strom wenn sie gefordert werden (im Vergleich zu den neuen AMD). Heißt man baut stromsparende ein um etwas besser abzuschneiden im Durchschnitt. Wenns aber drauf ankommt hat man mit dem Big-Prozessoren weiterhin eine weit schlechtere Performance/Watt Ausbeute als AMD. Intel hat derzeit nix entgegen zu setzen als solche Versuche um irgendwas zu bringen...
-5
sierkb24.07.20 15:54
Peter Longhorn:

Und ein Desktop-Computer-Nutzer freut sich nicht über einen strommäßig genügsameren Rechner und über weniger Lüfter-Lärm und über weniger Kühlturm im und als Rechner? Der freut sich total drüber, wenn das Ding ordentlich rumheult, surrt – grad' im Sommer und bei steigener bzw. hoher Außentemperatur und dass das Ding gut an seiner Stromrechnung nagt (jedenfalls mehr als technisch heutzutage möglich wäre – und er sieht und bekommt ja durchaus mit, was anderorts besser möglich ist)? Ich glaube, nicht.

Ja, AMD macht Intel da grad' einen vor. Aber auch ARM. Intel ist von beiden Seiten in der Zange. Und dann ist da ja auch noch RISC-V…

Natürlich hat das alles mit HPC zu tun! Was dort möglich ist und was dort diesbzgl. gilt, ist genauso auch für den Desktop gültig und machbar (auch dort freut man sich über geringeren Stromverbrauch, geringere Abwärme, weniger notwendige Kühlung, daurch kleiner mögliche Gehäuse, sparsamere Stromrechnung, etc.) und vom Anwender ganz gewiss nicht verachtet, wenn er es bekommen darf. Mobil-Geräte von unten wie HPC von oben setzen den Desktop-Bereich unter Druck und zeigen, was geht, was alles möglich ist und wäre, wenn man es denn tun und anbieten würde.
+4
Andy5924.07.20 16:07
Ja, ich würde Intel überhaupt nicht abschreiben wollen. Ich persönlich kaufe noch Ende des Jahres/ Anfang 2021 einen Intel Mac. Natürlich als Auslauf (2019) und als Schnäppchen. Apple macht tolle Sachen, aber wenn der Umstieg auf ARM so "toll" gelingt, wie auf Catalina, dann .... Ich denke, daß sogar gebrauchte Intel-Macs gefragt und gesucht werden. Die ganze Intel-Struktur wird man nicht von heute auf morgen
verteufeln. Langfristig - da muss man abwarten.
0
sierkb24.07.20 16:08
Ähnlich, wie Luft- und Raumfahrt und Militärtechnik in allerhöchsten Gefilden und Ansprüchen an Material, Technik, Zuverlässigkeit und Performance arbeiten und die Grundlagen- und Materialforschung vorantreiben und technische Messlatten für vieles legen, was in kleinerer, abgemilderter Form oder Abfallprodukt bei Verbraucher- oder anderen Industrieartikeln ankommt, so ähnlich zeigt im Computer-Sektor High-Performance-Computing (HPC) bzw. Supercomputing auf, was möglich ist und setzt Maßstäbe, die nach unten hin hineindifundieren und die technische Entwicklung mitbestimmen und vorantreiben, Maßstäbe setzen. Und der Mobil-Sektor mit seinen Anforderungen an Miniaturisierung und Energieeffizienz bei kleinstmöglichem Formfaktor tut dies von unten kommend. In der Mitte eingeklemmt zwischen beiden Extremen ist der klassische Desktop(-Rechner?) (der immer mehr an Bedeutung verliert, je kleiner und mobiler und leistungsfähiger die Geräte werden und die Nutzungs- und Kaufverhalten und Ansprüche der Menschen sich entsprechend anpassen bzw. ändern).
+3
Peter Longhorn24.07.20 16:33
sierkb
Peter Longhorn:

Und ein Desktop-Computer-Nutzer freut sich nicht über einen strommäßig genügsameren Rechner und über weniger Lüfter-Lärm und über weniger Kühlturm im und als Rechner? Der freut sich total drüber, wenn das Ding ordentlich rumheult, surrt – grad' im Sommer und bei steigener bzw. hoher Außentemperatur und dass das Ding gut an seiner Stromrechnung nagt (jedenfalls mehr als technisch heutzutage möglich wäre – und er sieht und bekommt ja durchaus mit, was anderorts besser möglich ist)? Ich glaube, nicht.

Ja, AMD macht Intel da grad' einen vor. Aber auch ARM. Intel ist von beiden Seiten in der Zange. Und dann ist da ja auch noch RISC-V…

Natürlich hat das alles mit HPC zu tun! Was dort möglich ist und was dort diesbzgl. gilt, ist genauso auch für den Desktop gültig und machbar (auch dort freut man sich über geringeren Stromverbrauch, geringere Abwärme, weniger notwendige Kühlung, daurch kleiner mögliche Gehäuse, sparsamere Stromrechnung, etc.) und vom Anwender ganz gewiss nicht verachtet, wenn er es bekommen darf. Mobil-Geräte von unten wie HPC von oben setzen den Desktop-Bereich unter Druck und zeigen, was geht, was alles möglich ist und wäre, wenn man es denn tun und anbieten würde.

Wie du schon geschrieben hast geht es bei Supercomputern um Performance/Watt. Ein Supercomputer soll so viele Operationen pro Sekunde schaffen wie möglich und dabei so wenig Strom wie notwendig verbrauchen. Es ergibt keinen Sinn hier 2 verschiedene Prozessoren zu verbauen. Einen, der hohe Performance/Watt liefert und ein anderer, der zwar weniger Performance/Watt, dafür aber auch viel weniger Watt "verbraucht".

Ein Supercomputer ist im Normalfall dauerhaft ausgelastet. Der soll gar keine Zeit haben um zu idlen. Deshalb ergibt hier das Big/Little Prinzip einfach keinen Sinn. Außer es ist ein Supercomputer, der eben nicht die ganze Zeit rechnen soll sondern immer mal wieder längere Pausen einlegt. Aber das wäre eine Verschwendung von Potential und ist denke ich so eher abnormal?

Und einen normalen Computer fährt man entweder herunter wenn man eine Pause einlegt oder er ist im Standby. Deshalb ja auch meine Aussage, dass Big/Little für Connected Standby sinnvoll ist. Aber sonst? Der Bildschirm braucht weit mehr als die CPU wenn sie idlet. Natürlich ist er Little-Prozessor nicht vollkommen für nichts. Aber ich bleibe dabei, dass es heutzutage egal ist ob ein Big-Prozessor, der runter taktet für eine Akkulaufzeit von 24 Stunden sorgt oder ein Little/Big-Prozessor, der nur die Little-Prozessoren aktiv hat dafür sorgt, dass der Akku 30 Stunden hält.

Natürlich ist das nett. Aber wen interessiert das wirklich? Vor allem wenn der Big-Only-Prozessor von AMD bei Rechenlast 14 Stunden durch hält, der Little/Big-Prozessor jedoch nur noch 8 Stunden, da seine Big-Prozessoren so viel Energie verbrauchen. In der Realität werden hier die meisten doch wohl eher lieber zu ersterem als zu letzterem greifen. Vor allem da man ja im normalen Standby Modus ähnlich wenig verbraucht wie der andere.

Little/Big ist sinnvoll bei Connected Standby und es hat Potential wenn man die zwei besten Welten miteinander verbindet. Und die Intel Big-Prozessoren sind davon sehr weit entfernt. Optimal wäre derzeit wohl eine Art von ARM-Little-Prozessor und ein AMD-Big-Prozessor.
-3
cps24.07.20 17:28
TiBooX
Während Intel noch an 10nm Technik „bastelt“ geht der Apple Chipfertiger TSMC mit 5nm bereits in Massenproduktion.

Ganz so einfach, wie es sich zunächst anhört, ist der Vergleich der unterschiedlichen Fertigungsprozesse aber nicht.
0
sierkb24.07.20 17:32
Peter Longhorn
Wie du schon geschrieben hast geht es bei Supercomputern um Performance/Watt.

Und beim Desktop-Rechner nicht auch? Und beim mobilen Endgerät (welche immer mehr u.a. auch und sogar zur Spielekonsole ausgebaut werden bzw. hybride Eigenschaften haben und omnipotent werden) nicht auch? Da spielt Performance per Watt so überhaupt keine Rolle? Das will ich aber sehr wohl meinen.
Peter Longhorn
Ein Supercomputer soll so viele Operationen pro Sekunde schaffen wie möglich und dabei so wenig Strom wie notwendig verbrauchen.

Ein Desktop-Gerät möglichst auch. Ein mobiles Endgerät möglichst auch. Stichwort, um's amzurufen: Spiele, VR/AR, Mediennutzung, Hybrid-Nutzung.
Peter Longhorn
Es ergibt keinen Sinn hier 2 verschiedene Prozessoren zu verbauen. Einen, der hohe Performance/Watt liefert und ein anderer, der zwar weniger Performance/Watt, dafür aber auch viel weniger Watt "verbraucht".

Deshalb wird es ja sehr wohl gemacht und in einem Chip verbaut und sieht das ARM Core-Design es sogar vor. Weil es so überhaupt keinen Sinn ergibt…
Peter Longhorn
Ein Supercomputer ist im Normalfall dauerhaft ausgelastet. Der soll gar keine Zeit haben um zu idlen. Deshalb ergibt hier das Big/Little Prinzip einfach keinen Sinn. Außer es ist ein Supercomputer, der eben nicht die ganze Zeit rechnen soll sondern immer mal wieder längere Pausen einlegt. Aber das wäre eine Verschwendung von Potential und ist denke ich so eher abnormal?

Und TROTZDEM verbraucht er Strom und hat Abwärme! Und je weniger und je geringer, umso besser für den Betreiber!
Peter Longhorn
Und einen normalen Computer fährt man entweder herunter wenn man eine Pause einlegt oder er ist im Standby.

Ja? Tut man das? Das ist die Regel – erst recht im professionellen Bereich, wo so ein Ding auch mal nachts durchläuft, um was zu rendern? Sehen die Betriebssysteme das vor, dass man das ständig tut – Ausschalten? Oder sind die nicht inzwischen diesbzgl. gleich, auch auf einem mobilen Rechner wie einem Laptop (welcher immer öfters als klassischer Desktop-Rechner fungiert und genutzt wird und für derlei Bedarfe ausgelegt ist – zudem: Apple hat ja nicht ohne Grund der jahrelangen Nachfrage nachgegeben und hat einen 16"-Laptop wieder aufgelegt als Ersatz für das 17"-Laptop-Modell… Die Nachfrage war/ist ja nicht von ungefähr, ebenso auch 15"-Laptops). Gibt es ein macOS für iMacs und ein anderes macOS für MacBook Pros? Oder ist es dasselbe OS? Gleiches bzgl. Windows 10 oder Linux-Distributionen? Gibt es da jeweils speziell eine Variante für Laptops? Oder benutzen sie nicht alle das gleiche OS sowohl für den Desktop-Rechner als auch den mobilen Laptop – eben, weil das Mobilgerät immer mehr den klassischen Desktop-Rechner im alltäglichen Gebrauch ersetzt hat bzw. letzterer gar nicht mehr überall benötigt wird, weil ein leistungsfähiges Laptop dem betreffenden Nutzer/Entwickler vollkommen ausreicht für das was er damit mache möchte oder muss? DAS ist dann sein Desktop-Rechner.
Peter Longhorn
Deshalb ja auch meine Aussage, dass Big/Little für Connected Standby sinnvoll ist. Aber sonst? Der Bildschirm braucht weit mehr als die CPU wenn sie idlet. Natürlich ist er Little-Prozessor nicht vollkommen für nichts. Aber ich bleibe dabei, dass es heutzutage egal ist ob ein Big-Prozessor, der runter taktet für eine Akkulaufzeit von 24 Stunden sorgt oder ein Little/Big-Prozessor, der nur die Little-Prozessoren aktiv hat dafür sorgt, dass der Akku 30 Stunden hält.

Du meinst also, dass die ARM-Ingenieure, die Apple-Ingenieure, die Intel-Ingenieure da was für die Tonne produziert haben und produzieren? Sie hätten sich die Mühe, das Gehirnschmalz, das viele Geld, dass sie da reingesteckt haben, sparen können und sollen, weil für die Katz'?
Peter Longhorn
Natürlich ist das nett. Aber wen interessiert das wirklich

Dein Wort in Gottes Ohr. Alles Nix-Blicker, Nix-Könner, die das gemacht haben. – Hätten sie mal Dich hinzugezogen und gefragt…
Peter Longhorn
Vor allem wenn der Big-Only-Prozessor von AMD bei Rechenlast 14 Stunden durch hält, der Little/Big-Prozessor jedoch nur noch 8 Stunden, da seine Big-Prozessoren so viel Energie verbrauchen. In der Realität werden hier die meisten doch wohl eher lieber zu ersterem als zu letzterem greifen. Vor allem da man ja im normalen Standby Modus ähnlich wenig verbraucht wie der andere.

Abwarten. Abwarten und Tee trinken und die Entwicklung und Fortentwicklung beobachten.
Peter Longhorn
Little/Big ist sinnvoll bei Connected Standby und es hat Potential wenn man die zwei besten Welten miteinander verbindet. Und die Intel Big-Prozessoren sind davon sehr weit entfernt. Optimal wäre derzeit wohl eine Art von ARM-Little-Prozessor und ein AMD-Big-Prozessor.

Dein Wort in Gottes Ohr…
0
cps24.07.20 19:31
Peter Longhorn
Die Frage ist: Wer braucht bei einem Desktop-Rechner oder Server das Big/Little Prinzip? Das ist gut für lange Akkulaufzeit. Aber ein Gerät, das meist/immer am Strom hängt?
Gerade weil das Gerät ständig am Strom hängt. So ein Homeserver oder NAS wird sich doch meist langweilen, da passen auch stromsparenden Kerne.
Und Apples T2 verfolgt doch ein ähnliches Konzept, wenn bestimmte Funktionen auf ARM-Kerne ausgelagert werden.
Aktuell scheitert Intel noch an der Software, die das Konzept noch nicht richtig unterstützt.
+2
Walter Plinge24.07.20 21:25
Peter Longhorn
Die Frage ist: Wer braucht bei einem Desktop-Rechner oder Server das Big/Little Prinzip? Das ist gut für lange Akkulaufzeit. Aber ein Gerät, das meist/immer am Strom hängt?

Soll das heißen, nur weil das Gerät ständig am Strom hängt, ist es OK sinnlos Strom zu verbraten? Der kommt ja schließlich unbegrenzt aus der Steckdose?

Sorry, aber diese Art der Argumentation verstehe ich nicht. Und ganz ehrlich: In Zeiten, in denen die aktive Lüftung in modernen Desktops das einzige mechanisch bewegte Teil ist, verzichte ich lieber heute als morgen darauf. Die „Little“-Kerne von heute haben mehr als genug Power um 80% (gute alte 80-20-Regel) der Standardaufgaben eines Desktop-Rechners zu erledigen bei zugleich minimalem Stromverbrauch. Wenn dann noch Spezialkerne für z.B. Ver-/Entschlüsselung und Videoen-/decodierung dazu kommen, werden die stromhungrigen, leistungsstarken Kerne noch seltener benötigt.

Für mich liegt die Zukunft des PCs ganz klar im komplett lüfterlosen Desktop (ja, sowohl Netzteil wie auch PC selbst). Schon allein aus dem Grunde, weil damit auf eine weitere, fehleranfällige Komponente verzichtet werden kann, was den Herstellern wieder ein paar Cent spart.

Und PS: Das Monitore heutzutage bereits deutlich mehr Strom verbrauchen als CPUs/Desktops kann ja nun kein Argument sein, die Energieeffizienz der Desktops nicht weiter zu verbessern.
+1
le kiu
le kiu24.07.20 23:45
@nane

nur weil die Klinkenputzer von „error inside“ ihre Produkte gut verkaufen und jedem aufdrängen heißt das nicht das sie das bessere Produkt haben. Ich will gar nicht wissen wie viele die Marke „Pentium“ immer noch für was Leistungsfähiges halten.

Andere Beispiele? Windows, Bild Zeitung, Trump...

Und Linux hat sich nicht durchgesetzt? Na klar. Schau dir mal nen ordentlichen Server an: der bootet ein Linux, und Windows evtl danach als VM.

Wenn den Leuten nicht (schon in der Schule) MS Windows und Office reingepresst würde, und im Mediamarkt genausoviele Linux, Mac, was auch immer Geräte wie Windows Gurken stehen würden, könnten die ihre Kuchenbude in Redmond zu machen.

Ich hab die letzten fast 20 Jahre mit Macs gearbeitet udn sitze jetzt an einer Windows 10 Maschine mit 2 Displays (nur WUXGA) an einer intel i5 (9. Gen) iGPU: gruselig die Performance, gruselig die Bugs in Windows und M$ Office, und die hatten schon genug Zeit zum üben/fixen/abkupfern.

Schnell sind die CPUs nur mit viel (teurem) Cache, und im Moment noch dazu mit viel zu viel Strom. Das kann AMD auch, sieht man ja gerade.

Nach den iGPUs die intel bisher verbrochen hat, bin ich mal gespannt ob da wirklich mal was ordentliches kommt. Es muss ja nicht extrem schnell sein, feherfrei würde schon reichen

Ab Tiger Lake wirds wieder interessant, ich finde Comet Lake und Coffe Lake refesh hätte man sich sparen sollen.
-1
Peter Longhorn25.07.20 10:06
sierkb
Du meinst also, dass die ARM-Ingenieure, die Apple-Ingenieure, die Intel-Ingenieure da was für die Tonne produziert haben und produzieren? Sie hätten sich die Mühe, das Gehirnschmalz, das viele Geld, dass sie da reingesteckt haben, sparen können und sollen, weil für die Katz'?
Ich denke du willst mich absichtlich nicht verstehen?

Wo habe ich gesagt, dass das Big/Little Prinzip allgemein schlecht ist? Das ist es definitiv nicht und ergibt Sinn. Bei mobilen Geräten.
Wieso ich der Meinung bin, dass es bei Supercomputern bzw. auch in gewisser Weise bei Desktop-Rechnern nicht unbedingt so ist habe ich oft genug erklärt.

Wieso gibt es das Big/Little Prinzip bei ARM bereits seit vielen vielen Jahren und bei x86 kommt Intel genau jetzt drauf, dass man das auch machen könnte? Und AMD macht es (noch?) nicht? Ich bin der Meinung weil sie selbst wissen, dass das nicht großartig viel bringt.

Und nochmal: Deren Big-Prozessoren sind stromhungrig ohne Ende wenn man sie belastet. Daran sollten sie arbeiten. Es ist zwar schön wenn das Gerät bei 1% Auslastung um 50% weniger Strom benötigt als bisher, aber es ist nicht schön wenn ein Gerät bei 100% Auslastung weiterhin 200% Strom benötigt. Intel zieht ja mittlerweile WEIT mehr als in der TDP angegeben.

Um die aktuelle Situation auf Intel umzumünzen: Das ist so als würde derzeit die Welt das ganze Geld in die Erforschung eines Impfstoffs gegen Grippe stecken. Während man COVID links liegen lässt und nichts dagegen unternimmt. Natürlich ist auch ein Grippe-Impfstoff super. Aber oberste Priorität sollte COVID haben.
Mit anderen Worten: Intel hat dringendere Probleme, die sie aber anscheinend nicht kurzfristig lösen können und deshalb klammert man sich an das, was man derzeit leisten kann. Aus deren Sicht verständlich. Aus Kundensicht sollte man aber (wie es auch Apple macht) eher zur Konkurrenz oder anderen (besseren) Lösungen schielen.
0
subjore25.07.20 12:01
Ich verstehe hier sierkb auch nicht.
Was soll das Big Little Prinzip in Server bringen? Da spart man Strom wenn man auf der 1000 Kern Maschine nur gerade im Internet herum surft.
Ein Server hat nur Big Kerne, da es zum Stromsparen einfach alle nicht benötigten Kerne deaktiviert.

Beim Desktop wäre es eine Abwägungssache. Ist es einem Wert 50 Euro mehr für einen Prozessor auszugeben um dafür für die Zeit in dem man den Computer benutzt aber keine aufwändigen Sachen macht 5 bis 10 Watt zu sparen?
Beim Notebook wäre es mir das wert, aber am Desktop vermutlich weniger.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.