Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

iPhone 11: A13 zieht mit Intel & AMD gleich, aber Leistungsaufnahme steigt im Vergleich zum Vorgänger

Apple stellte im September das iPhone 11 und 11 Pro vor – mit neuem A13-Bionic-Prozessor. Das Wort Prozessor passt eigentlich nicht genau, da Apple fast alle wichtigen Bestandteile des iPhones direkt auf den A13-Chip packt und es sich somit um ein System-On-Chip (SoC) handelt. Anandtech hat sich die neuen Prozessoren im Detail angesehen, diverse Benchmarks ausgeführt und sehr interessante Neuerungen ausfindig gemacht.


Höherer Takt, viel Leistungsaufnahme
Wie auch das iPhone X, XS und XR verfügt das iPhone 11 über insgesamt sechs Prozessorkerne – zwei für höchste Performance und vier Kerne, welche auf Effizienz ausgelegt sind. Apple gab auf der Vorstellung an, dass der A13-Chip 20 Prozent schneller sei im Vergleich zu den Vorjahresmodellen – Anandtech konnte diese Behauptung bestätigen. Allerdings scheint Apple die Performancesteigerungen nicht nur durch Architekturänderungen erreicht zu haben, sondern auch durch eine Taktratensteigerung. Der A12 erreichte bei einem belasteten Core eine Taktrate von 2,5 Ghz, während der A13 auf 2,66 Ghz kommt. Auch wenn mehr Kerne belastet werden, taktet der A13-Chip spürbar höher:


Dies hat aber den Nachteil, dass der A13 teils deutlich mehr Energie verbraucht – die Leistungsaufnahme stieg um bis zu einem Watt im Vergleich mit dem A12. Bei vielen Rechenaufgaben nahm der A13 bis zu 6,2 Watt auf – dies ist auf Dauer ohne aktive Kühlung nicht zu halten, weswegen der A13 die Leistung schnell drosselte.

Während die Performance-Cores kaum Veränderungen im Vergleich zum A12 aufweisen, modifizierte Apple die Efficiency-Cores deutlich: Diese erreichen bei ähnlichem Energieverbrauch zwischen 30 und 40 Prozent mehr Leistung – eine beachtliche Steigerung.

Neue Befehle – aber nicht für Entwickler direkt zugänglich
Der A13-Chip bringt ein verbesserte Neural Engine mit, welche sich besonders für Aufgaben im Bereich der künstlichen Intelligenz eignet. Dazu führte Apple einige neue Befehle ein, welche das Unternehmen "AMX Instruction Set" nennt. Diese sind aber von Entwickler nicht direkt ansteuerbar, sondern nur über Apple-Programmierbibliotheken wie dem Accelerate-Framework.

A13-Performance beeindruckend
Im SPEC2006-Benchmark spielt der A13 in einer ganz eigenen Liga – obwohl er nicht mehr Leistung als die mobile Konkurrenz aufnimmt, übertrifft er diese um das doppelte. Während bei Ganzzahl-Rechen-Tests die Konkurrenz auf rund 26 Zähler kommt, erreicht der A13 fast 53 Punkte. Auch bei den Gleitkomma-Tests zeichnet sich ein ähnliches Bild ab:


Intel & AMD eingeholt
Noch beeindruckender ist die Tatsache, dass der A13 mit den Top-Chips von Intel & AMD mithalten kann. Im Vergleich zum Intel Core 9900K Skylake ist der A13 beim Ganzzahl-Rechen-Test nur leicht langsamer (53 vs 54 Zähler), den AMD Ryzen 3900X Zen2 übertrifft der A13 sogar. Etwas anders schaut es bei Gleitkomma-Berechnungen aus: Hier hat Intel & AMD noch leicht die Nase vorne (65 vs. 75 Zähler). Die Werte sind umso beeindruckender, da es sich beim A13-Chip um ein passiv gekühlten Prozessor in einem Mobiltelefon handelt.


GPU-Performance
Apple hat die Grafikeinheit des A13 deutlich verbessert: Bei gleicher Leistungsaufnahme konnte Anandtech eine Performancesteigerung von 35 Prozent ausmachen. Apple hat bei der Vorstellung 40 Prozent angegeben, doch dies kann durch unterschiedliche Messmethoden zustande kommen. Auch bei Grafik spielt Apple in einer eigenen Liga und lässt alle Konkurrenzmodelle im Regen stehen – es gibt kein Smartphone, welches höhere Frameraten im GFXBench erreicht:


Wann im Mac?
Der A13 ist ein beeindruckendes Stück Technik, welcher sich selbst vor den High-End-Prozessoren von Intel und AMD nicht verstecken muss. Die Chips im iPhone und iPad sind passiv gekühlt und verfügen über keinen Lüfter. Apple setzt in den allermeisten Macs Lüfter ein, welche dafür sorgen, dass bei Rechenaufgaben länger der hohe Turbo-Boost-Takt gehalten werden kann. Sollte Apple künftig auch in Macs zu eigenen A-Chips greifen wie dies vielerorts gemunkelt wird, dürfte hier die Performance bei aktiver Kühlung noch einmal deutlich zulegen, da höhere Taktraten und mehr Performance-Prozessorkerne möglich sind.

Wenn die Performance der A-Chips wie erwartet skaliert, ist es möglich, dass Apple nach einem Umstieg Computer im Angebot hat, an die konventionelle Intel- oder AMD-PCs nicht heranreichen können.

Kommentare

nane
nane17.10.19 09:25
MTN
...Wenn die Performance der A-Chips wie erwartet skaliert, ist es möglich, dass Apple nach einem Umstieg Computer im Angebot hat, an die konventionelle Intel- oder AMD-PCs nicht heranreichen können...
Dann wäre das zumindest für Teile des "Profi" Bereichs (Musik, 3D, CAD, Simulationen) bei vorhandenen Anwendungen dazu, der Aufbruch - hin zum MacPro. Beeindruckende Vorstellung. Dann gehe ich sofort wieder Klinken putzen bei für bei meinen Klienten. #freu
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
+4
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 09:40
nane
Es gäbe aber auch bei mobilen Rechnern Vorteile: Ein MacBook Air mit A13-Chip dürfte, wenn der Energieverbrauch ähnlich ist, DEUTLICH länger durchhalten als die derzeitigen Intel-Varianten.
+4
Dante Anita17.10.19 09:42
Beeindruckend ist der Vergleich mit Intel und AMD. Wenn der A13 schon mit einem 9900K mithalten kann...Was wäre dann, wenn man ein paar davon in ein Desktop-Gehäuse schmeißt und eine ORDENTLICHE aktive Kühlung drauf packt? Träumen wird man ja noch dürfen 😲
+6
Walter Plinge17.10.19 09:42
Äußerst beeindruckend. Vermutlich ist es jetzt tatsächlich nur noch eine Frage der Zeit, bis Apple den ersten reinen ARM-Mac vorstellt. Die Investitionen in die ARM-/Chiparchitektur gehören vermutlich zu den besten, die Apple je gemacht hat.
+3
Frickelpiet17.10.19 09:53
Wenn die Lüfter wegfallen, könnte Apple anstatt einer weiteren Verkleinerung des Gehäuses vielleicht wieder eine Tastatur mit mehr Tastenhub einbauen.
0
Cliff the DAU
Cliff the DAU17.10.19 10:15
Mendel Kucharzeck
nane
Es gäbe aber auch bei mobilen Rechnern Vorteile: Ein MacBook Air mit A13-Chip dürfte, wenn der Energieverbrauch ähnlich ist, DEUTLICH länger durchhalten als die derzeitigen Intel-Varianten.

Gibt es eine Grafik oder ähnliches das aufzeigt, wie der Energieverbrauch bei Notebooks verteilt ist? Prozessor, Monitor, restl. Elektronik. Ich denke mal, dass der Monitor nicht unerheblich beiträgt.
„Es gibt keine Nationalstaaten mehr. Es gibt nur noch die Menschheit und ihre Kolonien im Weltraum.“
0
piik
piik17.10.19 10:28
Es werden wieder einmal Äpfel mit Birnen verglichen.
-8
subjore17.10.19 10:36
Das Problem bei ARM Chips ist, dass man die Performance nicht einfach hoch skalieren kann. Allerdings wird bei mehr Leistungsaufnahme noch mehr drin sein.
Die Lösung für ARM Chips war bisher immer einfach mehr Kerne einzubauen (da skalieren sie gut). Bei der Leistung pro Kern hält Apple eh die Krone.
+2
iMackerer17.10.19 10:37
Cliff the DAU
Gibt es eine Grafik oder ähnliches das aufzeigt, wie der Energieverbrauch bei Notebooks verteilt ist? Prozessor, Monitor, restl. Elektronik. Ich denke mal, dass der Monitor nicht unerheblich beiträgt.

Lass dein Notebook mal einfach mit eingeschaltetem Display im Leerlauf laufen. Und dann mal einen Stresstrest für die CPU. Und dann mal die angezeigte Restlaufzeit vergleichen. Ich glaube, die geht dann ganz schön in die Knie 😊
+2
Cliff the DAU
Cliff the DAU17.10.19 10:54
iMackerer

„ Isch abe ga kein Notebook „
Leider!
„Es gibt keine Nationalstaaten mehr. Es gibt nur noch die Menschheit und ihre Kolonien im Weltraum.“
0
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 11:07
piik
Es werden wieder einmal Äpfel mit Birnen verglichen.

Magst du diese Aussage einmal begründen?
+3
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 11:08
Cliff the DAU
Gibt es eine Grafik oder ähnliches das aufzeigt, wie der Energieverbrauch bei Notebooks verteilt ist? Prozessor, Monitor, restl. Elektronik. Ich denke mal, dass der Monitor nicht unerheblich beiträgt.

Habe mal kurz gegooglt aber habe nix richtig verlässliches gefunden – das hängt halt auch stark vom eingesetzten Display, der CPU-Last, ob eine dedizierte GPU verbaut ist etc....ab. Das einzige was ich gefunden habe, ist: Wenn die CPU echt belastet ist, gehen dafür meist >90% der Akkuleistung drauf.
0
Jaguar1
Jaguar117.10.19 11:16
Relevant dürfte wohl auch sein, ob der Monitor dann bei 50 % oder 100 % Helligkeit betrieben wird.

Alles in allem ist es natürlich ein Zusammenspiel aller Verbraucher, aber zu gewinnen dürfte es trotzdem einiges geben.

Allerdings sehe ich immernoch die Problematik der Architektur, auch wenn es nicht mein Thema ist. Aber es wäre doch so, dass alle Programme zumindest neu kompiliert werden müssten!?
Die Menschen sind nicht immer was sie scheinen, aber selten etwas besseres.
0
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 11:27
Jaguar1
Korrekt, damit diese nativ funktionieren, müssten die Apps neu kompiliert und ggf. angepasst werden. Es gibt aber für bestehende Apps die Möglichkeit einer Software- (Rosetta war so was) oder Hardware-Translation.
0
macStefan17.10.19 11:28
Ja, man müsste alles neu kompilieren, aber wenn es eine Firma gab in der Vergangenheit, die das halbwegs schmerzfrei hinbekommen hat, dann war es Apple.

X86-Code lässt sich auf ARM wohl deutlich besser emulieren, wenn er in 64-Bit-Form vorliegt. Dies könnte auch einer der vielen Gründe sein, warum bereits mit Catalina alle 32-Bit-Apps rausgeflogen sind.
+2
Jaguar1
Jaguar117.10.19 11:30
Mendel Kucharzeck
was vermutlich aber wieder mehr Leistung als native Apps zieht und damit wieder mehr Akku und damit vielleicht Teufelskreis...
Die Menschen sind nicht immer was sie scheinen, aber selten etwas besseres.
0
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 11:32
Jaguar1
Natürlich können Chips nur bei nativen Code ihre volle Leistung und Effizienz entfalten. Der Teufelskreis wird mit der Zeit aber durchbrochen, je mehr Apps mit nativem Code verfügbar sind. Problematisch sind natürlich Virtualisierungslösungen, aber ich denke Apple wird sich dieses Problems sehr wohl bewusst sein und eine gangbare Lösung anbieten.
+1
Jaguar1
Jaguar117.10.19 11:37
Prima, man darf weiterhin gespannt bleiben
Die Menschen sind nicht immer was sie scheinen, aber selten etwas besseres.
+1
Maniacintosh
Maniacintosh17.10.19 12:20
Vielleicht sollte intel die Apple-Ingenieure mal auf die x86-Architektur loslassen...
0
sierkb17.10.19 13:44
Maniacintosh
Vielleicht sollte intel die Apple-Ingenieure mal auf die x86-Architektur loslassen...

Gar nicht mal so unwahrscheinlich, wenn es nicht evtl. bereits stattfindet, da

heise (26.07.2019): Apple schnappt sich Intels Modemgeschäft
Für eine Milliarde US-Dollar greift Apple beim Chipriesen Intel zu. Apple erhofft sich dadurch schneller eigene 5G-Technik.

und:

heise (27.09.2018): Hacker findet x86-Controller im iPhone XS
Im LTE-Modem-Chip der jüngsten iPhones, den Intel zuliefert, steckt angeblich ein Mikrocontroller mit x86-Technik.
heise, 27.09.2018
In den aktuellen iPhone-Typen XS und XS Max stecken LTE-Modem-Chips von Intel. Darin wiederum arbeitet ein eingebetter x86-Prozessor beziehungsweise eher ein x86-Mikrocontroller. Das jedenfalls will ein ungenannter Sicherheitsexperte herausgefunden haben, als er den Steuercode des Modems untersuchte.

Die Teardown-Experten von iFixit und TechInsights haben beim Zerlegen (Teardown) der erwähnten iPhones den Modem-Chip Intel PMB9955 gefunden. Sie gehen davon aus, dass es sich dabei um eine Variante des Intel XMM 7560 handelt.

Intel produziert diesen Chip nach eigenen Angaben mit der hauseigenen 14-nm-Fertigungstechnik. Ältere XMM-Typen ließ Intel bei TSMC mit 28-nm-Technik fertigen. Intels LTE-Modem-Sparte ging aus Infineons 2010 gekaufter Handy-Chipsparte hervor.

In früheren XMM-Modems übernahm jeweils ein ARM-Kern Steuerungsaufgaben. Wenn die Analyse des Hackers stimmt, könnte Intel stattdessen nun einen hausgemachten x86-Kern dafür einsetzen.
[…]

Quark statt ARM

Intel hat vor einigen Jahren stark geschrumpfte und auf niedrigen Energiebedarf optimierte Mikrocontroller-Varianten von x86-Prozessoren entwickelt. Diese kamen als "Quark"-Chips auf den Markt beziehungsweise wurden in Systems-on-Chip (SoCs) integriert.

Unter anderem baut Intel solche Quark-Cores auch in die eigenen PC-Chipsätze ein. Dort übernehmen sie ebenfalls Steuerungsaufgaben, etwa in der viel diskutierten Management Engine (ME/CSME). Bei älteren Chipsätzen mit ME verwendete Intel einen zugekauften ARC-Kern.
[…]
+1
piik
piik17.10.19 15:43
Mendel Kucharzeck
piik
Es werden wieder einmal Äpfel mit Birnen verglichen.

Magst du diese Aussage einmal begründen?
Kein sehr großes Problem, auch wenn ich nicht der Superspezialist für CPUs bin.
Zur Zeit wird etwa mit einer Transistordichte von 100 Mio./mm2 gearbeitet bei CPUs und ARM-SoCs. Apples A13 kommt auf erstaunliche 8,5 Mia. Transistoren und liegt damit auf einer ähnlichen Größenordnung wie Intels neueste Chips (AMD ist ähnlich). Ein Teil davon geht auf die Caches. Davon hat ein Intel i9 etwa doppelt so viel wie der A13.
Es bestehen Unterschiede im Grundkonzept, auch wenn sich ARM-SoCs und Intel-CPUs von der Umfassung an Aufgaben annähern. Ein A13 hat Schnittstellen zum RAM, zum Flash-Speicher und zu den diversen Sensoren inkl. Touch etc. Hinzu kommt noch eine Grafik-Einheit. Die Intel-Chips haben das komplexere RAM-Interface und dann noch jede Menge PCIe-Schnittstellen, die echt Chip-Platz brauchen und über die Möglichkeiten eines A13 hinausgehen.
Hinzu kommt der unterschiedliche Befehlssatz: Gegenüber RISC beim A13 ist ein Intel CISC - dessen Befehle sind mehr, komplexer, brauchen etwas länger, können aber mehr.
Was genau die SPEC-Tests messen kann ich nicht wirklich beurteilen.
Aber der gerade von Apple-Fans gern geglaubte Punkt ist, dass Intel so blöde ist, dass deren Ingenieure nur Chips hinbekommen, die bei äquivalenter Leistung ca. 20 x soviel Energie verbrauchen, denn auf nichts anderes läuft es hinaus, wenn man sich einen ARM-SoC in einem Laptop vorstellt. Apples Ingenieure (sehr viel weniger übrigens als die von Intel) hingegen sind obergenial und tricksen quasi die Physik aus.
Und diese Vorstellung ist was?
Vorsichtig gesagt: Wishfull thinking.
Ich würde sagen: Aberglauben, irrationales Wunschdenken.

Fakt dürfte sein, dass wenn man einen ARM-Chip an die Erfordernisse eines Desktops oder Laptops anpasst und die dann ähnliche Performance bringen sollen wie aktuelle Exemplare mit Intel-Chips, dann schlucken die ARM-Teile sehr viel mehr Energie als jetzt.
Sie müssen nämlich mit wirklich schneller Peripherie umgehen können, wie etwa moderne SSDs, die mehr können, als die ollen Flashs in einem iPhone. Und was ist mit USB? Ein iPhone bietet nach wie vor die sagenhafte Geschwindigkeit von USB 2.0. Da ist man schon etwas weiter, in der Welt großer Chips.

Ein A13 und eine Intel-CPUs unterscheiden sich also kräftig.
Insofern werden definitiv Äpfel mit Birnen verglichen. Oder um mal eine Metapher aus der Welt der Fortbewegung zu strapazieren: Motorräder mit Autos.

Ich schließe nicht aus, dass es möglich ist, die ARM-SoCs auf das Niveau von "richtigen" CPUs zu heben, aber dann sind ihre scheinbaren Vorteile dahin, die sie bei Mobile Devices ausspielen. Apple könnte das hinkriegen und hätte den Vorteil, dass sie dann quasi alles selber machen. Aber dazu müssten sie massiv Ingenieure einstellen und Forscher, um gleichzuziehen, denn Intel, AMD und nVidia sind eben keine Deppen.
Apples Geräte sind dank "Features" wie Zusatz-Chips heute schon weitgehend verdongelt. Catalina geht auch in die Richtung, dass ein User möglichst sanft geführt wird und ihm die Feinheiten eines Rechners verwehrt bleiben. Eigene Chips imn normalen Rechnern hätte für Apple die gleichen Vorteile, wie wenn gleich SSD, Flash, RAM, Batterien und Displays selbst entwickelt würden.
Bei den Chips für mobile Devices sieht das anders aus, weil wie bei den Mobilfunk-Chips zu sehen war, sehr schnell Know-How bei anderen Firmen entstand, das Apple abhängig machen würde. Deshalb hatte auch Samsung eigene ARM-Chips entwickelt. Dass Apple dabei besonders schnelle ARM-SoCs hinbekommt ist dabei toll. Bei CPUs sieht es aber anders aus, denn hier liegen Know-How und Patente in anderen Händen. Das ist viel schwieriger. Und Intel nutzt seine Marktmacht nicht so aus wie z.B. Qualcomm.
-1
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 16:06
piik
Du hast mit keinem Wort geschrieben was den SPECINT oder SPECFP Benchmark beeinflussen könnte – also warum hier Äpfel mit Birnen verglichen wurden. Allen Prozessoren wurde der selbe Benchmark vorgesetzt und alle lieferten das selbe Resultat – die Zeit wurde gemessen wie lange die Chips für die Aufgabe brauchten. Da ist es schnurzpiepegal wie viel Cache diese haben oder der Befehlsschatz des Prozessors – es zählt nur a) Ergebnis stimmt und b ) die benötigte Zeit.
+2
ThorsProvoni
ThorsProvoni17.10.19 16:27
Das man einen A13 nicht so ohne weiteres in ein Laptop-Gehäuse packen kann ist glaube ich unbestritten. Aber das traue ich Apple durchaus zu, dass sie das hinbekommen.
Ich schließe nicht aus, dass es möglich ist, die ARM-SoCs auf das Niveau von "richtigen" CPUs zu heben, aber dann sind ihre scheinbaren Vorteile dahin, die sie bei Mobile Devices ausspielen.
Dem würde ich nicht zustimmen. Zumindest im Servermarkt gibt es inzwischen einige Alternativen zu Intel-CPUs, ich denke da an den Graviton von Amazon, den ThunderX2 oder den Ampere. Der Graviton ist ein gutes Beispiel, wie man eine ähnliche - wenn nicht sogar bessere - Performance als vergleichbare Intel-CPUs erreicht. Und das kostet in der AWS deutlich weniger.
+1
john
john17.10.19 16:59
der tag, an dem es keine x86 macs mehr gibt, ist der tag, an dem ich dem mac den rücken kehre.
biete support. kostenlos, kompetent und freundlich. wähle zwei.
+1
Steph@n
Steph@n17.10.19 17:10
Warum?
0
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 17:11
john
Entscheidungen ohne Grundlage sind meist keine Guten Abwarten, was Apple daraus macht.
+1
Cliff the DAU
Cliff the DAU17.10.19 17:22
john
der tag, an dem es keine x86 macs mehr gibt, ist der tag, an dem ich dem mac den rücken kehre.

Gabs schon mal. Damals hieß es PowerPC statt x86
„Es gibt keine Nationalstaaten mehr. Es gibt nur noch die Menschheit und ihre Kolonien im Weltraum.“
+2
piik
piik17.10.19 17:53
Mendel Kucharzeck
piik
Du hast mit keinem Wort geschrieben was den SPECINT oder SPECFP Benchmark beeinflussen könnte – also warum hier Äpfel mit Birnen verglichen wurden. Allen Prozessoren wurde der selbe Benchmark vorgesetzt und alle lieferten das selbe Resultat – die Zeit wurde gemessen wie lange die Chips für die Aufgabe brauchten. Da ist es schnurzpiepegal wie viel Cache diese haben oder der Befehlsschatz des Prozessors – es zählt nur a) Ergebnis stimmt und b ) die benötigte Zeit.
Du kannst gerne die Argumente ignorieren und stattdessen versuchen Kommafehler zu finden.
Welches Gegenargument hast Du denn für die Unterstellung, dass die Ingenieure von Intel und AMD so viel mieser sind als die von Apple (was wahrhaft eine schräge Unterstellung ist).
Du kannst auch weiterhin ignorieren, dass eine CPU für einen Laptop oder einen Desktop andere Aufgaben zu erledigen hat und dass eine Ersatz-CPU für nichtmobile Anwendungen ein anderes Ding ist, das dann sehr viel mehr Strom bräuchte.

Ach, ich wiederhole mich...
Es steht Dir frei, Gegenargumente gegen Lieblingsvorstellungen zu verdrängen
-4
piik
piik17.10.19 18:00
ThorsProvoni
Das man einen A13 nicht so ohne weiteres in ein Laptop-Gehäuse packen kann ist glaube ich unbestritten. Aber das traue ich Apple durchaus zu, dass sie das hinbekommen.
Ich schließe nicht aus, dass es möglich ist, die ARM-SoCs auf das Niveau von "richtigen" CPUs zu heben, aber dann sind ihre scheinbaren Vorteile dahin, die sie bei Mobile Devices ausspielen.
Dem würde ich nicht zustimmen. Zumindest im Servermarkt gibt es inzwischen einige Alternativen zu Intel-CPUs, ich denke da an den Graviton von Amazon, den ThunderX2 oder den Ampere. Der Graviton ist ein gutes Beispiel, wie man eine ähnliche - wenn nicht sogar bessere - Performance als vergleichbare Intel-CPUs erreicht. Und das kostet in der AWS deutlich weniger.
Äpfel und Birnen.
Server sind ne andere Baustelle. Es gibt sogar Supercomputer mit abertausenden ARM-SoCs oder auch GPUs. Es sind solche Dinger machbar. Mit den Bedingungen eines Laptops oder Desktops hat das praktisch nichts zu tun.
Wenn es anders wäre:
Warum gibt es keine solchen Rechner bzw. nur diese miserablen Nichtskönnernotebooks mit ARM-Herz, die sich nicht verkaufen, für die es keinen Markt gibt. Weil nur die Genies von Apples sowas hinkriegen?
Du denkst einfach: Ein bisschen Apple-Zauberpulver auf einen ARM-SoC gestreut und schon kommt da der Überprozessor raus, der die Bemühungen anderer CPU-Hersteller lächerlich macht, ja?
Metapher: Wenn Apple E-Tretroller bauen würde, die in der Stadt 3 kWh pro 100 km verbrauchen, dann würden sie auch ein E-Auto hinkriegen, das 4 oder höchstens 5 kWh pro 100 km benötigt?
-1
Mendel Kucharzeck
Mendel Kucharzeck17.10.19 19:37
piik
Hu? Ich wollte dich wirklich nicht angreifen, sondern nur wissen warum z.B. der SPECINT nicht aussagekräftig sei als Anhaltspunkt für Performance?

Und natürlich sind Intels Ingenieure nicht dumm – aber diese haben momentan mit zwei Problemen zu kämpfen: Kompatibilität zu einem bestehenden Befehlsschatz und (für Intel sehr verwunderlich) Fertigungsprobleme bei geringen Strukturbreiten.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.