iPhone-12-Benchmarks: Der A14 übertrumpft die Konkurrenz deutlich

Ceramic Shield, bessere Wasserdichtigkeit, höhere Pixeldichte der OLED-Displays – die neueste Generation des iPhones kann mit so manchen spannenden Features aufwarten. Völlig undenkbar wäre es auch, wenn Apples neue Modelle den ersten 5-nm-Chip nicht enthielten: Der A14 Bionic gilt als der heimliche Star in den neuen Smartphones sowie im iPad Air (2020). Das Unternehmen wird nicht müde zu betonen, welche Leistungssteigerungen der neue Prozessor mit sich bringt – und welche Möglichkeiten sich für eine derart potente CPU in der Zukunft auftun. Ein besonderes Augenmerk legt Apple auf die Neural Engine und das maschinelle Lernen, um möglichst komplexe Modelle berechnen zu können. Eines steht fest: Das iPhone 12 und alle seine Varianten werden noch länger in der ersten Liga spielen – die Konkurrenz beißt sich vor allem am Prozessor die Zähne aus.


Apples leistungsstärkster Chip
Wir haben bereits auf die Single-Core- sowie Multi-Core-Werte des A14 laut Geekbench 5 hingewiesen – das iPad Air (2020) war das erste Gerät, welches mit diesem Prozessor ausgestattet und vorgestellt wurde. Mit knapp 1600 Punkten im Single-Core lässt Apple die hauseigene Konkurrenz mit klarem Respektabstand hinter sich. Das Bild ändert sich auch nicht, wenn man die Grafikleistung des Chips genauer unter die Lupe nimmt: Im Metal-Score kann der A14 ebenfalls punkten – und erringt selbst im Vergleich mit Prozessoren, die für Pro-Tablets angepasst wurden, klar den ersten Platz.

Keine Chance für die Konkurrenz
Ab Freitag stehen das iPhone 12 sowie iPhone 12 Pro zum Verkauf – im Internet finden sich bereits erste Benchmarks der neuen Geräte, beispielsweise auf Tom's Guide. So zeigt sich eindrucksvoll, wie chancenlos die Android-Konkurrenz tatsächlich ist – selbst Samsungs Galaxy Note 20, das mit 1.266 Euro nicht gerade ein Schnäppchen ist, liegt weiter hinter Apples neuen Spitzenmodellen – sogar der A13 Bionic des iPhone 11 Pro Max deklassiert die Mitbewerber. Das iPhone 12 verbessert sich bei den Single-Core-Werten um 19 Prozent zum iPhone 11 Pro Max – beim Multi-Core sind es noch immer zehn Prozent.

Quelle: Tom's Guide

Grafikleistung ebenfalls an der Spitze
Die Grafik-Benchmarks von 3DMark Wild Life zeigen ein ähnliches Bild – wenngleich der A13 im iPhone 11 Pro Max in dieser Disziplin merkwürdigerweise bessere Ergebnisse einfährt als das iPhone 12. Für die Konkurrenz von Samsung, OnePlus und Google sieht es hingegen düster aus. Tom's Guide führte einen weiteren Test durch und überprüfte die Dauer, welche die Umkodierung eines kurzen 4K-Videos auf 1080p benötigt. Auch hier zeigen sich andere Smartphones weit abgeschlagen – so benötigte das Google Pixel 5 die 6,6-fache Zeit, um das gleiche Ergebnis zu erzielen.

Quelle: Tom's Guide

Kommentare

Tomboman22.10.20 10:38
Kann man die 1593 und 3859 eigentlich vergleichen zum aktuellen iMac mit 1252 und 9005 multicore?
Oder ist das ein anderer Benchmark?
+1
schastep22.10.20 10:45
Kann jemand erklären wieso das iPhone 12 besser als das iPhone 12 Pro abschneidet?
+1
pünktchen
pünktchen22.10.20 10:48
@ Tomboman: Kann man, das ist derselbe Benchmark. Der iMac wird sein Leistungsniveau dank aktiver Kühlung aber länger durchhalten können.
+1
Dante Anita22.10.20 10:55
Man schmeiße ein paar zusätzliche Performance-Cores drauf, kühle das Ganze aktiv und ordentlich und baue es in einen neuen iMac ein. Der müsste dann abgehen wie Schmitz Katze.

Apple, es wird höchste Zeit für ein Silicon-Event!
+8
Walter Plinge22.10.20 11:13
schastep
Kann jemand erklären wieso das iPhone 12 besser als das iPhone 12 Pro abschneidet?

Tut es nicht. Es schneidet erwartungsgemäß ähnlich ab, da ja exakt der gleiche Prozessor bei gleichem Takt zum Einsatz kommt.

Man muss beim Vergleich von Benchmarks immer beachten: Benchmarks laufen heutzutage auf komplexen Betriebssystemen, und können nicht beeinflussen, was diese gerade glauben machen zu müssen. Daher sind - gerade im Multicore Benchmark - durchaus stärkere Schwankungen nicht unwahrscheinlich. Singlecore Benchmarks sind da etwas robuster, weil ein Core mit deutlich größerer Wahrscheinlichkeit gerade frei ist, als alles Cores zusammen.

Aus dem gleichen Grund (und noch einigen anderen Gründen) sind übrigens Benchmarks zwischen verschiedenen OS mit einer gehörigen Portion Vorsicht zu betrachten. Für einen sinnvollen Vergleich müssten diese mit einem Benchmark auf der exakt gleichen Plattform "geeicht" werden.
+3
nane
nane22.10.20 11:15
Ich will, dass mich der Silicon Event im Nov. aus den Socken haut. Wie einst bei der Vorstellung des Mac IIFX. Und ich meine aus den Socken hauen, nicht nur ein bisschen "booaa".
Das Leben ist ein langer Traum an dessen Ende kein Wecker klingelt.
+4
Dunkelbier22.10.20 11:19
Dante Anita
Apple, es wird höchste Zeit für ein Silicon-Event!
Da bin ich auch gespannt. Wo anders behaupten ja so einige, daß da nur lahme Enten herauskommen könnten. Weil das ist ja bloß ne Mobil-CPU, welche sich mit richtigen Boliden gar nicht vergleichen lasse…

Ich bin gespannt, wer recht hat. Mein Late 2013 wird langsam fällig. Mit 4K tut er sich ein wenig schwer.
0
AJVienna22.10.20 11:23
schastep
Kann jemand erklären wieso das iPhone 12 besser als das iPhone 12 Pro abschneidet?
Wieso? Die sind eh fast gleich. Das würde ich unter Messtoleranz verbuchen.
0
Dunkelbier22.10.20 11:24
nane
Ich will, dass mich der Silicon Event im Nov. aus den Socken haut. Wie einst bei der Vorstellung des Mac IIFX. Und ich meine aus den Socken hauen, nicht nur ein bisschen "booaa".
Ja. Du muß Butter bei die Fische. Soviel ist klar.

Aber ich befürchte, es wird erst mal was ganz flaches und leichtes geben, mit guter Performance und sehr guter Laufzeit. Ist zwar bestimmt auch ganz toll, aber ich denke, nicht wenige wollen eher was sehen, wo der Barthel den Most holt.
0
Gammarus_Pulex
Gammarus_Pulex22.10.20 11:26
Wunschrunde?
Dann will ich ein Macbook Pro, das meinem Threadripper hier Konkurrenz macht und lange braucht, bis es laut wird
Ansonsten gerne 8GB+ vRAM, 128GB RAM und nen sauber entspiegelten Screen

Träumen darf man ja noch
+1
Nightlauncher22.10.20 11:31
Die Graphikleistung vom 11 Pro Max ist allerdings keine Messtoleranz ... liegt das am größeren Arbeitsspeicher?
0
pünktchen
pünktchen22.10.20 11:38
Walter Plinge
Aus dem gleichen Grund (und noch einigen anderen Gründen) sind übrigens Benchmarks zwischen verschiedenen OS mit einer gehörigen Portion Vorsicht zu betrachten. Für einen sinnvollen Vergleich müssten diese mit einem Benchmark auf der exakt gleichen Plattform "geeicht" werden.

Kommt drauf an was du vergleichen willst. Du bekommst so natürlich nur eine Kombinationswertung von OS + Compiler + Hardware, aber nichts anderes interessiert den Anwender bei Smartphones am Ende ja.
0
Mecki
Mecki22.10.20 12:02
Tomboman
Oder ist das ein anderer Benchmark?
Es ist der gleiche Benchmark, aber d.h. nicht, dass die Werte vergleichbar sind.

CPU Code kann hochgradig optimiert, das genaue Gegenteil davon oder irgendwas dazwischen sein. Das spielt aber keine Rolle, wenn es immer die gleiche Plattform ist, weil hier ja immer der gleiche CPU Code zum tragen kommt. Ist er gut optimiert, bekommen alle CPUs gut optimierten Code, ist er es nicht, dann bekommen alle schlecht optimierten Code. Mit besser optimierten Code werden alle bessere Werte liefern, mit schlechter optimierten alle schlechtere, aber es geht ja nicht um die absoluten Werten, sondern um die relativen. Hier hat niemand einen Vorteil oder Nachteil alleine aufgrund des CPU Codes.

Hast du aber CPUs unterschiedlicher Architektur, dann bekommen die auch unterschiedlichen CPU Code geliefert und wer sagt, dass der ARM Code den ein Compiler ausspuckt gleich gut optimiert ist wie der x86 Code, den der gleiche (oder am Ende sogar ein anderer Compiler) ausspuckt? Schneidet hier also eine CPU besser ab, dann kann man nie mit Sicherheit sagen wie viel man hier der CPU und wie viel man hier den Compiler verdankt. Innerhalb der gleichen Architektur hingegen lässt sich der Compiler leicht als Faktor eliminieren.

Und um die Sache noch zu erschweren, heißt "besserer Code" nicht immer das Gleiche. Je nach CPU bzw. Plattform muss ein Compiler Code anders optimieren, um ideale Werte zu erzielen. Die eine CPU wird bessere Werte liefern, wenn man erst Speicherzugriffe mach, dann Berechnungen durchführt und dann wieder Speicherzugriffe macht, weil sie dann mehrere Speicherzugriffe bündelt und das zu besseren Speicherdurchsatz führt. Eine andere CPU arbeitet hingegen viel schneller, wenn man die Speicherzugriffe zwischen die Berechnungen verteilt, denn da ist jeder Speicherzugriff mit einer hohen Latenz verbunden, aber die CPU kann Berechnungen durchführen, während ein Speicherzugriff gerade im Hintergrund noch läuft und muss daher nicht warten, bis der Zugriff fertig ist, wohl aber wenn man mehrere Zugriffe hintereinander packt. Daher kann man auch nicht Schlussfolgern, dass ein Compiler, der für eine Plattform sehr guten Code erzeugt, bestimmt für alle anderen auch sehr guten Code erzeugen wird.
+5
Mecki
Mecki22.10.20 12:33
Hier zeigt sich mal wieder mal der Unterschied zwischen Hardware von der Stange (Snapdragons sind seriengefertigte SoCs von Qualcomm) und selber angepasster und optimierter Hardware (Apple entwickelt dieses SoCs ja nur für ihre eigenen Geräte). Natürlich ist es viel billiger Serienprodukte zu verbauen (keine Entwicklungskosten, werden in viel größeren Stückzahlen gefertigt und sind daher günstig im Einkauf), aber diese Hardware muss auch für einen großen Kreis aus potentiellen Kunden passen, die alle leicht unterschiedliche Anforderungen haben oder andere Prioritäten setzen. Das läuft dann auf viele Kompromisse hinaus. Der Endkunde profitiert hier bestenfalls von niedrigeren Gerätepreis.

Daher kann Apple nur langfristig davon profitieren, dass sie Intel den Rücken kehren, denn Intel ist kein guter CPU Hersteller. Das meint man immer nur, weil sie doch so groß und bei x86 unangefochtener Marktführer sind. Aber schauen wir uns doch mal die Fakten an:

  • x86 ist eine furchtbare CPU Sprache. Gleicht man sie mit Listen ab, in denen Experten gutes CPU Design beschreiben, dann macht x86 so ziemlich alles falsch, das man falsch machen kann. Es wurde zu einer Zeit entwickelt, als Programmierer Assemblercode von Hand schreiben musste und sollte es hier Programmieren möglichst einfach machen. So entwickelt schon ewig niemand mehr Software. CPU Code erzeugen heute Compiler und denen macht x86 es maximal schwer. Die Architektur hätte schon lange ersetzt gehört.
  • Als damals zur Zeit des Pentium die ersten x86 Konkurrenten auf den Markt kamen, waren deren CPUs praktisch durch die Bank deutlich günstiger und trotzdem oft viel schneller als die von Intel (nicht in allen Bereichen und synthetischen Benchmarks, wohl aber bei fast aller damals gebräuchlichen Alltagssoftware).
  • Intel hat es nicht geschafft eine eigene 64 Bit Architektur zu entwickeln. Mit ihrer Architektur Itanium sind sie krachend gescheitert (was eigentlich klar war, wenn man sich die Architektur mal im Detail anschaut) und x86_64 stammt von AMD, das hat Intel nur lizenziert und darauf bauen aber bis heute alle CPUs von Intel auf. Intel würde ohne AMD heute noch im 32 Bit Zeitalter feststecken.
  • Intel CPUs sind extrem verbugt. Von den meisten Bugs hört man gar nichts, die werden still und heimlich gefixed, manchmal schlagen sie aber auch große Wellen (Meltdown, Spectre, Spectre-NG, ...). Diese Fixes sind aber Mikrocode-Fixes, hier wird also Hardware durch Softwaretricks gefixed, was sich immer negativ auf die Performance der CPUs auswirkt. Klar, jede CPU hat mal einen Bug, aber Intel ist hier Bug-König.
  • Intel kann schon seit ewigen Zeiten die Performance ihrer CPUs nur noch durch Tricks steigern, weil man die meisten anderen Möglichkeiten schon ausgeschöpft hat. Zuerst hat man die Taktcktraten bis an die Schmerzgrenze gefahren. Mehr Taktrate geht nicht, weil dann werden die Dinger zu heiß und brauchen zu viel Strom; hier trickst man mit einem Turbomodus, wo die CPU kurzfristig den Takt massiv hochschraubt, was sie aber dauerhaft nicht halten kann (aber zu besseren Werten in Benchmarks führt, die oft nur kurz laufen). Dann hat man eben statt mehr Takt die Anzahl der Cores immer weiter hochgedreht (sogar virtuelle Cores eingeführt, Stichwort Hyper-Threading), aber auch das skaliert nicht unbegrenzt, weil dann irgendwann der Bus zwischen den Cores oder die Anbindung zum Speicher (RAM) der Flaschenhals wird. Intel muss immer tiefer in die schmutzige Trickkiste greifen, um überhaupt noch die Leistung zu steigern und dabei fällt Sicherheit und Stabilität immer weiter hinten über.
  • Intel hat mehrfach versucht im ARM Bereich Fuß zu fassen und ist immer gescheitert, weil sie einfach nichts können und noch nie konnten. Sie leben davon mit x86 vor Urzeiten mal einen Glückstreffer gelandet zu haben und verdanken IBM so ziemlich alles. Seither halten sie diese Cashcow mit aller Gewalt am Leben, weil sie nichts anderes auf die Reihe bekommen. Jeder Versuch sich hier ein alternatives Standbein zu schaffen scheiterte an Intels Mittelmäßigkeit.

x86 ist keine gute CPU Architektur und Intel ist kein guter CPU Hersteller. Apple kann mit diesen Schritt also nur gewinnen, denn egal was Apple da in Zukunft fabriziert, schlechter als das was Intel fabriziert hätte wird es sicherlich nicht sein.
0
Legoman
Legoman22.10.20 13:06
Wow. Neuer Prozessor ist besser als sein Vorgänger und die Konkurrenz.
Wenn mal bitte jemand zusammenzählen könnte, wie viele Prozessoren bislang entwickelt wurden (-1), dann weiß ich, wie oft ich diese Schlagzeile schon gelesen habe.
+1
stepa9922.10.20 13:44
Ich denke noch an die gute alte Zeit, mit dem C64. Was konnte man alles mit den 64 KB Speicher anstellen!

Oder an die damaligen Supercomputer der Nasa, bei der ersten Mondlandung

Heute hast du von der Rechenleistung ein Vielfaches, der damaligen Technologien, in der Hosentasche. Wer diese Zeiten mitgemacht hat, kann es meistens immer noch nicht begreifen, welche geballte Leistung in so einem iPhone steckt.

Wie die Zukunft wohl in 30 Jahren aussieht?
+1
pünktchen
pünktchen22.10.20 14:15
Mecki
Intel ist doof und kann gar nichts

🙄 Was für ein Riesenhaufen Blödsinn!
+5
Tirabo22.10.20 14:38
stepa99
Ich denke noch an die gute alte Zeit, mit dem C64. Was konnte man alles mit den 64 KB Speicher anstellen!

Oder an die damaligen Supercomputer der Nasa, bei der ersten Mondlandung

Heute hast du von der Rechenleistung ein Vielfaches, der damaligen Technologien, in der Hosentasche. Wer diese Zeiten mitgemacht hat, kann es meistens immer noch nicht begreifen, welche geballte Leistung in so einem iPhone steckt.

Wie die Zukunft wohl in 30 Jahren aussieht?

Ja damals sind die Menschen mit der damaligen Leistung der Computer auf dem Mond gelandet, heute wird mit einer vielfachen geballten Leistung Shit and Fake im Social-Network abgesondert.
+8
awk22.10.20 14:39
Mecki
x86 ist keine gute CPU Architektur und Intel ist kein guter CPU Hersteller.

Deine Ausführungen sind weitgehend korrekt, aber das kann man so nicht stehen lassen.
Intel hat lange Zeit alle anderen Prozessorhersteller weit hinter sich gelassen. Nicht umsonst hat Apple von IBM zu Intel gewechselt. Vorher war auch schon der Schwenk von Motorola zu IBM.
MOS, Zilog, (wer kennt die noch?) sind praktisch verschwunden obwohl sie die bessere Ausgangssituation hatten. Motorola und IBM konnten leistungsmäßig nicht mithalten. Dann gab es noch DEC Alpha und es gibt noch SPARC, als überlegen RISC Architektur gefeiert, nie wirklich erfolgreich, nur in der Nische.
Intel hatte immer die Krone in der Fertigungstechnologie auf. Die mussten sie abgeben und laufen hinterher.
Es wäre sicherlich wünschenswert wenn es eine Ablösung der überholten x86 Architektur geben würde. Aber das wird nicht so einfach. Es stecken Billionen, und zwar deutsche Billionen, an Entwicklungsleistung in dieser Architektur. Es muss sehr gute Gründe geben um das über Bord zu werfen. Nicht umsonst existieren auch heute noch die IBM Mainframe Dinosaurier. Technisch völlig überholt, aber mit einem gigantischen Vorrat an Software an deren Ablösung seit mindestens 20 Jahren gearbeitet wird. Ein Ende ist nicht in Sicht.
Apple kann nur deshalb so einfach die Prozessorplattform wechseln weil das Softwarerepertoire recht schlicht ist.
+5
olilech22.10.20 15:25
Mecki
blahblahblub...

Wo wäre Apple heute, wenn sie damals nicht zu Intel gewechselt wären? Ich freue mich auf die ARM Macs, aber jetzt Intel so in den Dreck zu ziehen empfinde ich als absolute Unverschämtheit.
+3
nane
nane22.10.20 16:15
Thema INTeL:
INTeL hat aktuell einige Probleme und kämpft an vielen Fronten. Doch eines sollte man bei allem INTeL "bashing" nicht vergessen, dort arbeiten unzählige top Spezialisten und die schlafen aktuell nicht, sondern geben alles - um in Ihren Feldern wieder top zu sein bzw. wieder zu werden. Die X86 Architektur hat nicht nur "Nachteile", es gibt schon auch einen Grund, warum X86 seit Jahrzehnten de facto IT Standard auf diesem Planeten ist. Und nicht zu vergessen, ca. 90% aller Software auf diesem Planeten wird mit Microsoft Development Umgebungen auf X86 Plattformen entwickelt. AMD und Apple machen aktuell einen guten Job, das ist schön. Doch bei INTeL arbeiten keine Anfänger und denen stehen unglaubliche finanzielle Mittel und sagenhafte Labors mitsamt neuesten Fabriken zur Verfügung. INTeL wird sich wieder erholen und dann müssen die Herausforderer beweisen, ob Sie es wirklich "drauf" haben. Es bleibt also spannend.
Das Leben ist ein langer Traum an dessen Ende kein Wecker klingelt.
+3
Bananenbieger22.10.20 16:19
awk
Mecki
x86 ist keine gute CPU Architektur und Intel ist kein guter CPU Hersteller.

Deine Ausführungen sind weitgehend korrekt, aber das kann man so nicht stehen lassen.
Intel hat lange Zeit alle anderen Prozessorhersteller weit hinter sich gelassen.
Mecki hat aber im Grunde schon recht. x86 war von der Architektur her so schlecht, dass moderne x86-CPUs intern keine CISC, sondern eine RISC-Architektur haben.
In der Tat hat Intel davon profitiert, dass sie lange Zeit in der Fertigung führend waren und eben die CPU des IBM-PCs und damit der DOS- und Windows-Welt waren. Intels IA64 war jedenfalls ein völliger Fehlschlag und XScale wurde irgendwann von Intel verkauft.

Mittlerweile haben AMD und die führenden ARM-Hersteller Intel meilenweit überholt. AMD nutzt zwar auch eine auf x86 basierende Architektur, hat aber unter der Haube die bessere Architektur und baut zudem auf Kundenwunsch zugeschnittene APUs, bspw. für PlayStation und Xbox.

awk
Es wäre sicherlich wünschenswert wenn es eine Ablösung der überholten x86 Architektur geben würde. Aber das wird nicht so einfach. Es stecken Billionen, und zwar deutsche Billionen, an Entwicklungsleistung in dieser Architektur. Es muss sehr gute Gründe geben um das über Bord zu werfen.
Die Erfahrungen aus der x86-Entwicklungen sind ja nicht weg. Aber eine überholte Architektur muss halt irgendwann abgelöst werden, wie alle überholten Technologien.
awk
Nicht umsonst existieren auch heute noch die IBM Mainframe Dinosaurier. Technisch völlig überholt, aber mit einem gigantischen Vorrat an Software an deren Ablösung seit mindestens 20 Jahren gearbeitet wird. Ein Ende ist nicht in Sicht.
Apple kann nur deshalb so einfach die Prozessorplattform wechseln weil das Softwarerepertoire recht schlicht ist.
Die CPU-Architektur ist hier relativ uninteressant. Die IBM AS/400 (ich weiß, das ist nicht ganz Mainframe) wurde initial auch mit CISC-CPUs hergestellt und spätere Modelle hatten dann POWER-CPUs.
Die Anwendungssoftware ist eigentlich nicht das große Problem beim CPU-Architekturwechsel. Man kann schneller eine Linux-Applikation von X86 auf MIPS bringen als eine x86 Linux-Applikation nach x86 Windows zu portieren. Ersteres verlangt vielleicht ein paar Fixes, wenn man bspw. die Endianess beachten muss. Aber letzteres ist in der Regel nur mit einer teilweisen oder gar kompletten Neuentwicklung machbar.


nane
Und nicht zu vergessen, ca. 90% aller Software auf diesem Planeten wird mit Microsoft Development Umgebungen auf X86 Plattformen entwickelt.
90% aller Software auf diesem Planeten läuft produktiv nicht auf X86. Man vergisst immer so schnell, dass "Computer" eben weit mehr als nur "PC" ist. Windows PCs machen nur noch 10% der Computerverkäufe aus - und da sind Embedded-Systeme nicht nicht mal berücksichtigt.
-1
Thyl22.10.20 16:34
awk
Nicht umsonst existieren auch heute noch die IBM Mainframe Dinosaurier. Technisch völlig überholt, aber mit einem gigantischen Vorrat an Software an deren Ablösung seit mindestens 20 Jahren gearbeitet wird. Ein Ende ist nicht in Sicht.
Also ich hatte nicht den Eindruck, dass die IBM Mainframes technisch überholt sind. der z15 klingt akzeptabel:

https://en.wikipedia.org/wiki/IBM_z15_(microprocessor)

Und die gesamte Architektur ist ja sehr performant ausgelegt.
0
pünktchen
pünktchen22.10.20 17:01
Bananenbieger
x86 war von der Architektur her so schlecht, dass moderne x86-CPUs intern keine CISC, sondern eine RISC-Architektur haben.

Auch moderne RISC Prozessoren übersetzen die Assemblerbefehle intern in noch kleinere Einheiten (micro ops). Es wäre ja auch seltsam wenn irgendein vor Jahrzehnten entworfener Befehlssatz ideal für die internen Abläufe eines modernen Prozessors wäre.

Bananenbieger
Mittlerweile haben AMD und die führenden ARM-Hersteller Intel meilenweit überholt.

Soweit ich das sehen sind Intels Produkte zumindest für Laptops und Desktops durchaus konkurrenzfähig. Und das obwohl sie Probleme mit ihrem Produktionsprozess haben. Vielleicht hat AMD hier und da gerade die Nase vorne aber von "meilenweit" kann keine Rede sein.

Mag sein dass die neuen Apple Prozessoren Intel in den Boden stampfen werden - aber die haben wir ja noch nicht gesehen.
+1
pünktchen
pünktchen22.10.20 17:13
PS - aus einem aktuellen CPU-Test:
Against the x86 competition, Tiger Lake leaves AMD’s Zen2-based Renoir in the dust when it comes to single-threaded performance. Comparing it against Apple’s A13, things aren’t looking so rosy as the Intel CPU barely outmatches it even though it uses several times more power, which doesn’t bode well for Intel once Apple releases its “Apple Silicon” Macbooks.


(AMD's Renoir wiederum ist viel schneller wenn alle Kerne ran dürfen)
0
Mecki
Mecki22.10.20 17:34
pünktchen
🙄 Was für ein Riesenhaufen Blödsinn!
Wenn du alternative Fakten hast, immer her damit. Aber die für jedermann nachprüfbaren Fakten untermauern genau meine Aussagen.

Ich hätte z.B. auch erwähnen könnte, wie Intel mit MMX floppte, weil es nur Integer konnte und man sich immer zwischen MMX und FPU entscheiden musste, da der Wechsel extrem teuer war, was aber ein idiotisches Design war, weil die einzigen Apps, die wirklich von MMX profitieren konnten auch alle sehr viele FPU Berechnungen durchführen müssen. Und wie dann AMD mit 3DNow! kam, das halt wieder mal alles besser gemacht hat und vor allem sofort positiv von den Entwicklern aufgenommen wurde, so das Intel ein Jahr später mit SSE weitgehend 3DNow! nachbauen musste, um nicht gegen AMD abzustinken.

Oder wie AMD und Cyrix damals durch ganz einfache Optimierungen im Instruction Decoder die Ausführungsgeschwindigkeit von bestehen Code massiv verbessern konnten (da hatte mal ausgerechnet die Zeitschrift PC Games mal einen Fachartikel zu, weil vor allem Games davon profitierten) und erst zwei Generationen später Intel das auch in seinen CPUs getan hat, obwohl sie diese Optimierung schon seit dem 386er möglich gewesen wäre und sich damals jeder gefragt hat, wie Intel über so lange Zeit eine derart einfache und effektive Optimierungsmöglichkeit hat übersehen können, die dazu auch noch Chipfläche und Transistoren einspart und damit CPUs günstiger in der Fertigung macht.

Ich wollte den Post nur nicht 10 Seiten lang werden lassen, aber es gab da so viele Ereignisse dieser Art. Wer die Intel CPU Entwicklung vom 8086/8 bis heute aktiv verfolgt hat, so wie ich das getan habe, der hatte so viele Facepalm und "WTF? Intel" Momement, das ich die gar nicht alle hier posten kann. Den bekanntesten, den legenären FPU Rechenbug, für den Compiler selbst heute noch Workarrounds besitzen, den habe ich mir sogar bewusst noch geschenkt, weil Schnee von Vorgestern.
+1
Mecki
Mecki22.10.20 17:44
olilech
Wo wäre Apple heute, wenn sie damals nicht zu Intel gewechselt wären?
Bei AMD? Womit ihre Systeme dann auch viel bessere Grafikeinheiten gehabt hätten, als diese anfangs komplett unbrauchbaren Intel GPUs?

Und nur weil jemand aus der Not heraus zu einem Anbieter wechselt, ist das deswegen noch lange kein guter Anbieter. Intel war halt wirtschaftlich der verlässlichere Partner gewesen im Gegensatz zu AMD. D.h. nicht, das er die besseren CPUs gefertigt hat. Und x86 war damals eben die am weitest fortgeschrittene Architektur, aber d.h., dass es eine gute Architektur ist.

Apple selber sagt, dass Intel beschissene CPUs herstellt ("abnormally bad"):
-1
piik
piik22.10.20 17:53
Mecki
Wenn du alternative Fakten hast, immer her damit. Aber die für jedermann nachprüfbaren Fakten untermauern genau meine Aussagen.
Das erinnert mich an den Witz mit der Radiomeldung über einen Geisterfahrer.

Du übertreibst halt dermaßen, dass es eben falsch wird. Da ist es schon interessant, dass Du von Deiner Position Abweichendes als Fake siehst und auf angebliche "Fakten" rekurrierst, ohne in Betracht zu ziehen, dass Fakten immer "für jemand" Fakten sind, also genau genommen Interpretationen von etwas. Objektivität kann es bei solchen Fragen nicht wirklich geben, weil selbst Benchmarks interpretationsbedürftig sind.

Nichts destotrotz bin ich auf das erste Gerät unter MacOS mit ARM-CPU gespannt.
+2
stromsparmodus22.10.20 18:01
Mecki
x86 ist keine gute CPU Architektur und Intel ist kein guter CPU Hersteller. Apple kann mit diesen Schritt also nur gewinnen, denn egal was Apple da in Zukunft fabriziert, schlechter als das was Intel fabriziert hätte wird es sicherlich nicht sein.
Hoffen wir, dass es besser wird! Apple verbaut ja mit dem T2 schon einen Prozessor in Laptops.
+1
Mecki
Mecki22.10.20 18:23
awk
Intel hat lange Zeit alle anderen Prozessorhersteller weit hinter sich gelassen.
Das hatte mehr marktwirtschaftliche Gründe als technische. Wer steckt schon viel Geld in die Entwicklung seiner CPUs, wenn er kaum Abnehmer hat? IBM hat CPU-Herstellung nie als ihr Hauptgeschäft angesehen, bei Intel war das schon lange das einzige Hauptgeschäft, das noch zählte. Mit Genug Geld und Zeit kannst du jede Schrottkiste aufmotzen und Intel hat ja nichts mehr getan, außer das. Alle anderen hatten auch andere Standbeine, in die sie Ressourcen investieren mussten.

Und wo bitte hat Intel AMD weit hinter sich gelassen? Trotz viel weniger Geld und Ressourcen sitzt AMD Intel immer dicht im Nacken. Meistens ist Intel leicht vorne, aktuell auch, aber es gab immer mal wieder Zeiten, da war AMD vorne. Je nach Test ist auch heute AMD vorne:

ARM kann es heute schon mit x86 aufnehmen und RISC-V kann es heute schon beinahe mit ARM aufnehmen. Das so eine junge Architektur wie RISC-V aus dem Stand vorne mitspielen kann, zeigt doch wie schlecht x86 sein muss, wenn es sich nach so vielen Jahren intensiver Entwicklung und Forschung nicht so weit hat absetzen können, dass es für andere Architekturen uneinholbar geworden ist. Wir alle werden noch erleben, wie RISC-V x86 überholen wird und das nach nur wenigen Jahren Entwicklungszeit im Vergleich zu x86.

Und nur weil x86 damals die schnellsten am Markt waren und Apple somit kaum eine Wahl hatte, macht das aus x86 keine gute Architektur und aus Intel keinen guten Hersteller. Apple selber hat gesagt, dass die CPUs von Intel schreckliche Qualität haben und Intels eigene Qualitätskontrolle einen Großteil der Fehler nicht einmal gefunden hat. Und dann ist Geschwindigkeit nicht alles. Eine CPU muss stabil arbeiten, sie muss sicher arbeiten und sie muss korrekt arbeiten. Alles das fällt bei Intel aber gerne hinten über, wenn man mal wieder mit irgend einen Trick etwas schneller in Bechmarks wird. Ja, Intel hatte damals vielleicht mal die schnellste Consumer CPU am Markt, aber war das auch die stabilste, sicherste und mit den wenigsten Fehlern? Apple hatte da kaum eine andere Wahl, aber wenn du das einzig wählst, das überhaupt in Frage kommt, ist das deswegen noch lange nicht ein gute Wahl.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.