Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Hochrechnung der Performance des A14X: Spekulativ - aber nicht aus der Luft gegriffen

Wenn Apple in einigen Wochen mit dem iPhone 12 die nächste Generation der hauseigenen Smartphones präsentiert, schlägt in deren Inneren aller Voraussicht nach ein ARM-Chip namens A14. Über kurz oder lang wird im iPad Pro die Tablet-Variante dieses Prozessors Einzug halten, welche vermutlich die Bezeichnung A14X Bionic trägt. Einer Hochrechnung zufolge, die allerdings ziemlich weit hergeholt erscheint, könnte dieser ARM-SoC so leistungsfähig sein wie ein aktueller Notebook-Achtkerner aus dem Hause Intel.


Performance des A14X hochgerechnet
Der YouTuber Luke Miani hat die Benchmark-Ergebnisse etlicher Axx-Chips aus Cupertino analysiert und dabei insbesondere die Leistungszuwächse verglichen. Aus diesen Werten errechnete er dann die voraussichtliche Performance des A14 für das iPhone 12 und eines möglichen A14X Bionic, welcher in einem zukünftigen iPad Pro zum Einsatz kommen könnte. Mianis Überlegungen zufolge dürfte die nächste Generation von Apples Tablet-Prozessor im Geekbench auf knapp 7.500 Punkte kommen. In die Berechnung flossen zudem geleakte Informationen über A14 und A14X ein.


Grafik: Luke Miani

A14X auf dem Niveau des Intel Core i9-9880H?
Sollte Mianis naturgemäß höchst spekulative Hochrechnung zutreffen, dann böte der A14X eine um mindestens 50 Prozent höhere Leistung als der im aktuellen iPad Pro verbaute A12X. Dieser wiederum ist dem YouTuber zufolge annähernd so schnell wie der für das iPhone 12 erwartete A14. Die Performance des A14X läge damit auf dem Niveau des Intel Core i9-9880H, dieser Achtkerner kommt etwa im MacBook Pro mit 16-Zoll-Display zum Einsatz.

Spekulativ, aber nicht ohne Substanz
Mianis Hochrechnungen sind naturgemäß höchst spekulativ, gänzlich aus der Luft gegriffen dürften seine Schlussfolgerungen jedoch nicht sein. Zum einem lieferte nämlich bereits der A12X vor zwei Jahren ähnliche Benchmarkergebnisse wie mancher Notebook-Sechskerner aus dem Hause Intel. Zum anderen wird seine Prognose durch Benchmarkergebnisse von Apples Developer Transition Kit untermauert: Die von einem A12Z angetriebene Entwickler-Version des Mac mini mit "Apple Silicon" liegt zumindest beim Single-Core-Wert des Geekbench 5 auf dem gleichen Niveau wie das MacBook Pro mit Core i9. Beim Multi-Core-Benchmark allerdings liegt die aktuelle ARM-CPU aus Cupertino mit gut 4.500 Punkten gegenüber dem Intel-Chip (7.200) noch deutlich zurück. Es wäre also nicht völlig überraschend, wenn der A14X Bionic in dieser Hinsicht zum X64-Prozessor aufschließen würde.

Apple verspricht erhebliche Leistungssteigerungen
Apple hat bereits mehrfach betont, dass die zukünftigen hauseigenen Prozessoren über eine erheblich gesteigerte Performance verfügen werden. Bei der Ankündigung des Umstiegs von Intel auf ARM im Rahmen der diesjährigen WWDC war wiederholt die Rede von signifikanten Leistungszuwächsen auch und gerade im Vergleich zu Intel-CPUs. Darüber hinaus finden sich in den Betaversionen von macOS 11 Big Sur Hinweise auf drei verschiedene Serien eines A14X, bei mindestens einer dürfte es sich um eine Hochleistungs-Variante des Prozessors für Desktops und Notebooks aus Cupertino handeln. Angesichts Apple vollmundiger Ankündigungen wäre es daher eine große Enttäuschung, wenn die zukünftigen A14-Chips nicht deutlich schneller wären als die bisher eingesetzten Intel-Prozessoren.

Kommentare

Michael Lang19.08.20 17:54
Angesichts Apple vollmundiger Ankündigungen wäre es daher eine große Enttäuschung, wenn die zukünftigen A14-Chips nicht deutlich schneller wären als die bisher eingesetzten Intel-Prozessoren.

Naja, vielleicht werden ja einige enttäuscht sein...;-)
Wenn die A Prozessoren in den Apple-Silicon Kisten auf dem Niveau von Intel wäre, könnte man ja schon mal nicht meckern. Deutlich schneller muß doch gar nicht sein.

Bin mal gespannt was Apple so als Gesamtpaket in Zukunft zustande bringt (Also Stromverbrauch, Singecore und Multicoreleistung, GPU Performance, ML etc. In Zusammenspiel mit dem OS).
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
+5
Crypsis8619.08.20 18:10
die cpu Leistung wird top sein, da muss man glaub ich kein Prophet sein. es hat schon einen Grund, warum apple bei MacBooks anfängt und nicht beim iMac... Sorgen bereitet mir eher was die GPU angeht, aber letzten Endes ist man da Apple sowieso ausgeliefert und irgendwie bin ich mir dann doch sicher, dass es gut wird. Wenn die GPU z.B. perfekt auf FCPX abgestimmt ist, werde ich z.B. nix vermissen. Apple Arcade bzw. das neue Anstoss 2022 wird das Teil auf jeden Fall hinkriegen.

Ich bin gespannt, man, erst August
0
sierkb19.08.20 18:13
Interessant und lesenswert in dem Zusammenhang NUVIAs neuester Blogeintrag und was darin für Aussagen bzgl. der auch von ihnen genutzten ARM-Architektur (Aussagen u. a. zu Performance, Effizienz, Vergleich gegen Intels und AMDs Prozessoren, Vergleich von Server-Prozessoren vs. Desktop- vs. Mobil-Prozessoren, Apples Prozessoren etc.) getätigt werden:

NUVIA Blog, John Bruno (11.08.2020): Performance Delivered a New Way

Das lässt nämlich auch schon erahnen, welches Potential in der ARM-Architektur und in Apple Silicon liegt und wie man bei NUVIA drüber denkt.



Wer ist NUVIA, wer ist John Bruno? Wir erinnern uns:

MTN (17.02.2020): Apples Chipentwicklung: Ex-Entwicklungschef bringt schwere Vorwürfe gegen Apple vor

MTN (10.12.2019): Apple verklagt Mastermind der A-Chips für iPhone und iPad

MTN (18.11.2019): Drei ehemalige Apple-Entwickler gründen neue Chip-Schmiede
+2
CJuser19.08.20 18:31
Schade, dass nicht ebenfalls der A13 mit aufgeführt wird, hinsichtlich der iPhone Entwicklung. Auf jeden Fall ist es beruhigend, dass das iPad Air 4 bei der Leistung auf dem Niveau des iPad Pro 3/4 sein wird... abgesehen vom RAM und der Speicherbandbreite. Was dann wohl erst bei den Chips für die MacBook Pros und Desktop Macs auf uns zukommen wird
-1
becreart
becreart19.08.20 19:07
CJuser
Schade, dass nicht ebenfalls der A13 mit aufgeführt wird,

Den wird es nicht geben.
-3
PorterWagoner
PorterWagoner19.08.20 19:07
Ich war wirklich selten so gespannt auf neue Hardware. Seit Jahren nicht mehr. Ich hoffe nur, das war nicht Apple-Dampfplauderei sondern wirklich so ein Sprung.
+5
Jeronimo
Jeronimo19.08.20 19:23
becreart
Den wird es nicht geben.

Woher dieses überzeugte Statement?
+2
subjore19.08.20 19:27
Ich würde bei der CPU schon eine Steigung von 50% in zwei Jahren erwarten . Klingt doch nicht übertrieben.
Das Top Notebook Model bekommt ne CPU die noch mal 100% schneller ist, als der A14X. (Also doppelt so viele Performance Kerne)
Bei der Grafik wird Apple denke ich beim Mac Einsteiger Model sogar 100% gegenüber dem A12X auf die Grafikleistung legen.
0
Krypton19.08.20 19:30
becreart
CJuser
Schade, dass nicht ebenfalls der A13 mit aufgeführt wird,

Den wird es nicht geben.
Wieso sollte es den nicht geben? Der ist aktuell im iPhone 11, 11 Pro und SE-2 verbaut. Natürlich gibt’s den.
+4
subjore19.08.20 19:43
CJuser
Schade, dass nicht ebenfalls der A13 mit aufgeführt wird

A10: 1350 (hat keine 4 little Kerne)
A11: 2200
A12: 2600
A13: 3300
A14: 4500?
Scheint mir etwas hoch gegriffen zu sein.
4000 Punkte wäre realistischer.
Der Sprung vom A10 zum A11 kam ja dadurch dass zu den beiden großen Kernen noch 4 kleine dazu kamen.
0
Scrembol
Scrembol19.08.20 20:36
subjore
CJuser
Schade, dass nicht ebenfalls der A13 mit aufgeführt wird

A10: 1350 (hat keine 4 little Kerne)A11: 2200
A12: 2600
A13: 3300
A14: 4500?
Scheint mir etwas hoch gegriffen zu sein.
4000 Punkte wäre realistischer.
Der Sprung vom A10 zum A11 kam ja dadurch dass zu den beiden großen Kernen noch 4 kleine dazu kamen.

Der A14 macht den Sprung auf 5nm Fertigung. Ggf paart Apple das diesmal mit einem etwas höheren Entwicklungsaufwand als sonst, weil auf dem A14 dann auch die MacProzessoren basieren werden.

Aber ja: alles sehr spannend dieses Jahr mal wieder! Als Gamer interessiert mich tatsächlich auch das Grafikpotenzial dieser Teile. Wenn selbst der A12Z schon eine Rosetta II-Version von Shadow of the Tomb Raider abspielen kann...
Meine neue Single YOUR EYES - Eric Zobel ab sofort streamen! iTunes, YouTube, Spotify uvm.
+4
subjore19.08.20 23:13
Scrembol
subjore
CJuser
Schade, dass nicht ebenfalls der A13 mit aufgeführt wird

A10: 1350 (hat keine 4 little Kerne)A11: 2200
A12: 2600
A13: 3300
A14: 4500?
Scheint mir etwas hoch gegriffen zu sein.
4000 Punkte wäre realistischer.
Der Sprung vom A10 zum A11 kam ja dadurch dass zu den beiden großen Kernen noch 4 kleine dazu kamen.

Der A14 macht den Sprung auf 5nm Fertigung. Ggf paart Apple das diesmal mit einem etwas höheren Entwicklungsaufwand als sonst, weil auf dem A14 dann auch die MacProzessoren basieren werden.

Aber ja: alles sehr spannend dieses Jahr mal wieder! Als Gamer interessiert mich tatsächlich auch das Grafikpotenzial dieser Teile. Wenn selbst der A12Z schon eine Rosetta II-Version von Shadow of the Tomb Raider abspielen kann...

Beim Wechsel vom A11 auf A12 wurde die Struktur auch verkleinert. Die Verkleinerung der Struktur alleine sorgt für 10-20% Verbesserung aber nichts so großes.
0
MetallSnake
MetallSnake20.08.20 07:33
Scrembol
Wenn selbst der A12Z schon eine Rosetta II-Version von Shadow of the Tomb Raider abspielen kann...

Ist das so? Im WWDC Video kam sicher nicht das Developer Kit zum Einsatz sondern schon Prototypen vom kommenden Prozessor.
“War makes fascists of us all.” - Paul Verhoeven
-4
andreas_g
andreas_g20.08.20 08:09
MetallSnake
Scrembol
Wenn selbst der A12Z schon eine Rosetta II-Version von Shadow of the Tomb Raider abspielen kann...

Ist das so? Im WWDC Video kam sicher nicht das Developer Kit zum Einsatz sondern schon Prototypen vom kommenden Prozessor.

Während der WWDC haben sie gesagt, dass alle gezeigten Demos auf dem DTK gelaufen sind.
+4
athlonet20.08.20 08:36
Was man auch nicht vergessen darf: der A14X ist die CPU für's iPad Pro und wird wie der A12X 4 Hochleistungskerne haben.
Für die Macs wird Apple sicher auch Varianten mit 8 (oder mehr) Hochleistungskernen bringen. Da kann man mal weiter hochrechnen, was das an Performance bedeuten wird.
0
marcel15120.08.20 09:50
Crypsis86
[...]Wenn die GPU z.B. perfekt auf FCPX abgestimmt ist, werde ich z.B. nix vermissen. Apple Arcade bzw. das neue Anstoss 2022 wird das Teil auf jeden Fall hinkriegen.
Völliger Quatsch, Arcade ist für Indie Games gut, das war’s dann aber auch schon. AAA Titel sucht man vergebens. Wer in Zukunft nicht auf AAA-Gaming verzichten will sollte sich einen x86 Windows PC zulegen. Zum Arbeiten erwarte ich dagegen eine super Grafik-Performance der neuen ARM-Macs. Anspruchsvolles Gaming auf dem Mac rückt durch die Umstellung noch weiter in den Hintergrund als es eh schon ist. Daran wird auch kein Anstoss 2022 was ändern.
0
aMacUser
aMacUser20.08.20 09:53
Ich bin ja schon etwas gehypt. Stellt euch mal vor, ein passiv gekühltes MacBook hat eine Prozessorleistung einer Intel i9 CPU. Und jetzt stellt euch mal einen Apple Silicon Prozessort in einem aktiv gekühlten MacBook Pro vor oder gar in einem Mac Pro. Wenn Apple es tatsächlich schaffen sollte, die Leistung so zu maximieren, dann würden sie Intel und AMD in Grund und Boden stampfen. Aber auch so ist es schon faszinierend, dass Apple etwas geschafft hat, das Intel und AMD bis heute nicht hinbekommen, eine enorme Leistungssteigerung bei trotzdem übersichtlichem Energiebedarf. Man bedenke, dass die aktuellen Prozessoren in Mobilgeräten verbaut sind, nicht in Laptops oder gar Festrechnern, die wesentlich mehr Energie liefern.
0
pünktchen
pünktchen20.08.20 10:00
marcel151
Wer in Zukunft nicht auf AAA-Gaming verzichten will sollte sich einen x86 Windows PC zulegen.

Da wäre ich mir nicht so sicher. MacOS war immer eine zu kleine Nische, iOS + macOS sind es nicht. Die Leistungsfähigkeit der Hardware ist nicht das Problem, die anderen Grafik APIs und der daraus folgende Aufwand sind es. Wenn der Markt grösser ist als der für PCs, wo sind dann wohl die AAA-Games?

Und Konsolen sind natürlich auch noch eine Alternative.

Aber wenn du mit "AAA-Gaming" eigentlich Windows-Spiele meinst dann ja, da muss man sich wohl einen x86-PC zulegen.
+1
aMacUser
aMacUser20.08.20 10:18
Zu Games kann man auch noch sagen, dass das bisherige Problem die fehlende Leistungsfähigkeit war. Bei CPUs und GPUs war Apple ja recht selten auf dem aktuellsten Stand und bei GPUs wurden sowieso häufig nur mittelmäßige Prozessoren eingebaut. Wenn Apple es jetzt allerdings schafft, eine CPU und GPU Performace zu erreichen, die den etablierten Herstellen ebenbürtig ist oder diese sogar übertrifft, dann kann es gut sein, dass auch für macOS/iPadOS/iOS hochwertigere Spiele kommen werden. Natürlich wird das nicht über Nacht passieren, sondern mit der Zeit. Aber ausschließen sollte man es nicht.
0
Kronar (back)20.08.20 10:23
Dazu bräuchte es die passenden Engines, da die Entwicklungsstudios gerne auf eine Engine setzen, die die gängigen Plattformen unterstützen: PS4/XBOX/SWITCH/PC/iOS/Android...
Da kommen zur Zeit nur zwei in Frage: Unreal Engine von Epic (die Frage ist da, wie lange noch für den Mac) und Unity.
+2
aMacUser
aMacUser20.08.20 10:45
Kronar (back)
Dazu bräuchte es die passenden Engines, da die Entwicklungsstudios gerne auf eine Engine setzen, die die gängigen Plattformen unterstützen: PS4/XBOX/SWITCH/PC/iOS/Android...
Da kommen zur Zeit nur zwei in Frage: Unreal Engine von Epic (die Frage ist da, wie lange noch für den Mac) und Unity.
Mal abgesehen davon, dass es noch mehr hochwertige Engines gibt, würden vermutlich immer mehr Enginess für applesOS portiert werden, wenn sich dort ein entsprechender Markt öffnet.
Am Ende braucht es halt jemand, der als erst anfängt, ein hochwertiges Spiel zu portieren.
-2
Swenster20.08.20 15:51
Sorry aber dieser Artikel vergleicht Äpfel mit Birnen und ist absolut nicht aussagekräftig. Ich dachte als Artikel-Verfasser würde man etwas technisches mehr Verständnis mitbringen.

Eine ARM Architektur mit CISC oder RISC geht nicht so einfach zu vergleichen!
Das die Apple Fan Boys alles glauben was das Marketing ihnen zeigt in Sachen ARM Demos ist schon traurig genug aber wie so oft normal. Das größte Hauptproblem sind schon unter anderem die Kompatibilität.

"Mal so eben" kompilieren für eine ganz andere Architektur geht nicht. Außerdem wird man als Unternehmen nur in den seltensten Fällen extra Entwickler abstellen welche für den kleinen Apple Nischenmarkt ihre Software optimieren. Der große Markt wird höchstwarscheinlich eh FatELF nutzen. Die Instructions sind nicht gleich und somit braucht man zudem auch code emulation.

Aber alle anderen hier werden es ja wieder besser wissen...
-5
pünktchen
pünktchen20.08.20 16:03
Swenster
Eine ARM Architektur mit CISC oder RISC geht nicht so einfach zu vergleichen!

Haha
-2
aMacUser
aMacUser20.08.20 16:49
Swenster
Eine ARM Architektur mit CISC oder RISC geht nicht so einfach zu vergleichen!
Und warum kann man den Geekbench-Score nicht vergleichen? Genau dafür ist der doch da. Ich bitte um eine logische Begründung.
Swenster
"Mal so eben" kompilieren für eine ganz andere Architektur geht nicht. Außerdem wird man als Unternehmen nur in den seltensten Fällen extra Entwickler abstellen welche für den kleinen Apple Nischenmarkt ihre Software optimieren. Der große Markt wird höchstwarscheinlich eh FatELF nutzen. Die Instructions sind nicht gleich und somit braucht man zudem auch code emulation.

Aber alle anderen hier werden es ja wieder besser wissen...
Natürlich reicht es bei vielen Anwendungen einfach aus, diese für eine neue Architektur lediglich neu zu kompilieren. Schwierig wird es erst bei sehr komplexen Anwendungen. Für einen Entwickler ist das ziemlich logisch.
Und wenn du meinst, dass macOS ein kleiner Nieschenmarkt ist, kannst du nicht einfach mit FatELF kommen, was für Linux ist. Also wenn du schon unter macOS kaum Games findest, dann unter Linux erst recht nicht...
-2
Swenster21.08.20 03:43
@ Benchmarks
Weil es von viel zu vielen Faktoren abhängt. Einfache Beispiele aus dem Kopf wie Memory Bandwith, laufen Applikationen im Hintergrund während der GB läuft, SIMD sind bei ARM nur sehr limitiert aber bei CISC nicht (wie betrachtet GB das im Detail / wurde die Software kompiliert?), lief ein System im Low Power Modus und das andere nicht?, wie war das OS zu der Zeit konfiguriert (pstate...) etc. etc.
Geekbench ist strict closed source. Keiner weiß wie die Software entwickelt wurde, welche flags genutzt wurden usw. Auch hier kann man gut ansetzen und Werte manipulieren.

Eine CPU mit vielen Cores sagt absolut gar nichts in der "Real World Umgebung" aus, weil du als Entwickler auch diese erst entsprechend ausnutzen musst. Der normale User der sein Mail oder Firefox aufmacht wird einen 1-2 Sekunden Unterschied nicht merken, Ne*** lassen sich aber gerne von tollen Nummern beeindrucken.



@ "Portierung ist doch ganz easy..."
Wenn ich meine Software mit AVX2 oder F16C Instructions geschrieben habe, dann kann ich diese nicht "einfach" kompilieren und auf einem ARM laufen lassen! Das Instruction Set bei ARM ist stark limitiert und kennt diese gar nicht und CISC/ARM Register sind für unterschiedliche Dinge designed. Das Speicher Model ist zw. x86 und ARM total verschieden. Während x86 sehr streng ist wie die Adressierung sein muss, ist das ARM "nicht ganz so wichtig".

Es kommt IMMER sehr stark darauf an wie der Code geschrieben wurde. Ist die Applikation stark abhängig von speziellen externen libs welche das Ziel OS nicht zu Verfügung stellt und lohnt sich der Aufwand das ganze auch zu porten? Umgekehrt ist es genauso. ARM kennt zwar nur drei SIMD ISAs aber diese sind jeweils auch sehr komplex.


Hier ein Vergleich auch für nicht Entwickler.
Wenn ich einen Speicher Adressbereich prüfen will dann bietet mir CISC mit den Instruction Sets weitaus mehr Performance und einfachheit bei der Programmierung.

X86 Arch:
repe cmpsb /* repeat while equal compare string bytewise */

ARM Arch: Dieses ist die kürzeste Möglichkeit die selbe Funktion abzuarbeiten. Code für Fehlerprüfung noch nicht einmal eingebunden...
top:
ldrb r2, [r0, #1]! /* load a byte from address in r0 into r2, increment r0 after */
ldrb r3, [r1, #1]! /* load a byte from address in r1 into r3, increment r1 after */
subs r2, r3, r2 /* subtract r2 from r3 and put result into r2 */
beq top /* branch(/jump) if result is zero */



@ Gaming
Jedes vernünftig denkende Unternehmen entwickelt für den Markt wo er auch am Ende verdienen kann! Ich entwickle doch kein ( Achtung Schleichwerbung ! ) "The Last of Us / Uncharted" welches hohe Entwicklerkosten veranschlagt um dann 1000 Kopien nur an Apple user zu verkaufen. Ich brauch auch erst einmal Leute welche wissen wie das OS funktioniert und ob die Toolkits laufen würden.

Der Markt hat sich seit Jahrzehnten stark gewandelt. Primär wird immer für die Konsolen entwickelt da diese einen viel größeren Massenmarkt erreichen. Die Maschinen sind hoch-optimiert um einfach nur Spiele laufen zu lassen. Der Desktop Markt hat es viel schwerer da vieles andere parallel läuft.

Warum du jetzt Linux hier einspielst ist mir ein Rätsel. Linux hat sich auf dem Enterprise Markt breit gemacht und ist an AAA Games gar nicht erst interessiert. Außerdem gibt es genug Optionen AAA Games unter Linux zu spielen dank Steam-OS und Wine. Anders als bei BSD geht es hier aber auch um Lizenzen/Lizenz-Verstöße die beachtet werden müssen...



Das sich Apple nie an Standards gehalten hat ist ja bekannt. Was Apples "Closed-Zoo" mit seinem Handy Prozessor auf dem Desktop Nischenmarkt macht wird man sehen. In Sachen Performance wird man dem x86 Markt erst einmal bestimmt nicht das Wasser reichen können.
-2
Krypton21.08.20 08:18
@Swenster
Was die Unterschiede der CPU Architekturen, Befehle, AVX2 und Code-Beispielen angeht, hast du recht. Es gibt da einige Unterschiede zwischen ARM und x86 Befehlssatz, die man nur schwer vergleichen kann.

Die Einschätzung, dass A: die Benchmarks nicht aussagekräftig sind und B: Apple dem x86 Markt bestimmt nicht das Wasser reichen kann, teile ich. nicht.
Viele der genannten Benchmark-Einschränkungen betreffen doch alle Systeme gleichermaßen. Auf auf x86 only Benchmarks gibt es in realen Anwendungen Unterschiede zwischen dem Benchmark und eben echten Anwendungen. Ebenso kann auf allen Systemen was im Hintergrund oder dem Speicherbus laufen. Die Grundaussage, das der Benchmark als grober Richtungspfeiler anzusehen ist, funktioniert meines Erachtens dennoch.

Und gerade bei realen Anwendungen hat sich ja gezeigt, wie die Performance etwa auf einem iPad mit ARM Chipsatz und dem Mac mit x86 ist. Ebenso im Dev-Kit etwa mit FinalCut, Logic, Photoshop oder im Maxxon Cinebench. Viele reale Anwendungen - also die Praxis laufen proportional ungefär so, wie es der Benchmark suggeriert. Dass hier eine «grobe» Fehleinschätzung vorliegt, kann ich nicht sehen.

Der zweite – und in meinen Augen viel größere Punkt ist jedoch, dass es sich bei einem A13 oder A14 eben nicht um eine CPU sondern um ein SoC (System on a Chip) handelt. Hier hat Apple in der Vergangenheit etwa die «Neural Engine», den «Bionic» Teil eingebaut, der KI, Matzitzenberechnungen und andere Dinge extrem beschleunigt. Auch wurden frühzeitig Hardware En- und Decoder, etwa für H264, H265 oder HEIC eingebaut. Die iPhones und iPads waren dadurch in der Realität bei Video- und Bildbearbietung um ein vielfaches schneller als die besten Macs. Ebenso bei Verschlüsselung, Bildananalyse und anderen Tasks. Das ist eine Stärke, die Intel oder AMD so auch in Jahren vermutlich nicht schlagen können wird.
Apple weiß, auf welche Aktionen, Berechnungen oder Formate sie Wert legen und können das Jahre im Voraus sowohl in CPU als auch in Software umsetzen. Bei WinTel oder selbst Android/ARM hat das in den letzen Jahren nicht wirklich funktioniert. Der eine baut ein paar Befehle in die Hardware, die Software zeiht nach zwei oder Jahren Entwicklung vieleicht nach. Da ist Apple schon am nächsten Punkt.

Bis etwa die Hardware-Decodierung in den Grafikkarten funktioniert hat, vergingen mitunter 3 Jahre. In dieser Zeit hat ein iPhone die dicksten Videos mit niedrigem Stromverbrauch in Full HD abgespielt, während die Macs sich einen abgelüftet und 150 W verbraten haben, um das Video halbwegs ruckelfrei abzuspielen. Auch die Zeit, in der AVX, AVX2, AVX 512 ausgeliefert, im Markt ankommen, von Entwicklern unterstützt werden, liegt oft so bei 2-4 Jahren. In dieser Zeit hinkt die Intel-Plattform eben oft hinterher.

Und was die Entwicklung von Software für ARM angeht, mache ich mir auch keine Sorgen.
Betrachtet man nur den Desktop-Markt, wird Apple auch hier vermutlich keinen Stich machen. Der Marktanteil ist zwar in den letzten 10 Jahren von ca. 5 auf ca. 18% gewachsen (Statista) oder (Statcounter) .
Die andere – und für mich spannendere – Wahrheit sieht man aber, wenn man alle Betriebssysteme anschaut (auch Tablet/Smartphone) (Statcounter) .
Hier liegt Android und iOS zusammen auf 53% Marktanteil – und damit eben auch die ARM Plattform. Das ist genug, damit Entwickler ihre Werkzeuge, Engines und anders Gedöns portieren. Wenn das jetzt hier noch die (gemessen am Gesamtmarkt) 8 % Macs auf ARM portiert, dann sind es über 60%.

Da auf diesen Macs jetzt sogar iOS/iPad Apps/Spiele ohne (oder ohne großen) Aufwand direkt laufen, eröffnet sich hier ein Markt von 23% (iOS + MacOS kombiniert), der dazu noch Zahlungskräftig ist.

Das in Kombination dürfte mehr als ausreichen, um hier keine düstere Zukunft zu sehen.
+3
geobat21.08.20 10:03
Um die Zukunft düsterzu sehen habe ich gar keinen Anlass.

Derzeit sind die iPads mit passiver Kühlung in etwa so schnell wie die Laptops.

Es benötigt nicht so viel Phantasie sich vorzustellen, was Apple leistet wenn sie auch mehr Stromverbrauch, bessere Kühlung und nicht zu letzt auch mehr Platz in den Macs haben.

Die einzige Spannende Frage wird die Grafikleistung - beim MacMini sicher kein Thema, da wird das reichen - bei grösseren Geräten mit einer externen Grafikkarte wird es interessant wie gut die CPU mit der GPU zusammen arbeitet - und ich bin mir sicher, auch hier wird sich Apple keine blöse geben
Linux am Server, Mac zum arbeiten, Windows zum spielen :)
+3
Krypton21.08.20 12:56
Was die Performance und die Hochrechnung dessen angeht, halte ich den Artikel tatsächlich für höchst spekulativ. Ich hab’ das selbst vor einer Weile auch gemacht und bin in etwa auf folgendes gekommen:



Ein normaler A14, also das, was man im nächsten iPhone erwarten könnte, kommt auf:
1600 Single-Core und 3900 Multi-Core Punkte

Dabei habe ich die bisherigen Performance-Steigerungen (Performance per Cycle) pro Generation seit dem A8 hochgerechnet und auch die Taktratensteigerung – ebenfalls seit dem A8. Der mögliche Takt wäre dann bei ca. 2,8 GHz. Das passt auch mit dem zu erwartenden Shrink auf 5nm durch die Chip-Fertigung.

Ein A14X, also der Chip des nächsten iPad käme hier auf
1600 Single-Core und 6737 Multi-Core Punkte

Die X-Serie lief in den letzten Versionen mit dem gleichen Takt wie in den Phones, daher der selbe Single-Core Wert. Der Multi-Core Wert geht vom selben 4+4-Core Design aus wie beim A12X (4 low Power + 4 high Performance).

Schaut man sich jetzt andere ARM-Designs an, so laufen die öfters mit max 3 GHz und manche sogar mit 3,3 GHz. Ich habe hier mal die konservativen 3 GHz genommen und geschaut, wie ein A14X mit etwas mehr Leistungsaufnahme aussehen könnte - etwa für ein kleines MacBook.
Wie die anderen A14 Modelle würde auch das im Single-Core jeden Intel im Regen stehen lassen. Zum Vergleich sind die Werte des dicksten Intel i9 10910 aus dem neuen iMac aufgenommen.

Dann noch exemplarisch ein 6-Core Design (6+6 Cores - da sich aus den Benchmarks durch das big-little Prinzip schwer eine einfache Single-Core zu Multi-Core Berechnung anstellen lässt) und ein 8-Core Design. Das würde den aufgeführten 10-Kerner auch im Multi-Core Benchmark in die Nesseln setzen. Ob das so kommt, ist natürlich reine Spekulation. Aber in einem MacBook Pro wäre das gut vorstellbar. Nur die doppelte Leistungsaufnahme eines iPads und dafür eine Performance über allem, was die Intel i9 Serie zu bieten hat.

Sprich, die 7500 für einen regulären A14X sehe ich nicht ganz, da tippe ich eher auf die 6700 Punkte, auch für den normalen A14 kann ich keine 4500 Punkte sehen, einen Wert um die 4000 im MultiCore halte ich für realistischer. Wäre immer noch Bombe.

Für das iPhone 12 und das nächste iPad eine solide Steigerung - für die kommenden Macs (mit höherer Leistungsaufnahme und mehr Cores) eine Blühende Zukunft.
+1
Swenster21.08.20 15:57
@ Krypton

Du machst es Dir hier wie viele andere viel zu einfach.
Ein Ipad ist auch nichts anderes als eine Konsole getrimmt um die Apps laufen zu lassen die im Store optimiert sind. Deine beschriebenen Anwendungen wie Photoshop oder Finalcut..bieten nämlich NICHT den gleichen Funktionsumfang an wie eine Desktop Maschine. Ich will es nicht mit "lite Version" ausdrücken aber man sollte schon auf dem Boden der Tatsachen bleiben und nicht schreien, dass das Ipad alles aber viel besser kann.


"«Neural Engine», den «Bionic» Teil eingebaut, der KI, Matzitzenberechnungen und andere Dinge. Auch wurden frühzeitig Hardware En- und Decoder, etwa für H264, H265 oder HEIC eingebaut

Ich hatte doch extra geschrieben das ARM nur drei ISA hat und für unterschiedliche Zwecke auch designed wurden. ARM SoC hat den auch RAM integriert ( RAM Sandwich ). Darum ist hier auch die Performance besser wenn die App optimiert ist. ARM wurde für low-power devices entwickelt und darum auch der Haupteinsatz im Mobilen Bereich. Wenn dein Ipad / Phone alles in Software berechnen müsste wäre der Akku auch fix leer. ARM ist ja durch RISC auf solche Dinge angewiesen ! Übrigens bietet Intel das ganze mit Quick Sync auch schon lange an und ist verdammt schnell...Ich bin zu faul zum suchen aber es gab eine Apple Seite welche unabhängige Performance Tests samt Statistik schrieb im Zusammenhang von QuickSync & Apples T Chip etc. Ich glaub appleinsider oder 9to5?

Wie man hoffentlich weiß ist bei Apple nahezu alles Closed Source. Sei es IOS, OSX, APIs usw.
IOS läuft nativ auf den Iphones und so designed das die hardware decode engine nahezu alles in Hardware dekodiert. Da Toolbox auch Apples geheimes Heiligtum ist, weiß man nicht was die Software so alles macht.
Ein Iphone mit einem PC zu vergleichen der 1080p abspielt ist wie ein Vergleich eines F1 Wagen der nur getrimmt auf Speed ist mit kleinem Motorblock ( Iphone ) und Notebook welches ein "Wohnmobil" darstellt und alles bietet gegen Kompromisse. Dein Iphone ist auch nur so "gut?" weil es ein tiny Display zur Ausgabe hat. Videos werden hier entweder up oder down scaled auf kleinem Raum. Bei dem Notebook ist es nicht so da es ein großes Display hat und auch die Hardware - Beschaffenheit ganz anders ist.
Hier ist auch der Leistungsaufwand unter anderem durch ein größeres Display höher.


Die Entwicklung von Funktionen wie du sie beschreibst hängt von sehr vielen Faktoren ab. Deine Hardware Beschleunigung gab es außerdem schon in den 90er Jahren und weit vor der Apple Zeit. Wenn Scotties Warp Antrieb fertig ist gebe ich Dir bescheid, dass wir bestimmte Funktionen in den Warp-Kern offloaden können um noch mehr Hardware Beschleunigung nutzen zu können.


Nicht böse sein aber dein Bereich mit den Statistiken brachte mich fast zum weinen
Deine Statistik Seite holt sich seine Infos durch Header Informationen. Jeder der etwas technisches Wissen hat kann das ändern und somit die Statistik ab absurdum führen.


Nachtrag an die Apple "Experten" hier welche gerne das Argument in den Mund nehmen, dass ARM kühl bleibt und x86 so heiß wie die Sonne.

Fewer instructions less overhead for issuing and executing them less power
Faster code run less time less power
SIMD takes more power to execute more power

Der A64FX rennt nämlich nur unter starkem cooling und würde sonst auch schmelzen da es nur SVE nutzt...


So. Für heute genug geschrieben. Ich hole mir erst einmal einen Tee und schaue mir die harten Kritiken und daumen Runter dann die Tage an.
-1
Krypton21.08.20 16:45
@ Swenster
Nur ein paar Dinge zur Erläuterung meiner Sichtweise, die ich in deinem Kommentar nicht wiedergefunden habe:

Mit den Apps von Photoshop, Maxxon, FinalCut meinte ich nicht die «mini» Versionen, sondern die dicken, welche Apple auf dem DevKit in der Präsentation laufen lies. Diese mussten sich schon auf einem A12Z nicht hinter den Intel Maschinen verstecken. Die anderen Benchmarks sind nach Auslieferung des DevKits im Web aufgetaucht. Der A12 leistet durchaus was brauchbares und ist beiweitem nicht so abgeschlagen wie du das hier darstellst.

Was Intels QuickSync konnte oder nicht, war für viele Mac-Anwender nicht sonderlich von Bedeutung, da es erst spät unterstütz wurde. Wie gesagt, liefen und rennen Videos auf den Axx Geräten deutlich früher als auf Intel/AMD. Wichtig ist, was beim Kunden ankommt und da war diverse Unterstützung auf Apple-eigener Hardware bisher immer 2-3 Jahre früher dran. Als Nutzer merkt man das sehr wohl.

Auch die Grafikausgabe kann ich hier nicht nachvollziehen. Ich verwende iPads seit dem ersten Modell. Die größeren Screens (etwa das Pro 12,9") hat mit 2732 x 2048 und 120 Hz Display mehr Auflösung und die doppelte Wiederholrate eines MacBook 13" (geiche Größe - aber nur 2560 x 1600 px). Von Winz-Displays oder nicht notwendiger Skalierung kann hier keine Rede sein. Genau das Gegenteil ist der Fall. Die Auflösung ist dann auch nur knapp unter dem 16er, die Wiederholrate immer noch doppelt so hoch. Das Ding schiebt das 2,5-Fache an Grafik-Output raus ohne mit der Wimper zu zucken. Ebenso hab’ ich die iPads schon oft an externe Full HD Screens gestöpselt, auch hier kein Problem mit dem Scaling o.ä.

Ob du nun alle Statistiken für umme erklärst, weil sie theoretisch gefälscht sein könnten (es gibt ja Milliarden an Usern, die ständig ihre Browser-Header faken) überlasse ich deinem Weltbild. Wenn du damit glücklich wirst - bitte.

Es sind ja auch nur noch ein paar Monate – dann wissen wir mehr.
Denkst du wirklich, Apple – das börstentechnisch wertvollste Unternehmen der Welt – zieht den ganzen Wechsel-Zirkus nur auf, um sich nachher mit schlechterer Performance in die Nesseln zu setzen? Ich vermute einfach mal das Gegenteil. Die werden sich das gut überlegt haben.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.