Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

A12x-Chip: Wie man Desktop-Leistung ohne Lüfter schafft

Die Apple-Welt hat sich daran gewöhnt, dass jede neue Generation der Apple-eigenen A-Prozessoren noch einmal deutlich an Leistung hinzugewinnt. Jahr für Jahr erreicht Apple Sprünge, wie man sie bei herkömmlichen Desktop-Prozessoren nicht kennt – und das, obwohl sich die Performance seit rund drei Jahren nicht mehr vor handelsüblichen Chips verstecken muss. Der A12x aus dem iPad Pro ist da keine Ausnahme. Betrachtet man Benchmark-Tests, so schlägt das iPad Pro fast alle Macs im Sortiment. Die "Single Core"-Performance übertrifft dabei sogar den iMac Pro. Dies ist insofern außerordentlich beachtlich, ruft man sich die Wärmeentwicklung eines Desktop-Prozessors ins Gedächtnis. Ein ausführlicher Artikel von Ars Technica befasst sich mit der Frage, wie Workstation-Performance ohne Lüfter möglich ist und lässt dabei auch Phil Schiller sowie einen Chip-Spezialisten von Apple (Anand Shimpi) zu Wort kommen.


Der heilige Gral: Unified Memory
Apple setzt beim A12x jetzt bereits auf eine Architektur, die im Computerbereich als der nächste riesige Schritt gilt. Momentan arbeiten herkömmliche Computer sehr ineffizient, wenn es darum geht, auf den Speicher zuzugreifen. Die Grafikkarte hat ihren Grafikspeicher, der Prozessor hat seinen Arbeitsspeicher – und der Grafikchip auf dem Systemchip noch einmal einen reservierten Bereich im Arbeitsspeicher, der aber vom sonstigen RAM abgetrennt ist. Jeder der drei Akteure ist also darauf angewiesen, dass Inhalte von einem in den anderen Speicher übertragen werden, bevor sich darauf zugreifen lässt. In der Praxis ergeben sich daraus große Kompromisse. Oft könnte beispielsweise der Grafikchip eine bestimmte Aufgabe wesentlich schneller ausführen – da sich der extrem teure Kopiervorgang aber nicht lohnt und die Leistungsvorteile negieren würde, übernimmt die CPU stattdessen. Genau dies fällt in Apples Architektur weg. Es gibt den einen Speicher für alles – und alle Chips haben die Möglichkeit des direkten Zugriffs ohne Kopiervorgänge. Sollte auch der Mac Apples eigene Architektur erhalten, könnte Apple sofort auf "Unified Memory" umstellen – bei den aktuellen Intel-Architekturen hingegen gibt es keine Chance.

Die verschiedenen Kerne
Apple dokumentiert zwar keine Werte, Schätzungen zufolge liegt die TDP der leistungsfähigsten A-Prozessoren gerade einmal bei maximal 12 Watt. Zum Vergleich: Beim aktuellen MacBook Pro sind es 45 Watt (im normalen Betrieb, nicht Turbo Mode), im iMac Pro arbeitet ein Chip mit bis zu 140 Watt. Gerade letzteres lässt sich natürlich ohne große Lüfter nicht bewältigen. Apple setzt bei den A-Chips auf Kerne mit verschiedenen Aufgaben. Im A12x sind vier auf Performance und vier auf Effizienz getrimmte Kerne, dazu gibt es noch den Siebenkern-Grafikchip sowie die Neural Engine. Apples Ziel lautet in allen Bereichen, die bestmögliche Effizient zu erzielen. Dies kommt der Akkulaufzeit zugute, gleichzeitig reduziert sich die Wärmeentwicklung.

Performance pro Watt
Um noch einmal den Begriff aufzugreifen, mit dem vor 13 Jahren der Umstieg von PowerPC auf Intel begründet wurde: "Performance per Watt" ist bei Apples Architektur derzeit unerreicht. Die Prozessoren sind genau dafür konzipiert, wofür Apple die Chips einsetzen möchte. Es gibt nahezu keine historisch bedingten Kompromisse und Apple muss sich keine Gedanken um Kompatibilität machen. Hersteller wie Intel haben diese Möglichkeit kaum, denn ihr Geschäftsmodell muss lauten, die große Masse anzusprechen.

Ein Ausblick...
Der Weg vom ersten iPhone-Prozessor des Jahres 2007 (412 MHz, ein Kern, Referenzdesign) hin zu den aktuellen Architekturen war weit. Die Entscheidung, eigene Architekturen zu entwickeln, stellte sich aber (bislang) als goldrichtig heraus. Es gibt derzeit keinen Chip-Hersteller, der sich mit Apple ansatzweise messen lassen kann. Qualcomm ist Quasi-Monopolist auf dem Android-Markt und hatte keine Notwendigkeit, mit selbigem Nachdruck an neuen Architekturen zu arbeiten. Stattdessen konzentrierte man sich auf Konnektivität, also auf Mobilfunkchips. Es gibt zahlreiche Hinweise darauf, dass Apples A-Architektur in absehbarer Zukunft auch im Mac verstärkt zum Einsatz kommt. Jetzt bereits stattet Apple alle neuen Macs mit dem T2-Chip aus Eigenentwicklung aus – ein Wechsel von Intel auf ARM-Prozessoren gilt in der Branche ebenfalls als sehr wahrscheinlich. Angesichts sehr viel besserer Wärmeabfuhr ergeben sich für Apple ganz neue Möglichkeiten, ruft man sich die Performance in lüfterlosen Konzepten wie dem iPad Pro noch einmal in Erinnerung. Ars Technica vergisst nicht, einen wichtigen Punkt zu erwähnen: Leistungsfähige Hardware kann nur mit leistungsfähiger Software wirklich glänzen – und letztere ist derzeit auf iOS kaum vorhanden. Dies wäre sich bei einem A-basierten Mac vollständig anders...

Kommentare

nacho
nacho08.11.18 11:21
Ich frage mich wie sich der A12X bei Volllast über eine längere Zeit verhält, gibt es dazu auch schon Tests?
+1
pünktchen
pünktchen08.11.18 11:47
Anand Shimpi ist eher Journalist als Chip-Spezialist (Gründer von ). Vermutlich haben sie den eingestellt um die technischen Feinheiten laientauglich erklären zu können. Auch ihren eigenen Managern.
-1
ilig
ilig08.11.18 11:53
nacho
Im Artikel steht
Leistungsfähige Hardware kann nur mit leistungsfähiger Software wirklich glänzen – und letztere ist derzeit auf iOS kaum vorhanden.
Deshalb denke ich, dass es so einen Volllast-Test noch nicht gibt. In Apples Labors vielleicht doch.
-2
gfhfkgfhfk08.11.18 11:54
Der Abschnitt bezüglich Unified Memory ist totaler Nonsense, alle Intel CPUs mit integrierter Grafik nutzen Unified Memory. Das Problem bei Unified Memory ist, dass die Speicherbandbreite für alle hochwertigen GPUs viel zu gering ist. Auch bei vielen CPU Cores muss man zwingend auf NUMA wechseln, weil die Speicherbandbreite nicht ausreicht und die Cores verhungern, weil die Daten einfach nicht schnell genug angeliefert werden können.
-5
ronny332
ronny33208.11.18 11:58
nacho
Ich frage mich wie sich der A12X bei Volllast über eine längere Zeit verhält, gibt es dazu auch schon Tests?

12 Watt, falls das stimmt, sollten noch relativ gut über die Rückseite kühlbar sein (da haben ja viele, viele Spannungswandler/Transistoren in Netzteilen etc. mehr Verlustleistung und einen wirklich kleinen Kühler).
Hast du aber eine dicke Hülle etc. würde ich irgendwann auf Throtteln tippen. Dafür müsste man aber mal ein Bild sehen, wie und ob die Rückseite für die Kühlung überhaupt großflächig genutzt wird.
0
nacho
nacho08.11.18 12:20
ilig
nacho
Im Artikel steht
Leistungsfähige Hardware kann nur mit leistungsfähiger Software wirklich glänzen – und letztere ist derzeit auf iOS kaum vorhanden.
Deshalb denke ich, dass es so einen Volllast-Test noch nicht gibt. In Apples Labors vielleicht doch.

Für einen solchen Test könnte man ja auch eine Test App entwickeln, ausserdem gibt es sicher auch Spiele die dem Chip ordentlich Dampf machen.
+1
nacho
nacho08.11.18 12:21
ronny332
nacho
Ich frage mich wie sich der A12X bei Volllast über eine längere Zeit verhält, gibt es dazu auch schon Tests?

12 Watt, falls das stimmt, sollten noch relativ gut über die Rückseite kühlbar sein (da haben ja viele, viele Spannungswandler/Transistoren in Netzteilen etc. mehr Verlustleistung und einen wirklich kleinen Kühler).
Hast du aber eine dicke Hülle etc. würde ich irgendwann auf Throtteln tippen. Dafür müsste man aber mal ein Bild sehen, wie und ob die Rückseite für die Kühlung überhaupt großflächig genutzt wird.

Spannungswandler halten aber auch höhere Temperaturen als solch ein komplexer Chip aus.
+1
Walter Plinge08.11.18 12:50
gfhfkgfhfk
Der Abschnitt bezüglich Unified Memory ist totaler Nonsense, alle Intel CPUs mit integrierter Grafik nutzen Unified Memory. Das Problem bei Unified Memory ist, dass die Speicherbandbreite für alle hochwertigen GPUs viel zu gering ist. Auch bei vielen CPU Cores muss man zwingend auf NUMA wechseln, weil die Speicherbandbreite nicht ausreicht und die Cores verhungern, weil die Daten einfach nicht schnell genug angeliefert werden können.

Mir scheint hier herrscht einfach eine ziemlich große Verwirrung zwischen Unified Memory Architecture (das was - u.a. - Intel integrierte Grafikchips machen) und Uniform Memory Access (das genaue Gegenteil von NUMA == Non Uniform Memory Access). Letzteres wird im Artikel beschrieben, auch wenn dort von "Architektur" die Rede ist.
+2
ApfelHandy408.11.18 13:20
nacho
Ich frage mich wie sich der A12X bei Volllast über eine längere Zeit verhält, gibt es dazu auch schon Tests?

Das sollte doch relativ einfach z.B. Mit iMovie realisierbar sein, oder? 30 Minuten 4K Material in die Timeline, zwei Filter rauf und als 4K-Video rendern. Ich gehe mal schwer davon aus, dass iMovie auf sämtliche Leistungsreserven des A12X zurückgreifen kann ...

Anm.: Selbst nicht getestet, nur eine Idee ...
+2
Boney08.11.18 13:22
Mal angenommen ein Teil der MacBook-Serie würde mit diesen Prozessoren kommen. Müssten die Programme, evtl. auch as Betriebssytem dafür nicht umgeschrieben werden?

Von den Wechsel von PowerPC auf X64 war es so.
0
Walter Plinge08.11.18 13:25
Boney
Mal angenommen ein Teil der MacBook-Serie würde mit diesen Prozessoren kommen. Müssten die Programme, evtl. auch as Betriebssytem dafür nicht umgeschrieben werden?

Jein. Sie müssten zumindest neu kompiliert werden. Ob sie auch umgeschrieben werden müssen, hängt vom konkreten Programm und den verwendeten Programmierstilen (u.a. der hardwarenähe, z.B. Bytereihenfolge) ab.
0
ThorsProvoni
ThorsProvoni08.11.18 13:44
gfhfkgfhfk
Der Abschnitt bezüglich Unified Memory ist totaler Nonsense, alle Intel CPUs mit integrierter Grafik nutzen Unified Memory. [...]
Stimmt, das steht auch im Artikel von ArsTechnica so:
The A12x shares memory between the GPU and CPU, much like the Xbox One or Intel's integrated GPUs in laptops but unlike the discrete memory in gaming PCs.
Im Gegensatz zu den normalen Intel GPUs wird der A12x von der Performance her den "gaming PCs" gegenübergestellt, vermutlich um die Leistungsfähigkeit der GPU im A12x zu betonen.
Warum das nicht auch mit Intel-Architekturen möglich sein soll, kann ich nicht ganz nachvollziehen. Zumindest die auf der CES vorgestellten i5 und i7 mit AMD's Radeon RX Vega M scheinen dasselbe Konzept zu verfolgen (wer nachlesen will: .
Um die Vorteile einer solchen Architektur ausnutzen zu können, müsste Software aber bei der Intel/AMD-Kombination genau darauf angepasst werden - das halte ich für eher unwahrscheinlich. Genau das ist der Vorteil des Apple-Chips - hier gibt's nur einen einheitlichen Speicher für alles und die sich daraus ergebenen Vorteile sind immer verfügbar.
On top of that, this is the only type of memory interface that iOS knows. You don't have the problem of, well, sometimes the unified pool may be a discrete pool, sometimes it may not. iOS, our frameworks, this is all it’s ever known, and so as a result developers benefit from that. By default, this is what they're optimized for, whereas in other ecosystems you might have to worry about, well, OK, sometimes I have to treat the two things as discrete; sometimes they share.
0
sierkb08.11.18 14:05
Boney
Mal angenommen ein Teil der MacBook-Serie würde mit diesen Prozessoren kommen. Müssten die Programme, evtl. auch as Betriebssytem dafür nicht umgeschrieben werden?

Von den Wechsel von PowerPC auf X64 war es so.

Die ARM-Portierung von macOS hat Apple bereits getan, und zwar initial bereits im Jahre 2010 von einem ehemaligen Studenten Tristan Schaap als Bachelor-Arbeit mit der niederländischen Delft University of Technology in Zusammenarbeit mit Apples Platform Technologies Group, damals auf Basis von Snow Leopard, mittlerweile arbeitet Tristan Schaap bei Apple als Core OS engineer.

Siehe dazu auch:

The Register (07.02.2012): Mac OS X ARM port by Apple work experience kid revealed
Project sparks non-Intel-powered MacBook rumour fever

Und seitdem ist es annahmsweise intern immer wieder mit jedem neuen macOS-Release aktualisiert und mitgeführt worden.
Laut Aussagen v. Steve Jobs machen sie sowas (die parallele Portierung und Mitführung des eigenen Betriebssystems auf mehrere CPU-Architekturen) intern grundsätzlich und im Fall des Wechsels von PPC auf Intel hatte man das laut ihm bereits schon 5 Jahre vor öffentlicher Bekanntgabe intern fertig bzw. Jahre vorher in der Mache. Ich selbst habe Darwin x86-Intel (sprich: das eigentliche Betriebssystem, der Unix-Unterbau, der das Fundament von macOS und iOS bildet) bereits im Jahre 2000 in Form einer damals kursierenden Heft-CD auf meinem damaligen Feld-Wald-und-Wiesen-PentiumII-PC ausprobieren können, der offizielle Switch von Apple auf die Intel-Plattform erfolgte Jahre später im Jahre 2006.

Und dann gibt's da dann auch noch das bzw. das angeblich interne Apple-Projekt namens Kalamata bzw. das Projet Star, das Apple bereits aktiv testet, derlei ARM-basierte macOS-MBPs intern garantiert und dem Vernehmen nach bereits in den Händen ausgesuchter Leute sind:

ars technica (03.04.2018): Apple is actively working on Macs that replace Intel CPUs
A report says Macs with CPUs designed by Apple could arrive as early as 2020.

Und sowas wie das hier ist als Kommentar auch zu lesen (ob's wahr ist, wissen wir nicht, aber es klingt sehr plausibel, und es wäre nur folgerichtig bzw. einige Sachen daraus sind ja bereits bestätigte Tatsachen und keine theoretischen Hirngespinste mehr): .

Und der schrittweise Einstieg und Ausbau hat bereits begonnen: Apples T1- und T2-Chips in deren aktuellen Notebook- und iMac-Linien sind bereits hauseigene ARM-Chips. Die keine kleinen, keine unwichtigen Aufgaben zur Laufzeit übernehmen (z.B. Firmware-Verwaltung, TouchBar, Verschlüsselung, Dateisystem-Verschlüsselung, Strom-/Power-Management etc.). Aufgaben, die bis dahin die Intel-CPU übernahm oder sich mit anderen Bausteinen teilte.

Es gibt also nicht wenige Anzeichen und Vorbilder in Apples Historie dafür, dass Apple diesen Weg tatsächlich gehen wird und bereits eingeleitet hat, Schrittweise nach und nach ausbauen wird.

Der hier diskutierte ars technica-Artikel, der von der Leistungsfähigkeit von aktuellen ARM-Chips, insbesondere von Apple derzeitigen A12x-Chips schwärmt, unterstreicht das Potential im Grunde nur nochmal bzw. unterstreicht eine gewisse Wahrscheinlichkeitshöhe, dass Apple diesen Weg gehen wird bzw. bereits eingeschlagen hat.

Ebenso wie solch ein Bericht über die Leistungsfähigkeit der ARM-Prozessoren überhaupt und dem Beschäftigen der Industrie und Forschungseinrichtungen damit bis in den HPC-Bereich (HPC = High Performance Computing), der dieser Tage erschienen ist, da traut man dem ARM-Prozessor also so Einiges an Leistung bzw. günstigem Leistung-/Wirkungsgrad/Stromverbrauch zu und hantiert bereits damit und setzt ihn sogar an dieser Front ein statt allein nur auf Intel-Prozessoren zu setzen:

TheNextPlatform (07.11.2018): ARM is the NNSA’s New Secret Weapon
It might have been difficult to see this happening a mere few years ago, but the National Nuclear Security Administration Los Alamos and one of its key supercomputing sites are looking past Intel to Arm-based supercomputers in hopes of reaching efficiency and memory bandwidth targets needed for nuclear stockpile simulations.
+10
sierkb08.11.18 14:28
Nachtrag:

Und auch, dass Apple iOS und macOS immer mehr zusammenführt und die Frameworks und APIs einander angleicht und dass seit Mojave iOS-Apps unter macOS lauffähig gemacht sind (sicher auch, um einer Konkurrenz aus anderer Richtung – PWAs, plattform- und geräteunabhängig angelegten Progressive Web Apps – was entgegenzusetzen, um den eigenen AppStore zu retten bzw. ihm seinen exklusiven Sinn zu erhalten und die Benutzer im Apple-Ökosystem einzuhegen), ergibt vor diesem Hintergrund Sinn: erstens, um Entwickler bei der Stange zu halten und es ihnen so angenehm und so unaufwendig wie möglich zu machen, ihre Anwendungen nur noch für eine Apple-Plattform, eine Architektur schreiben zu müssen statt wie bisher für zwei (im internationalen Wettbewerb um App-schreibende Entwickler, die die Auswahl haben, für wen sie ihre Apps schreiben und Aufwand, Kosten, Mühe haben, ein sicher nicht kleines aus Apples Sicht sehr nachvolliehbares Entgegenkommen, das gegeben wird oder offenbar nötig ist, denn Entwickler für die eigene Plattform gibt es gemessen an den Konkurrenz-Plattformen weniger, deutlich weniger, in die Zukunft blickend evtl. zu wenig) – also entweder macOS und iOS bleiben getrennt, man muss aber nur noch einmal seine Apps schreiben fürs Apple-Ökosystem, und die laufen dann auf jedem Apple-Gerät, oder macOS und iOS verschmelzen zu nur noch einem OS und das womöglich geräteübergreifend auf ARM-Architektur – mit gleichem Effekt: einmal schreiben, und sie laufen auf jedem Apple-Gerät.
+5
Aulicus
Aulicus08.11.18 14:49
sierkb
Nachtrag:

– also entweder macOS und iOS bleiben getrennt, man muss aber nur noch einmal seine Apps schreiben fürs Apple-Ökosystem, und die laufen dann auf jedem Apple-Gerät, oder macOS und iOS verschmelzen zu nur noch einem OS und das womöglich geräteübergreifend auf ARM-Architektur – mit gleichem Effekt: einmal schreiben, und sie laufen auf jedem Apple-Gerät.
Ich könnte mir das in die Richtung vorstellen wie das schon heute mit den Mobilansichten von Webseiten gemacht wird...
Eine Umfangreiche Ansicht für den Rechner und eine einfachere, auf touch-Bedienung ausgelegte für Mobilgeräte.

Allerdings dann hoffentlich nicht in der Leistung beschnitten
0
pünktchen
pünktchen08.11.18 15:03
sierkb
Die ARM-Portierung von macOS hat Apple bereits getan, und zwar initial bereits im Jahre 2010 von einem ehemaligen Studenten Tristan Schaap als Bachelor-Arbeit ...

Na aber das iPhone gibt es doch schon seit 2007, da wird Apple selbst Darwin doch schon deutlich früher auf ARM portiert und dafür nicht völlig neu geschrieben haben.
0
NikNik08.11.18 15:07
ARM Mac Spekulations-Meldung #239482. Grundlage mal wieder nur Geekbench (kleiner Hint, vergleicht mal die Einzelwertungen der Tests A12X vs Intel). UMA-Design wird als neu verkauft, obwohl bei Intel und AMD schon lange im Einsatz...

... langsam wird's echt öde.
-10
gfhfkgfhfk08.11.18 15:27
Boney
Mal angenommen ein Teil der MacBook-Serie würde mit diesen Prozessoren kommen. Müssten die Programme, evtl. auch as Betriebssytem dafür nicht umgeschrieben werden?

Von den Wechsel von PowerPC auf X64 war es so.
Beim Wechsel von PowerPC auf IA32 wurde sehr viel mehr verändert als nur der Prozessor. Wenn man sich bei einem UNIX auf wenige Dinge besinnt, dann kann man recht problemlos Software so schreiben, dass sie sehr leicht portierbar – sprich man muss nur neu übersetzen.

Die zwei wichtigen Punkt sind die Byte Order (big vs. little endian) und die Größe des Adreßraums (32Bit vs. 64Bit). Natürlich darf man kein Assembler nutzen.

Da Apple mittlerweile nur noch Cocoa pflegt, gibt es faktisch keine Probleme, wenn man sich an diese beiden kleinen Einschränkungen hält.
+1
NikNik08.11.18 15:28
Walter Plinge
Mir scheint hier herrscht einfach eine ziemlich große Verwirrung zwischen Unified Memory Architecture (das was - u.a. - Intel integrierte Grafikchips machen) und Uniform Memory Access (das genaue Gegenteil von NUMA == Non Uniform Memory Access). Letzteres wird im Artikel beschrieben, auch wenn dort von "Architektur" die Rede ist.

Auch Intel erlaubt die gemeinsame Nutzung des Speichers zwischen CPU und GPU. Einfach mal in der OpenCL Doku das Kapitel zu Zero-Copy aufschlagen. Bei AMD über hUMA sowieso.
-2
Boney08.11.18 15:29
@sierkb

Sehr informativ, danke. Vermutlich wird der Schritt dann kommen, es ist wohl nur eine Frage der Zeit. Und Apple könnte durch den Wechsel den Gewinn noch weiter steigern.
+1
sierkb08.11.18 15:36
pünktchen
sierkb
Die ARM-Portierung von macOS hat Apple bereits getan, und zwar initial bereits im Jahre 2010 von einem ehemaligen Studenten Tristan Schaap als Bachelor-Arbeit ...

Na aber das iPhone gibt es doch schon seit 2007, da wird Apple selbst Darwin doch schon deutlich früher auf ARM portiert und dafür nicht völlig neu geschrieben haben.

Ja klar (aber Darwin habe ich nicht gemeint). Zumal der Vorgänger NextStep schon immer damals für mehrere CPU-Architekturen (68000, PPC, Alpha, Intel) vorhanden und gestrickt war und auch angeboten wurde, ebenso wie das heutige Cocoa, das damals schon bewusst Plattform- bzw. CPU-neutral gestaltet war (heute sehr zugeschnitten auf Intel und ARM bzw. Apples Geräte, was es OpenStep bzw. GNUStep nicht sehr erleichtert hat, da mitzuhalten, jüngste gestrige Verlautbarungen jenes Projektes sprechen jedoch davon, dass man vorhabe, sich dem aktuellen Cocoa wieder anzunähern bzw. auf Augenhöhe zu kommen, um Mac- und iOS-Apps eines Tages u.a. mithilfe des Darling-Projekts unter Linux zum Laufen zu bekommen (Darling Projekt = Darwin mit Linux-Kernel statt des XNU-Kernels).

Ich habe mit meiner Anmerkung aber nicht den Darwin-Spross iOS gemeint, der ist im Zuge des iPhones sicher bereits vor 2007 entstanden, sondern ich meine den Darwin-Spross macOS aka MacOS X, Darwin bildet in beiden Fälken ja nur das Unix- Open-Source- Fundament, iOS und macOS haben da ja noch zahlreiche proprietären Frameworks etc. draufgesetzt inclusive proprietärem Window-Server und GUI, da hat sich Apple wohl, MacOS X betreffend, um 2010 rangesetzt. Oder auch schon ansatzweise vorher, aber bzgl. 2010 ist es in Form jener genannten Bachelor-Arbeit dieses besagten Menschen öffentlich aktenkundig, dass er das erstmalig gemacht hat und auch noch Problemstellen vorhanden waren, die er aber großenteils beseitigt hat im Laufe seiner Arbeit.
+1
Whip08.11.18 15:37
Ich würde ja gern mal wissen, wie sich der A12x verhält wenn er MacOS befeuern muß, und nicht das "Spiele"-IOS?
Die Unterschiede in der Leistungsaufnahme werden sicher nicht von ungefair kommen. Oder ist hier jemand wirklich der Meinung, bei IBM waren- und bei Intel sind alle doof und nur Apple habe den heiligen Gral gefunden?!
-2
gfhfkgfhfk08.11.18 15:42
sierkb
Ja klar (aber Darwin habe ich nicht gemeint). Zumal der Vorgänger NextStep schon immer damals für mehrere CPU-Architekturen (68000, PPC, Alpha, Intel) vorhanden und gestrickt war und auch angeboten wurde,
Die Liste der unterstützen Plattformen ist falsch. NeXTSTEP 3.3 gab es für die schwarze Hardware (68k), weiße Hardware (IA32), SUN Workstations (SUN SPARC) und HP 9000 Workstations der 700 Serie (HP-PA). Intern hat NeXT an einem PowerPC sowie 88k Prototypen gearbeitet. Mit Openstep for Mach 4.0 wurde der Support für HP-PA fallen gelassen.

Ports für MIPS oder Alpha gab es nie.
sierkb
… ebenso wie das heutige Cocoa, das damals schon bewusst Plattform- bzw. CPU-neutral gestaltet war …
Was ist daran für eine UNIX API Besonderes?
0
NikNik08.11.18 15:53
Whip
Die Unterschiede in der Leistungsaufnahme werden sicher nicht von ungefair kommen.

Ein großer Faktor ist, dass sich Apple der 7nm Fertigung von TSMC bedient, während Intel noch bei 14nm hängt, da sie ihr 10nm Verfahren nicht hinbekommen haben. Das war seitens Intel natürlich so nicht geplant.

Auch AMD fertigt ihre zukünftigen CPUs (haben gerade eine 64 Kern CPU vorgestellt) im 7nm Verfahren bei TSMC, aber Apple ignoriert AMD ja leider komplett.
-1
pünktchen
pünktchen08.11.18 15:56
NikNik
ARM Mac Spekulations-Meldung #239482. Grundlage mal wieder nur Geekbench (kleiner Hint, vergleicht mal die Einzelwertungen der Tests A12X vs Intel).



Neues iPad Pro und neues MBA - vergleichbare TDP. So und welche Einzelwertungen meinst du? Ich sehe da nicht viel wo die Intel CPU besser abschneidet.

PS: Wenn ich mir genauer ansehe wo Intel besser abschneidet hab ich so ein PPC Dejavu - AltiVec rules!
0
RyanTedder08.11.18 16:06
Leistungsfähige Hardware kann nur mit leistungsfähiger Software wirklich glänzen – und letztere ist derzeit auf iOS kaum vorhanden

Alleine das bearbeiten größerer Excel Tabellen oder PDFs mit vielen Ebenen, brachten den Lüfter an meinem Macook Air schon dazu auf hochtouren zu laufen und das Gerät stark zu erhitzen. Scheinbar gelten Excel und PDF Viewer auch schon als Leistungsfähige Software 🤷‍♂️ Wärend mein PC und Mac hier extrem heiß werden und stark ruckeln, läuft auf dem iPad alles Butterweich und das Gerät wird nie warm. Generell ist mir noch nie aufgefallen das mein ipad auch nur annähernd so warm wird wie mein iphone oder Macbook. Das 12“ Macbook konnte ich teilweise nicht auf den Schoß ablegen weil es zu heiß an den Beinen wurde. Irgendwie scheint die Hitzeentwicklung und somit auch das Thema „Throttle“ auf dem iPad keine Gefahr darzustellen. Zumindest längst nicht so sehr wie bei den Intel Prozessoren.
+1
NikNik08.11.18 16:07
pünktchen
Neues iPad Pro und neues MBA - vergleichbare TDP. So und welche Einzelwertungen meinst du? Ich sehe da nicht viel wo die Intel CPU besser abschneidet.

Der Artikel redet aber nicht vom MacBook Air, sondern vom iMac Pro. Hier geht's gerade um Desktop-Vergleiche.

Das System läuft auf ähnlicher Taktrate im Single Core und bis auf ein paar weniger Rechen-Relevante Tests verliert der A12 immer. Teilweise >= 50% langsamer. Trotzdem meint Geekbench "in etwa gleich schnell".

edit: Mal ganz davon ab, dass Multicore noch ein ganzes Stück Arbeit für Apple wird.

edit2: Dass der A12 eine super Mobile CPU ist, ist klar.... aber Desktop?
0
sierkb08.11.18 16:14
gfhfkgfhfk
Die Liste der unterstützen Plattformen ist falsch. NeXTSTEP 3.3 gab es für die schwarze Hardware (68k), weiße Hardware (IA32), SUN Workstations (SUN SPARC) und HP 9000 Workstations der 700 Serie (HP-PA). Intern hat NeXT an einem PowerPC sowie 88k Prototypen gearbeitet. Mit Openstep for Mach 4.0 wurde der Support für HP-PA fallen gelassen.
Ports für MIPS oder Alpha gab es nie.

Kann sein, dass Du recht hast oder auch nicht, ich kann es grad‘ nicht verifizieren, ich bin unterwegs, tippe grad‘ mühevoll vom IPhone aus, kann grad‘ nicht alles parallel wasserfest nachschlagen und verifizieren. Im Zweifel gibt Wikipedia darüber Auskunft bzw. stellt es richtig, Stichwort NextStep, OpenStep bzw. OpenSTEP, da steht‘s alles u.a. drin, ich kann‘s grad‘ nicht nachschlagen mangels Zeit und Komfort. NextStep war ja nachher OPENSTEP bzw. die Spezifikation dazu OpenStep und in mehrere Richtungen geöffnet, mehrere Firmen waren da dran, hatten es lizenziert, mit Next da zusammengearbeitet, die OpenStep-Spezifikation offengelegt, worauf sich ja GNUStep gründet als GNU-Implementierung von OpenStep.

Ich habe das obig und jetzt ohne weitere Detail-Prüfung grad‘ aus dem Gedächtnis geschrieben, dann habe ich mich falsch erinnert, sorry. Zumal wir hier auch OpenStep mit einbeziehen sollten, da hat Next mit den genannten Unternehmen und in starker Zusammenarbeit ja gemeinsam gewirkt gehabt bzw. es gab Lizenzen. Ebenso erinnere ich mich, dass es da schon einen Port gab, um es unter Windows laufen zu haben.


sierkb
… ebenso wie das heutige Cocoa, das damals schon bewusst Plattform- bzw. CPU-neutral gestaltet war …
Was ist daran für eine UNIX API Besonderes?

Eigentlich nix. So soll es sein. Aber es gibt ja auch proprietäre Erweiterungen und Frameworks, die eben nur für eine Plattform geschrieben und optimiert sein können, und dass es sowas gibt, sehen wir u.a. daran, dass Apple seit einiger Zeit divergierende APIs und Frameworks von macOS und iOS zusammenführt und vereinheitlicht, wäre das in den Fällen nicht unterschiedlich und platformspezifisch, gäbe es da auch nix mehr zum Zusammenziehen und Angleichen bzw. vereinheitlichen für Apple, sondern dann wäre es bereits so.
+1
pünktchen
pünktchen08.11.18 16:28
NikNik
Der Artikel redet aber nicht vom MacBook Air, sondern vom iMac Pro. Hier geht's gerade um Desktop-Vergleiche.

Das System läuft auf ähnlicher Taktrate im Single Core und bis auf ein paar weniger Rechen-Relevante Tests verliert der A12 immer. Teilweise >= 50% langsamer. Trotzdem meint Geekbench "in etwa gleich schnell".

edit: Mal ganz davon ab, dass Multicore noch ein ganzes Stück Arbeit für Apple wird.

Na komm der Xeon Chip hat 18 Kerne und eine TDP von vermutlich 120W oder so. Das ist doch ein alberner Vergleich. Natürlich müsste Apple erst noch zeigen ob sie ihr Chip Design entsprechend aufblasen können und natürlich ist das nicht gesagt.

Die Single Core Performance ist doch aber tatsächlich ähnlich. Intel hat die deutlich schneller SIMD-Implementation, Apple die schnellere Speicheranbindung. Der Rest liegt nahe aneinander.

Aber deutlich interessanter finde ich tatsächlich den Vergleich mit Chips die ähnliche Designziele haben und das wäre Intel Y-Linie.
+1
NikNik08.11.18 16:34
pünktchen
Na komm der Xeon Chip hat 18 Kerne und eine TDP von vermutlich 120W oder so. Das ist doch ein alberner Vergleich. Natürlich müsste Apple erst noch zeigen ob sie ihr Chip Design entsprechend aufblasen können und natürlich ist das nicht gesagt.

Wie schon gesagt, es geht um den Desktop Vergleich und MTN erzählt was von Desktop-Performance. Dass Intel wegen der gescheiterten 10nm Fertigung im Mobil-Bereich gerade das Nachsehen hat, ist vollkommen nachvollziehbar. Man kann aber eben die >4-fache "Performance-Kerne" Anzahl bei Intels Desktop CPUs (ich hole hier nicht mal AMD hervor mit ihren 7nm CPUs nächstes Jahr) nicht einfach wegwischen. CPU Kerne klebt man nicht einfach nur zusammen.

Apple soll erst mal eine 4-5Ghz CPU zeigen, egal wie viele Kerne, dann können wir noch mal über Desktop-Performance reden.
-5
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.