Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

ARM-Macs mit Intel-Performance sind schon heute möglich, sagt Jean-Louis Gassée

In Sachen Performance stehen ARM-Prozessoren der x86-Konkurrenz von Intel oder AMD in nichts mehr nach. Zu dieser Einschätzung kommt nun auch Jean-Louis Gassée. Der frühere Chef von Apples Entwicklungsabteilung und Gründer von Be Incorporated, dem Hersteller von BeOS, hält daher Apples Umstieg auf hauseigene Chips für mehr als wahrscheinlich. Allerdings stelle der Wechsel Apple vor einige Herausforderungen.


Überlegene Performance und Energieeffizienz
Der 75-Jährige beschäftigt sich schon seit längerem mit Apples Umstieg auf ARM-Prozessoren. Im jüngsten Beitrag auf seinem Blog bei Monday Note zeigt er sich davon überzeugt, dass moderne High-End-ARM-Chips sowohl hinsichtlich der Performance als auch der Energieeffizienz den Intel-Prozessoren zumindest ebenbürtig, wenn nicht sogar überlegen sind. Als Beispiel nennt er CPUs des 2017 gegründeten Herstellers Ampere Computing. Diese stünden in direkter Konkurrenz zu Intels XEON-Chips, verbrauchten aber bei gleicher Leistung lediglich 210 statt rund 400 Watt. Die Prozessoren von Ampere Computing kommen in Servern zum Einsatz, die Praxis zeige, so Gassée, dass sie über ausreichend Leistung verfügen, um selbst einen Mac Pro anzutreiben.

Umstieg nicht auf einen Schlag
Aus rein technischer Sicht spricht Gassée zufolge also nichts gegen einen schnellen Umstieg von Intel auf ARM. Allerdings sei das leichter gesagt als getan, schreibt er. Der Wechsel der Architektur kann seiner Ansicht nach nicht bei allen Mac-Modellen auf einen Schlag geschehen, sondern nach und nach erfolgen. Apple müsste in diesem Fall also zwei Versionen von macOS pflegen, es sei fraglich, wie die Kunden darauf reagierten. Darüber hinaus stellt sich laut Gassée insbesondere bei einem zukünftigen Mac Pro die Frage nach der Wirtschaftlichkeit. Die Entwicklung und Herstellung von High-End-ARM-Prozessoren in den für die Workstation benötigten Stückzahlen sei teuer. Da Intel auch andere Computerhersteller mit den hauseigenen Prozessoren beliefere, könnten sich hier Kostenvorteile für Apple ergeben. Letztlich komme es aber darauf an, ob man in Cupertino bereit sei, für eine gewisse Zeit Umsatzeinbußen und höhere Kosten in Kauf zu nehmen, um auch bei Prozessoren autark zu werden. Sicher sei nur eins: "Irgendwann werden alle Macs von ARM-Chips angetrieben", so Gassée.

Kommentare

Cliff the DAU
Cliff the DAU09.03.20 10:23
Starke ARM-Prozessoren für den Mac Pro? Wieviel Stück pro Monat werden da benötigt - 1000 oder 5000?
„Es gibt keine Nationalstaaten mehr. Es gibt nur noch die Menschheit und ihre Kolonien im Weltraum.“
0
LoCal
LoCal09.03.20 10:40
Cliff the DAU
Starke ARM-Prozessoren für den Mac Pro? Wieviel Stück pro Monat werden da benötigt - 1000 oder 5000?

Wenn man den ARM-MacPro aber wieder für ein grösseres Nutzerfeld bezahlbar macht, z.B. Entwickler, Pixelschubser, dann wird auch die Anzahl der Prozessoren benötigten Prozessoren höher.
Wenn man dann noch, dieses Prozessoren auch in den bestausgestatteten iMacs und ggf. auch MacBook Pros verbaut, dann wir die Anzahl der benötigten CPUs noch mal höher.
Der Top-MacPro könnte z.B. 4 oder gar 8 ARM-CPUs haben,
die Entwickler-MacPros 1 - 2 CPUs und die iMacs 1 CPU.
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
0
DogsChief
DogsChief09.03.20 10:41
Zum Einen gilt hier das Moore`sche Gesetz. Alle 24 Monate kleiner bei exponentiell wachsender Leistung.

Zum Anderen reden wir in einem Mac Pro/iMac/MacBook von einem aktiv gekühlten System. Da weder im iPhone noch im iPad ein Kühlerventilator seinen Dienst tut, ist deren Leistung eingeschränkter als in einem Mac.

Ich will die Techniker in Cupertino nicht in den Himmel heben, aber ich bin mir sehr sicher, dass die schon an einem ARM-basierten macOS parallel arbeiten ( wie anno 2000 bis 2006 Intel und IBM ) und ich bin mir ebenso sicher, dass die wissen, was sie tun.
Die 2 wichtigsten Tage im Leben eines Menschen: 1. Der Tag an dem man geboren wird und 2. der Tag, an dem man herausfindet, warum... (Mark Twain)
+5
mikeboss
mikeboss09.03.20 10:46
developer werden nach der WWDC 2020 die betaversion vom nachfolger von macOS Catalina auf dem neuen Apple TV oder iPad Pro installieren koennen.
-1
LoCal
LoCal09.03.20 10:51
DogsChief
Zum Einen gilt hier das Moore`sche Gesetz. Alle 24 Monate kleiner bei exponentiell wachsender Leistung.
Von nicht wenigen wir Moore's Law schon heute als obsolet betrachtet, ab 2025 sieht das sogar Gordon Moore selbst so ()
DogsChief
Ich will die Techniker in Cupertino nicht in den Himmel heben, aber ich bin mir sehr sicher, dass die schon an einem ARM-basierten macOS parallel arbeiten ( wie anno 2000 bis 2006 Intel und IBM ) und ich bin mir ebenso sicher, dass die wissen, was sie tun.

Das grundliegende System (Darwin) läuft schon längst auf ARM, wie sollte es sonst iOS, iPadOS, watchOS und tvOS geben?
Die Teile, die noch macOS eigen sind, kompilieren auch ganz sicher schon unter ARM.
Und dann sollte man sich der Historie von macOS bewusst sein, die lag die Mulitplattformfähigkeit schon mit in der Wiege.

Die User werden die CPU-Architektur mit der wir gerade Arbeiten kaum bemerken, entweder bekommen wir wieder Fat-Binaries oder Apple nutzt sein bitcode und appthining so gut aus, dass nur die plattformspezifische Version ausgeliefert wird … und das kann dann sogar rückwirkend funktionieren.
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
+1
bit.trash
bit.trash09.03.20 11:04
Das ist Äpfel mit Birnen zu vergleichen.
Die kleinen Arm sind Effizienter, da sie vergleichsweise kastriert wurden.
1:1 könnte man die auch nicht übernehmen, die bräuchten viel fettere Speichercontroller, ob eine CPU nur 4 GB Ram oder 512 GB Ram saturieren kann ist ein Unterschied. PCIe Bus von CPU zu GPU und anderen Karten… etc…
Die Zen2 laufen jetzt schon mit nur 2Watt / Core, die Zen2 R4000 vermutlich noch drunter bei voller Leistung, bei leichter Last noch weit unter dem. Ein Aufgestockter ARM wird da nicht unbedingt besser sein.

Richtig Effizient wird es, wenn man bestimmte Funktionen in Hardware laufen lässt und nicht anderes (ineffizientes) zulässt, da macht iOS.
Geht aber genauso mit x86, insbesondere mit APUs die immer mehr in Hardware können.
+3
LoCal
LoCal09.03.20 11:19
bit.trash
Das ist Äpfel mit Birnen zu vergleichen.
Die kleinen Arm sind Effizienter, da sie vergleichsweise kastriert wurden.
1:1 könnte man die auch nicht übernehmen, die bräuchten viel fettere Speichercontroller, ob eine CPU nur 4 GB Ram oder 512 GB Ram saturieren kann ist ein Unterschied. PCIe Bus von CPU zu GPU und anderen Karten… etc…

Schau doch bitte erstmal hier:
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
-1
DogsChief
DogsChief09.03.20 11:29
LoCal

Ich bin ganz deiner Meinung. SJ hat bei der Vorstellung des Ur-iPhone ja darauf hingewiesen, dass OS X die Basis für iPhone OS sei.

Ob Moores Gesetz in 5 Jahren obsolet ist oder nicht, wird die Zeit zeigen. Ich bin fest davon überzeugt, dass die Entwicklung weiter in der Richtung verläuft. Verkleinerung der Prozessoren bei wachsender Rechenleistung. Und irgendwann geht es dann auch weg von Einsen und Nullen zum Quantencomputer.
Die 2 wichtigsten Tage im Leben eines Menschen: 1. Der Tag an dem man geboren wird und 2. der Tag, an dem man herausfindet, warum... (Mark Twain)
-1
LoCal
LoCal09.03.20 11:39
DogsChief
Ob Moores Gesetz in 5 Jahren obsolet ist oder nicht, wird die Zeit zeigen. Ich bin fest davon überzeugt, dass die Entwicklung weiter in der Richtung verläuft. Verkleinerung der Prozessoren bei wachsender Rechenleistung. Und irgendwann geht es dann auch weg von Einsen und Nullen zum Quantencomputer.

Das Mooresche Gesetz besagt aber nicht, dass Prozessoren kleiner werden, sondern dass sich die Zahl der Transistoren pro Prozessor in einem bestimmten Zeitraum immer wieder erhöht.
wikipedia
Das mooresche Gesetz (englisch moore’s law; deutsch „Gesetz“ im Sinne von „Gesetzmäßigkeit“) besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt; je nach Quelle werden 12, 18[1] oder 24 Monate als Zeitraum genannt.[2]

Unter Komplexität verstand Gordon Moore, der das Gesetz 1965 formulierte, die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis. Gelegentlich ist auch von einer Verdoppelung der Integrationsdichte die Rede, also der Anzahl an Transistoren pro Flächeneinheit.


Aber genau da stossen wir an die Grenzen und nicht umsonst geht der Trend seit Jahren zu Mulitkern CPUs, denn nur so sind noch wirklich Leistungszeigerungen pro CPU möglich.
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
+1
Mostindianer09.03.20 11:49
Er vergisst etwas. Der Mac Pro gilt auch und wird auch als Server vermarktet, siehe Rackmount-Kit. Früher war dies nicht so, Da hatte Apple auch Xserver im Angebot. Daher, der Mac Pro kann als Stand-alone-Workstation sowie im Data Center betrieben werden. Daher wären die Stückzahlen an CPUs im Rahmen des möglichen.
-2
RyanTedder09.03.20 12:24
Der Ampere Altra scheint sich auf dem Papier erstmal gut anzuhören. Was ich mich jedoch Frage, wie gut wäre den ein Intel Xenon mit 80 Kernen und in 7nm gefertigt? Aktuell liegt hier Intel noch bei 14nm? Solange es hierzu keinen Vergleich gibt, ist das tatsächlich ein Vergleich zwischen Äpfel und Birnen.

Dennoch glaube ich das ARM das Niveau von Intel und AMD erreicht hat. Aber ist ARM besser? Das ist ja die eigentliche Frage.
+1
piik
piik09.03.20 14:25
Bekanntlich hat er ja viel Ahnung von moderner Chip-Hardware, nichtwahr?
-1
sierkb09.03.20 14:30
piik
Bekanntlich hat er ja viel Ahnung von moderner Chip-Hardware, nichtwahr?

Mehr, deutlich mehr, als Du und ich und wir alle hier zusammen.
-2
piik
piik09.03.20 14:36
LoCal
DogsChief
Ob Moores Gesetz in 5 Jahren obsolet ist oder nicht, wird die Zeit zeigen. Ich bin fest davon überzeugt, dass die Entwicklung weiter in der Richtung verläuft. Verkleinerung der Prozessoren bei wachsender Rechenleistung. Und irgendwann geht es dann auch weg von Einsen und Nullen zum Quantencomputer.

Das Mooresche Gesetz besagt aber nicht, dass Prozessoren kleiner werden, sondern dass sich die Zahl der Transistoren pro Prozessor in einem bestimmten Zeitraum immer wieder erhöht.
wikipedia
Das mooresche Gesetz (englisch moore’s law; deutsch „Gesetz“ im Sinne von „Gesetzmäßigkeit“) besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt; je nach Quelle werden 12, 18[1] oder 24 Monate als Zeitraum genannt.[2]

Unter Komplexität verstand Gordon Moore, der das Gesetz 1965 formulierte, die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis. Gelegentlich ist auch von einer Verdoppelung der Integrationsdichte die Rede, also der Anzahl an Transistoren pro Flächeneinheit.


Aber genau da stossen wir an die Grenzen und nicht umsonst geht der Trend seit Jahren zu Mulitkern CPUs, denn nur so sind noch wirklich Leistungszeigerungen pro CPU möglich.
Das war wieder ein Paradebeispiel von exzellentem Halbwissen.
Tatsächlich ist Moore von einer Verdoppelung der Transistoranzahl (nach anfängliche zu großem Optimismus) alle zwei Jahre ausgegangen.
Und genau das machte ja bislang die Steigerung der Core-Zahl pro CPU möglich.
Dass die Leistung pro Core kaum noch gesteigert werden kann, das liegt an anderen physikalischen Problemen, welche den maximalen Takt seit einigen Jahren bei rund 4GHz stagnieren lassen, trotz reduzierter Strukturbreite.
Richtig ist, dass es langsam schwierig wird, die Strukturbreite weiter zu senken. Bei Flash z.B. geht man in die dritte Dimension und macht einfach viele Schichten übereinander (zur Zeit bis zu 96), was aber nur bei so simplen, regelmäßigen Designs wie Speicher geht, die zudem keine so extrem hohe Wärmeabgabe haben.
AMD begegnet diesem Problem übrigens durch Fertigung kleiner Chiplets, die dann auf einem Träger zu einer Multi-Core-CPU verdrahtet werden. Damit kann die Core-Zahl und damit die absolute Transistorzahl weiter gesteigert werden, ohne kleinere Strukturen und selbst wenn, dann mit immer noch guter Ausbeute, da ein Chiplet deutlich kleiner ist.
Alles Tricks, um mehr Leistung in eine CPU zu pressen. Moores Law ist letzlich am Ende angelangt. Dass es über 50 Jahre gehalten hat ist bei so einer krassen e-Funktion schon ein Hammer an sich. In Zukunft wird es daher immer noch kaum nennenswerte Steigerungen der Leistung pro Core geben, dafür aber CPUs mit irrsinnig vielen Cores.
Und der 14n-Prozess von Intel lässt sich nicht mit dem 7nm-Prozess von AMD und sonstigen Fertigern von ARM-CPUs vergleichen.
+1
piik
piik09.03.20 14:37
sierkb
piik
Bekanntlich hat er ja viel Ahnung von moderner Chip-Hardware, nichtwahr?

Mehr, deutlich mehr, als Du und ich und wir alle hier zusammen.
Na Du wirst es ja wissen...
+1
sierkb09.03.20 14:37
RyanTedder
Aber ist ARM besser? Das ist ja die eigentliche Frage.

In puncto Leistungsaufnahme/Stromverbrauch und Wärmeabgabe (Stichwort: Kühlung!) auf jeden Fall. Was Jean-Louis Gassée ebenfalls nennt – ein nicht zu unterschätzender Faktor. Und in puncto Leistungsfähigkeit in einigen Bereichen offenbar ebbenbürtig mit Intels Xeon-Prozessoren.

Und was Apple gerade erschienenen MacPro angeht: wie wäre es, wenn man sich den mit einem oder mehreren AMD-Prozessoren vorstellt statt mit einem oder mehreren von Intel? Und dann später erst, als letzten der Reihe, irgendwann mit einem/mehreren ARM-Prozessoren?
+1
sierkb09.03.20 14:41
piik
sierkb
piik
Bekanntlich hat er ja viel Ahnung von moderner Chip-Hardware, nichtwahr?

Mehr, deutlich mehr, als Du und ich und wir alle hier zusammen.
Na Du wirst es ja wissen...

Das sagt auch Dein gesunder Menschenverstand und Dein Wissen, dass dieser Mensch mehr im Kopf hat als Du und ich und wir alle zusammen. Dazu braucht man nicht viel Phantasie, um das zugrundezulegen, dazu muss man nur ein wenig von dem wissen, wer er ist, wer er war, was er gemacht hat und macht und das anerkennen statt es und was er sagt besserwisserisch, von oben herab und spöttelnd infrage zu stellen und Zweifel zu streuen, er wisse nicht ganz genau, was er sage. Du und ich, wir alle zusammen, sind ein relatives Nichts dagegen, was unser Wissen, unsere Expertise gegen das Seine auf diesen Gebieten, zu denen er sich äußert, angeht.
+5
LoCal
LoCal09.03.20 14:46
sierkb
Das sagt auch Dein gesunder Menschenverstand und Dein Wissen, dass dieser Mensch mehr im Kopf hat als Du und ich und wir alle zusammen. Dazu braucht man nicht viel Phantasie, um das zugrundezulegen, dazu muss man nur ein wenig von dem wissen, wer er ist, wer er war, was er gemacht hat und macht und das anerkennen statt es und was er sagt infrage zu stellen. Du und ich, wir alle zusammen, sind ein relatives Nichts dagegen, was unser Wissen, unsere Expertise gegen das Seine auf diesen Gebieten angeht.

Daumen hoch …
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
-1
Maniacintosh
Maniacintosh09.03.20 15:40
ARM-Macs werden genau dann interessant wenn sie x86-Code emuliert schneller ausführen können als ein Mac mit x86-Prozessor. Und es auch für Windows/x86 einen Emulator, wie früher VirtualPC zu PPC-Zeiten gibt.

Die Software, die ich verwende liegt nun mal für x86 vor und teilweise auch leider nur für Windows. Dank VMware aktuell kein Problem, mir ist wichtig, dass das auch weiterhin funktioniert!
+4
sierkb09.03.20 16:01
Maniacintosh
ARM-Macs werden genau dann interessant wenn sie x86-Code emuliert schneller ausführen können als ein Mac mit x86-Prozessor.

Inwieweit kann eine Emulation technisch gesehen schneller sein als eine Nicht-Emulation? Gleich schnell ja mit einigen Tricks und Kniffen – aber sogar schneller als der zu emulierende Prozessor nativ?

Transmeta hatte das ja mal gemacht – eine Hardware-Echtzeit-Emulation eines Intel x86-Prozessors im effizienten, stromsparenden Transmeta-Prozessor, hatte sich aber nicht halten/durchsetzen können am Markt.

Wikipedia (de): Transmeta
Wikipedia (de): Transmeta Crusoe
Wikipedia (de): Transmeta Efficeon

Für Apple selbst gibt es ganz sicher bereits vorher, bevor sie an die Bedarfe von uns Nutzern/Kunden denken, noch ganz andere, ihnen viel näher liegenden Gründe, die hauseigenen ARM-basierten A-Prozessoren gegenüber jenen von Fremdherstellern ins Kalkül zu ziehen oder vorzuziehen. Schon rein aus Prestige und um noch größere/größtmögliche Kontrolle über die eigene Hardware und ihre Architektur zu haben und Abhängigkeiten von Anderen und Kosten/Lizenzkosten zu minimieren und ihren Profit noch weiter zu optimieren und zu maximieren.
-1
mikeboss
mikeboss09.03.20 16:26
sierkb
Inwieweit kann eine Emulation technisch gesehen schneller sein als eine Nicht-Emulation? Gleich schnell ja mit einigen Tricks und Kniffen – aber sogar schneller als der zu emulierende Prozessor nativ?

klar geht das! die CPU, auf welcher die emulation laeuft, muss bloss schnell genug sein...
0
sierkb09.03.20 16:33
mikeboss
sierkb
Inwieweit kann eine Emulation technisch gesehen schneller sein als eine Nicht-Emulation? Gleich schnell ja mit einigen Tricks und Kniffen – aber sogar schneller als der zu emulierende Prozessor nativ?

klar geht das! die CPU, auf welcher die emulation laeuft, muss bloss schnell genug sein...

Na, ich glaube, sooo einfach und selbstverständlich ist es nicht – auch heutzutage nicht, das ist schon etwas anspruchsvoller und komplizierter als einfach nur zu sagen "muss bloss schnell genug sein...". Dieses "bloß" bzw. dieses "bloß schnell genug" ist auch heute noch leichter ausgesprochen als umgesetzt bzw. die Umsetzung nicht trivial und durchaus anspruchsvoll und nicht ohne Seiteneffekte (Stichworte: Stromaufnahme, Abwärme, Kühlung/Kühlaufwand zum Beispiel).

Auch hätte zum Beispiel Transmeta dann ja null Probleme haben müssen (hatten sie aber) an dieser Front, sie hätten ihre Crusoe- und Efficeon-Prozessoren "bloß" schneller takten müssen (zulasten dann aber z.B. der Stromaufnahme und Kühlung, und genau das galt es zu vermeiden)…
0
mikeboss
mikeboss09.03.20 16:43
ich gehe auch nicht davon aus, dass die intel-emulation auf Apples ARM CPUs schneller laufen wird als echte intel CPUs. meine aussage war allgemein gehalten und theoretischer natur. wenn man auf einem aktuellen rechner einen 68000er emuliert, laeuft der ja auch absurd schnell. ich wollte bloss gesagt haben, dass es denkbar ist wenn die den emulator ausfuehrende CPU schnell genug ist bzw waere.
0
sierkb09.03.20 16:48
mikeboss:

Wir leben inzwischen in anderen Zeiten. "Viel hilft viel" bzw. einfach immer nur noch Power obendrauf knallen, um das was in der Theorie schön klingt und theoretisch machbar scheint, man muss nur genügend dicke Hardware und Power bereitstellen, umzusetzen, ist heutzutage nicht mehr angesagt und nicht der richtige Weg.
Erst recht nicht in Zeiten von Klimawandel und CO2-Abdruck bzw. was so ein Rechen-Bolide da an Strom verbraucht, Kühlung benötigt und das alles bereitgestellt sein muss und natürlich auch Kosten verursacht. Rechenzentren denken da schon längst anders und um. Für die sind das teilweise immense Kosten, was die Leistungsaufnahmen, Abwärmen, notwendigen Kühlungen und die dazu notwendigen Platzbedarfe und Ressourcen angeht.

Und im Kleinen, bzgl. der Geräte des Normalanwenders und den dort verwendeten Formfaktoren ist es im Prinzip nicht anders, ja sogar erst recht so und noch zugespitzter. Dort sogar noch unter dem zusätzlichen Gesichtspunkt: das Gerät soll klein, kompakt und leicht sein, möglichst ganz ohne Kühlung auskommen.
0
Michael Lang09.03.20 17:14
RyanTedder
.....
Dennoch glaube ich das ARM das Niveau von Intel und AMD erreicht hat. Aber ist ARM besser? Das ist ja die eigentliche Frage.

Ich glaube das ist nicht wirklich die Frage für Apple, ob ARM besser (im Sinne von Performanter) ist. Es geht um die Kontrolle der Hardware und die mögliche Ausnutzung bzw. bessere Verzahnung von Soft- und Hardware.
Apple kann da einige Zusatzfun Kationen in Hardware unterbringen oder auch die GPU besser anbinden oder, oder, oder...

Natürlich muß man in Punkto Performance und Energieeffizienz mit Intel/AMD mithalten können, aber ich denke das wird -wie die Experten bestätigen - wohl schon gehen.
Aber die Unabhängigkeit von Intel, von deren Produktzyklen und der Kontrolle der Hardware wie Software liegt der eigentliche Clou. Und daher wird Apple das machen. Fragt sich nur in welchem Zeithorizont.
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
+2
sierkb09.03.20 18:04
Michael Lang
Ryan Tedder
.....
Dennoch glaube ich das ARM das Niveau von Intel und AMD erreicht hat. Aber ist ARM besser? Das ist ja die eigentliche Frage.

[…]
Natürlich muß man in Punkto Performance und Energieeffizienz mit Intel/AMD mithalten können, aber ich denke das wird -wie die Experten bestätigen - wohl schon gehen.
[…]
Jean-Louis Gassée
[…]
For a roughly equivalent amount of computing power, ARM chips need (and dissipate) 40% to 60% less electric power. This is especially nice for laptops. And, as we’ll see when discussing Ampere ARM chips, a relief from the voracious power consumption of cloud servers.
[…]
-1
Maniacintosh
Maniacintosh09.03.20 18:10
Letztlich wollte ich mit meinem Post auch nur ausdrücken, dass ein ARM-Mac nur die halbe Miete ist: Es braucht auch die passende Software. Und leider bedeutet das eben häufig x86-64. Gerade wenn Windows (und sei es nur in Parellels oder VMware) ins Spiel kommt.

Ja MS entwickelt auch ein Windows/ARM, aber das ist eben nutzlos, wenn die Software nur für Windows/x86(-64) vorliegt. Darum halte ich einen Switch für gefährlich, Catalina hat ja schon gezeigt, dass viele kleine Helfer leider nicht mehr wirklich gepflegt werden. Ich bin aus diversen Gründen noch mit 10.13 unterwegs, eine zusätzliche Hardware-Umstellung macht die Mac-Nutzung in Zukunft nicht einfacher... Ganz im Gegenteil. Ich glaube, dass die Möglichkeit Windows/x86-Software auf dem Mac ausführen zu können einer der Bausteine für den Erfolg des Mac ist. Egal ob Windows, Unix oder eben macOS, läuft alles und mit Vortulisation eben auch parallel ohne Reboot...
+1
sierkb09.03.20 18:20
Maniacintosh
Ja MS entwickelt auch ein Windows/ARM

Das entwickeln sie nicht erst, das ist schon längst da, im Einsatz und wird zusammen mit ARM-basierten Laptops verkauft, u.a. von Microsoft selber.
aber das ist eben nutzlos

Nutzlos ist höchstens die Augen vor der schon längst stattfindenden Entwicklung zu verschließen und bestimmte Dinge nicht wahrhaben, nicht sehen zu wollen statt sie langsam mal als Fakt zu akzeptieren, dass diese Dinge schon längst da und im Gange sind, unter uns sind und es überhaupt nicht danach aussieht, dass sich dieser Trend, diese Entwicklung insgesamt in der IT-Industrie umkehrt oder abschwächt – bzgl. Letzterem sogar eher ganz im Gegenteil.
Microsoft hat nicht ohne Grund mit Google zusammengearbeitet, Chromium bzw. den Chrome-Browser auf Windows for ARM zu portieren. Microsoft hat unter Windows for ARM noch Einiges vor.
Ich glaube, dass die Möglichkeit Windows/x86-Software auf dem Mac ausführen zu können einer der Bausteine für den Erfolg des Mac ist. Egal ob Windows, Unix oder eben macOS, läuft alles und mit Vortulisation eben auch parallel ohne Reboot...

Gerade Unix, gerade Linux sind ein Beispiel dafür, dass sie nicht an eine bestimmte Plattform/Architektur gebunden sind. Es gibt so gut wie keine Plattform/Architektur, auf die sie nicht portiert worden sind und nicht laufen, erst recht Linux betreffend. Linux auf ARM? Findet schon längst statt und das in nicht kleiner Anzahl. Linux-Distributionen für die ARM-Architektur? Gibt's schon längst und lange, so gut wie kein Distributor hat sie nicht im Angebot – seit Jahren.

Und Apples Cocoa ist ebenfalls ein Musterbeispiel für cross-plattform und Prozessor-Architektur-Unabhängigkeit, das ist unter solchen Gesichtspunkten von Grund auf designt, cross-plattform zu sein, nicht an irgendeinen Prozessor oder Hardware gebunden zu sein, und in früherer Zeit gab es das sogar auch aucch unterschiedlichen Prozessor- und Rechner- und Betriebssystemarchitekturen, sogar für Windows.
+1
ratti
ratti09.03.20 18:50
Wenn Apple von „Intel kompatibel“ weggeht, gehe ich von Apple weg.
So sicher wie das Amen in der Kirche.

Ich war so froh, dass Apple aus seiner PPC-Nische rausgekommen ist, da will ich nie wieder hin. Mir ist egal, ob es irgendwelche esoterischen Serversysteme, Handys oder Windows-Varianten dafür gibt. Ich will gekaufte und bezahlte Software weiter nutzen. Ich will Binärblobs wie z.B. closed source libraries für Webserver weiterhin runterladen und einbinden können. Ich will mein gekauftes Windows mit der darin installierten Software weiter nutzen. Ich will nix emuliert haben.

Mir ist egal, welche CPU in dem Rechner drin ist, solange es die ist, die alle anderen am Markt befindlichen Desktopsystem auch nutzen. Das ist ein absolutes Killerkriterium, Ende der Durchsage.
+2
sierkb09.03.20 19:09
ratti:

Ist Apple dafür bekannt dafür, auf Belange seiner Nutzer Rücksicht zu nehmen und die ins Zentrum ihres Handelns und ihrer strategischen Entscheidungen zu rücken? Hat Apple jemals seine Nutzer gefragt, was die wollen? Eher weniger bis nein. Zuerst einmal denkt Apple an Apple und ob etwas für sie Vorteile hat und sich rechnet. Und dann kommt alles Andere. Die ziehen ihr Ding durch. Keine Rücksicht, keine Gefangenen. "My way or the highway." Wenn es für Apple Sinn ergibt und sich rechnet, werden sie es tun. Es ergäbe absolut Sinn und ist/wäre nur folgerichtig. wenn man sich mal in Apples Situation/Position hineinversetzt, genau diesen Weg zu gehen bzw. ihn weiter zu gehen. Ob mir und Dir dieser Weg gefällt, ist irrelevant, das interessiert Apple nicht die Bohne.

Es ist bei alledem, wie wir Apple seit Jahren und Jahrzehnten kennen, illusorisch, etwas Anderes anzunehmen oder zu hoffen. An anderer Stelle und bei anderen Gelegenheiten wird genau das im Apple Nutzer-Lager immer gefeiert und ihnen zugute gehalten, dass sie so rigoros und oft eigenbrödlerisch sind, und man ist stolz auf Apples A-Prozessoren (die ja was können und sehr gut sind). Und jetzt auf einmal wäre es das große Problem? Warum?
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.