Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Das MacBook Pro mit M3 Max im Test – ArsTechnica ist begeistert

Das MacBook Pro mit M1 Pro und M1 Max war ein großer Kassenschlager. Obwohl sich nicht jeder über die Designlinie begeistert zeigte, immerhin wirkte der direkte Vorgänger deutlich schlanker, gab es keinerlei Zweifel an der beeindruckenden Performance des Notebooks. Auf die M1-Geräte folgten im Januar die M2-Versionen – mit dem "Scary Fast"-Event ging Apple den nächsten Schritt und verbaut ab sofort Chips des Typs M3 Pro und M3 Max. Wie sich die aktualisierten Notebooks anfühlen und was sie leistungsmäßig auf die Beine stellen, ist aus ersten Testberichten zu entnehmen.


ArsTechnica ist von der Performance beeindruckt
Das Fachmagazin ArsTechnica zeigt sich sehr angetan vom M3 Max, denn der Chip erreiche in Geekbench fast die Leistung der stärksten Desktop-Prozessoren von Intel und AMD (AMD Ryzen 9 7950X, Intel Core i9-14900K) – das aber in einem kompakten Notebook. Während es undenkbar wäre, die genannten AMD- und Intel-Lösungen in einem so flachen Gerät unterzubringen, verrichtet der M3 Max seinen Dienst auf herausragend hohem Niveau.

Einen Unterschied gibt es aber schon, denn unter längerer Volllast muss der M3 Max seine Leistung reduzieren, was bei Desktop-PCs naturgemäß nicht erfolgt. Dies merke man beispielsweise an den hardware-intensiven Tests mit Cinebench, denn dort schlagen Ryzen 9 und Core i9 den M3 Max, wenngleich mit sehr viel höherem Stromverbrauch samt einhergehender Hitzeentwicklung. Man darf dennoch sehr gespannt sein, wie ein M3 Ultra im kommenden Jahr abschneidet, wenn dieser im Mac Studio oder Mac Pro mehr Kühlung erhält.


ArsTechnica lobt zudem die Fortschritte, welche Apple in nur zwei Jahren machte, ein M3 Max ist fast so schnell wie ein M1 Ultra. Auch das Display überzeuge, ebenso Trackpad und Tastatur. Wären da nicht die abenteuerlichen Preise für bessere Ausstattung – denn sowohl die Basisausstattung mit nur 8 GB RAM als auch die enormen Kosten für zusätzlichen Speicher trüben den Gesamteindruck dann doch.

Die Fachwelt ist sich einig
Egal ob man sich die Testberichte von ArsTechnica, Cnet oder TechCrunch zu Gemüte führt, die Schilderungen sind sehr ähnlich. Ein nicht ganz so technischer Aspekt kommt ebenfalls zur Sprache, nämlich die neue dunkle Gehäusefarbe. Wer sich Sorgen bezüglich Fingerabdrücke und Fettflecken machte, kann entspannt aufatmen – Apple versprach hinsichtlich "fingerabdruck-abweisenden" Finishs nicht zu viel, wie TechCrunch ausführlich erprobte.


Cnet fasst die Erfahrungen der ersten Woche mit den Worten zusammen, das MacBook Pro 16" sei ein fantastisches Stück Hardware, dem ein Betriebssystem auf ebenso hohem Niveau zur Seite gestellt werde – zumindest hinsichtlich der Performance. Wer nach Leistung sucht, habe die Lösung gefunden.

Kommentare

holger206.11.23 19:04
Mich würde mal die Kratzempfindlichkeit der schwarzen Version interessieren.
+11
basisbild
basisbild06.11.23 19:10
Bin schon gespannt auf den Test M3 Ultra gegen den Core i9-14900K oder die Ryzen Fraktion (im nächsten Jahr) …
+5
marcel15106.11.23 19:14
Dann sollten sie aber auch M3 und M3 Pro testen.
-11
tolved06.11.23 19:29
„ First, power consumption of the M3 Max as reported by thepowermetricstool is considerably higher for the M3 Max than for the M1 Max or M2 Max—about 20 W more than the M1 Max and 13 W more than the M2 Max. “
-2
andreas_g
andreas_g06.11.23 19:46
tolved
„ First, power consumption of the M3 Max as reported by thepowermetricstool is considerably higher for the M3 Max than for the M1 Max or M2 Max—about 20 W more than the M1 Max and 13 W more than the M2 Max. “

Woher stammt das Zitat und wie hoch ist der Verbrauch insgesamt?
+3
mikeboss
mikeboss06.11.23 19:47
tolved
„ First, power consumption of the M3 Max as reported by thepowermetricstool is considerably higher for the M3 Max than for the M1 Max or M2 Max—about 20 W more than the M1 Max and 13 W more than the M2 Max. “

dann aber bitte auch den rest dazu:

But the M3 Ultra (fehler, sollte wohl Max heissen) finishes the work so much more quickly than either of its predecessors that it still manages to use a little less energy overall to accomplish the same amount of work
+19
mikeboss
mikeboss06.11.23 19:48
andreas_g
Woher stammt das Zitat und wie hoch ist der Verbrauch insgesamt?

here you go
+5
andreas_g
andreas_g06.11.23 19:50
mikeboss
andreas_g
Woher stammt das Zitat und wie hoch ist der Verbrauch insgesamt?

here you go

Danke! Gerade festgestellt, dass Safari's Suchfunktion offensichtlich nicht gut im Suchen ist. Gebe ich consumption als Suchbegriff auf dieser Seite ein, findet es das Wort nur ein Mal.
0
mikeboss
mikeboss06.11.23 19:55
andreas_g
Gerade festgestellt, dass Safari's Suchfunktion offensichtlich nicht gut im Suchen ist. Gebe ich consumption als Suchbegriff auf dieser Seite ein, findet es das Wort nur ein Mal.

Firefox kann's auch nicht. man muss zuerst an's ende der seite scrollen (bei beiden browsern) und dann CMD-G. dann werden alle drei gefunden.
+1
ideal06.11.23 20:42
7500,- für die arbeit, mit 128ram und 4tb SSD, is schon viel geld.
+2
Nebula
Nebula06.11.23 21:02
mikeboss
andreas_g
Gerade festgestellt, dass Safari's Suchfunktion offensichtlich nicht gut im Suchen ist. Gebe ich consumption als Suchbegriff auf dieser Seite ein, findet es das Wort nur ein Mal.

Firefox kann's auch nicht. man muss zuerst an's ende der seite scrollen (bei beiden browsern) und dann CMD-G. dann werden alle drei gefunden.
Yo, dieses lazy loading oder auch nur das Aufteilen von Artikeln auf .mehrere Seiten ist echt die Pest. Macht MTN leider auch immer wieder. Erkenne darin keinen Nutzen außer der Steigerung von ad impressions. Dass damit nennenswert Traffic eingespart wird, glaube ich nicht.
»Wir werden alle sterben« – Albert Einstein
-3
Krypton06.11.23 21:03
mikeboss
andreas_g
Gerade festgestellt, dass Safari's Suchfunktion offensichtlich nicht gut im Suchen ist. Gebe ich consumption als Suchbegriff auf dieser Seite ein, findet es das Wort nur ein Mal.

Firefox kann's auch nicht. man muss zuerst an's ende der seite scrollen (bei beiden browsern) und dann CMD-G. dann werden alle drei gefunden.
Das hat weniger mit den Browsern als mit der von ArsTechnica verwendeten Technik zu tun. Sie laden nicht die komplette Seite auf einmal sondern haben mehrere Nachladepunkte beim Runterscrollen definiert. Das nennt sich «Lazy Loading», sprich es wird nur das geladen, was die Leser auch tatsächlich sehen möchten.
Das spart etwas Bandbreite auf dem Server, wenn Leser früher abspringen, macht die Seite insgesamt flotter (da erst nur ein kleiner Teil geladen wird), hat aber den Nachteil, dass man ohne einmaliges Runterscrollen und laden eben nicht alles finden kann.
+9
Krypton06.11.23 21:04
ideal
7500,- für die arbeit, mit 128ram und 4tb SSD, is schon viel geld.
Wenn jemand tatsächlich etwas arbeitet, für das er/sie diese Konfiguration mit 4TB intern benötigt, dann liegt der Lohn typischerweise so hoch, dass man sich das auch leisten kann. Welches andere Notebook auf der Welt kann den über 100 GB Grafikspeicher ansprechen? Daher ist es für diese extremen Anforderungen fast schon wieder günstig.
+23
ideal06.11.23 21:59
klar, krypton, so gesehen, ja!
+1
Deppomat07.11.23 09:13
Krypton
ideal
7500,- für die arbeit, mit 128ram und 4tb SSD, is schon viel geld.
Wenn jemand tatsächlich etwas arbeitet, für das er/sie diese Konfiguration mit 4TB intern benötigt, dann liegt der Lohn typischerweise so hoch, dass man sich das auch leisten kann. Welches andere Notebook auf der Welt kann den über 100 GB Grafikspeicher ansprechen? Daher ist es für diese extremen Anforderungen fast schon wieder günstig.
Das stimmt doch nicht. Alles braucht heute mehr Platz, auch mehrere TB füllen sich schnell. Das betrifft jeden, der mit Medien arbeitet, und die sind natürlich nicht alle hochbezahlt, so ein Quatsch. Dein Lohn steigt doch nicht mit der Filesize 🙄

Und 4TB kosten in der realen Welt 300€, bei Apple 1500€. Wir sprechen also von etwas, das kein Luxus sein müßte, aber hier künstlich dazu gemacht wird. Verstehe nicht, warum manche das so brav akzeptieren.

Mit ner großen internen SSD kannst du z.B. alle deine Soundlibraries intern installieren, deine Projekte mitnehmen, hast dann keinen Streß mit Projekten, wo irgendwas fehlt, weil du zum Auslagern und Archivieren gezwungen warst. Und Archivplatten muß man auch backuppen, das geht dann aber nicht mit Timemachine. Also benutzt man dann noch ne zweite parallele Backup-Software. Alles nicht geil, das will man nicht.

Bei nem Lenovo-Book kostet dich der Luxus 300€. Wer würde das nicht wollen? In unserem Apple-Zirkus haben wir uns dran gewöhnt, daß sich nur wenige das leisten können. Regt mich auf.
+6
deus-ex
deus-ex07.11.23 09:19
Falls sich jemand für die GfxBench Metal Ergebnisse interessiert.



M1 - 32 FPS
M2 - 48 FPS
M3 - 52 FPS

M1 Max - 130 FPS
M2 Max - 170 FPS
M3 Max - 205 FPS

M1 Pro - 71 FPS
M2 Pro - 90 FPS
M3 Pro - Fehlt leider noch (ich vermute so an die 100 FPS )
+3
gritsch07.11.23 10:00
Deppomat
Das stimmt doch nicht. Alles braucht heute mehr Platz, auch mehrere TB füllen sich schnell. Das betrifft jeden, der mit Medien arbeitet, und die sind natürlich nicht alle hochbezahlt, so ein Quatsch. Dein Lohn steigt doch nicht mit der Filesize 🙄

Wenn du einen geringen Stundensatz hast, dann kannst du auch eine günstige externe SSD verwenden, verlierst dann vielleicht im Monat eine Stunde Wartezeit weil die externe eben bisschen langsamer ist als die interne.
Hast du aber einen hohen Stundensatz, so rechnet sich das innerhalb weniger Monate wieder.
Ist ja nicht so dass dich jemand zwingen würde die 4TB-Variante zu verwenden.
+7
Deppomat07.11.23 11:23
gritsch
Wenn du einen geringen Stundensatz hast, dann kannst du auch eine günstige externe SSD verwenden, verlierst dann vielleicht im Monat eine Stunde Wartezeit weil die externe eben bisschen langsamer ist als die interne.
Hast du aber einen hohen Stundensatz, so rechnet sich das innerhalb weniger Monate wieder.
Ist ja nicht so dass dich jemand zwingen würde die 4TB-Variante zu verwenden.
Das ist nicht der Punkt. Der Punkt ist, daß die Technik existiert und erschwinglich ist, aber Apple gatet mittels Wucher den Zugang. Das führt zu der traurigen Situation, daß sich reihenweise Leute die besten Laptops der Welt kaufen, aber mit absurd kleinen SSDs ausstatten, und dann fummeln sie unterwegs mit angesteckten Festplatten rum. Als Strafe dafür, daß du grad das beste vom besten gekauft hast. Das ist Mist.
-3
Nebula
Nebula07.11.23 11:27
In den MacBooks sind ja keine herkömmlichen SSDs verbaut, insofern hinkt der Vergleich etwas. Apple müsste zusätzlich noch die günstigeren „echten“ SSDs einbauen, gerne auswechselbar. Dann könnte man zeitunkritische Daten wie Libraries auf diesen langsamen Speicher packen. Bei mir liegt auch ein großteil Daten auf den Macs, wo ich nicht die allerschnellsten Zugriffszeiten benötige, beispielsweise mehr als ein halbes TB Musik.
»Wir werden alle sterben« – Albert Einstein
+3
Deppomat07.11.23 11:30
Nebula
In den MacBooks sind ja keine herkömmlichen SSDs verbaut, insofern hinkt der Vergleich etwas.
So sehr anders sind die aber auch nicht. Auch der Rest der Welt ist ja lange auf M.2 umgestiegen, die Chips häkelt Apple auch nicht selber, sondern bezieht sie von den selben Quellen wie andere auch. Ja, Apple kauft die schnellsten, aber der Abstand zu ner steckbaren Samsung ist marginal.

Ich gestehe ihnen ja auch ein Markup zu, aber 2x wäre schon großzügig, sie nehmen 5x.
-2
Nebula
Nebula07.11.23 11:42
Apple lässt aber vieles weg, was in normalen SSDs nötig ist. Die Speichermodule sind direkt am SoC angebunden. M.2 sagt nichts über die verbauten Speichermodule aus, es ist ein Standard für Erweiterungskarten. Da gehören Controller und andere Kram zu, den Apple nicht benötigt, weil der SoC das macht. Die hohe Geschwindigkeit und Latenz liegt eben auch an der Form der Anbindung. Wie gesagt, die ist eigentlich nicht immer nötig, weshalb Apple gerne zweigleisig fahren könnte. Aber der pure Vergleich M.2-SSDs und den nackten NANDs hinkt.
»Wir werden alle sterben« – Albert Einstein
+4
Deppomat07.11.23 12:07
Nebula
Apple lässt aber vieles weg, was in normalen SSDs nötig ist. Die Speichermodule sind direkt am SoC angebunden. M.2 sagt nichts über die verbauten Speichermodule aus, es ist ein Standard für Erweiterungskarten. Da gehören Controller und andere Kram zu, den Apple nicht benötigt, weil der SoC das macht. Die hohe Geschwindigkeit und Latenz liegt eben auch an der Form der Anbindung. Wie gesagt, die ist eigentlich nicht immer nötig, weshalb Apple gerne zweigleisig fahren könnte. Aber der pure Vergleich M.2-SSDs und den nackten NANDs hinkt.
Das bedenke ich mit, drum dürfen sie wie gesagt ja auch teurer sein. Aber nicht 5x. Und ich weiß, daß M.2 nichts über die Chips aussagt, ich wollte darauf hinaus, daß ich nicht unfair mit alten SATA-Preisen vergleiche, sondern aktuelle und hochwertige NVME-Module genannt habe.

Grad mal gegoogelt: Samsung 990 Pro schafft 7450MB/s beim Lesen.
+2
68000er
68000er07.11.23 13:47
Das eingetliche Unding von Apple finde ich dass sie einerseits keinen aufrüstbaren internen Speicher zulassen, und andererseits die Nutztung von Clouddiensten auf externen Volumes verbieten.
-1
deus-ex
deus-ex07.11.23 14:08
68000er
Das eingetliche Unding von Apple finde ich dass sie einerseits keinen aufrüstbaren internen Speicher zulassen, und andererseits die Nutztung von Clouddiensten auf externen Volumes verbieten.

Aufrüstbarer Speicher geht in der Unified Architektur so nicht. Dann müsste man das Konzept ändern. Dann würde man aber die Vorteile des Unified Memory verlieren.

Was ist Unified Memory?

Bei Unified Memory geht es darum, die Datenredundanz zu minimieren, die zwischen den verschiedenen Teilen des Speichers, die von der CPU, der GPU usw. verwendet werden, kopiert wird. Kopieren ist langsam und verschwendet Speicherkapazität. Bei herkömmlichen Speicherimplementierungen ist ein Teil des RAM für die GPU reserviert. Wenn Ihr Laptop mit 16 GB RAM wirbt und 2 GB für die GPU reserviert sind, haben Sie nur 14 GB für Systemaufgaben zur Verfügung. Apple hat dieses Problem mit UMA gelöst, wodurch die Speicherzuweisung reibungsloser verläuft und die Leistung verbessert wird.

Warum braucht Ihr Computer Unified Memory?

Die Unified Memory Architecture auf Apple Silicon führt mehrere Änderungen am Speichersystem des Computers ein. Von der Änderung der Art und Weise, wie der Arbeitsspeicher mit den Recheneinheiten verbunden wird, bis hin zur Neudefinition der Speicherarchitektur, ändert Apple die Art und Weise, wie Speichersysteme konzipiert werden, um die Effizienz des Systems zu verbessern.

Allerdings führt die neue Architektur zu einem Wettlauf zwischen der CPU, der GPU und der Neural Engine, wodurch die vom System benötigte RAM-Menge steigt.

Wie funktioniert Unified Memory?

Bei Mehrzwecksystemen wird der Arbeitsspeicher über Sockel auf der Hauptplatine mit der CPU verbunden. Diese Verbindung begrenzt die Menge der an die CPU gesendeten Daten.

Apple Silicon hingegen verwendet dasselbe Substrat, um RAM und SoC unterzubringen. Während der RAM bei dieser Architektur nicht Teil des SoC ist, verwendet Apple ein Interposer-Substrat (Fabric), um den RAM mit dem SoC zu verbinden. Ein Interposer ist nichts anderes als eine Siliziumschicht zwischen dem SoC und dem RAM.

Im Vergleich zu herkömmlichen Sockeln, die zur Datenübertragung auf Drähte angewiesen sind, ermöglichen Interposer die Verbindung von RAM mit Chipsätzen über Durchkontaktierungen im Silizium. Das bedeutet, dass bei MacBooks mit Apple Silicon Technologie der Arbeitsspeicher direkt in das Gehäuse eingebettet ist, was eine schnellere Datenübertragung zwischen dem Speicher und dem Prozessor ermöglicht. Der Arbeitsspeicher ist auch physisch näher an dem Ort, an dem die Daten benötigt werden (dem Prozessor), so dass die Daten schneller dorthin gelangen, wo sie benötigt werden.

Aufgrund dieses Unterschieds bei der Verbindung von RAM mit dem Chipsatz kann dieser auf eine hohe Datenbandbreite zugreifen.

Zusätzlich zu den oben genannten Unterschieden hat Apple auch die Art und Weise geändert, wie die CPU und die GPU auf das Speichersystem zugreifen.

Wie bereits erwähnt, haben GPUs und CPUs in herkömmlichen Konfigurationen unterschiedliche Speicherpools. Apple geht den umgekehrten Weg und ermöglicht es der GPU, der CPU und der Neural Engine, auf denselben Speicherpool zuzugreifen. Daher müssen die Daten nicht von einem Speichersystem zum anderen übertragen werden, was die Effizienz des Systems weiter verbessert.

Aufgrund all dieser Unterschiede in der Speicherarchitektur bieten Unified Memory-Systeme SoCs eine hohe Datenbandbreite.
d
oder redest du von SSD-Speicher.
Und was sind bitte Clouddienste auf externen Volumes die "angebliche" verboten werden?
+2
ideal07.11.23 14:36
Deppomat
Das ist nicht der Punkt. Der Punkt ist, daß die Technik existiert und erschwinglich ist, aber Apple gatet mittels Wucher den Zugang.
[/quote]


satz des jahres - find ich auch schade, dass apple hier gatet. warum?
+2
68000er
68000er07.11.23 14:49
deus-ex

Und was sind bitte Clouddienste auf externen Volumes die "angebliche" verboten werden?

Ja, ich meine SSD Speicher, und ich meine Clouddienste wie Dropbox & Co. Apple lässt solche Sync Dienste zuküntig nur noch auf der internen Platte zu, im Dropbox Forum gibt es schon lange einen Verzweiflungs-Thread hierzu:
https://www.dropboxforum.com/t5/Storage-Space/Disaster-Dropbox-removing-external-disk-support-for-Mac-users/td-p/659876/page/63
Apple schiebt da irgendwelche Sicherheitsgründe vor.

Es gibt halt viele Firmen die mit Riesendateien in Dropbox arbeiten, auf externen Platten, das wird in Zukunft leider nicht mehr möglich sein.
Da hätte ich dann schon gern noch eine Möglichkeit den SSD Speicher zu erweitern...
+1
deus-ex
deus-ex07.11.23 15:02
68000er
deus-ex

Und was sind bitte Clouddienste auf externen Volumes die "angebliche" verboten werden?

Ja, ich meine SSD Speicher, und ich meine Clouddienste wie Dropbox & Co. Apple lässt solche Sync Dienste zuküntig nur noch auf der internen Platte zu, im Dropbox Forum gibt es schon lange einen Verzweiflungs-Thread hierzu:
https://www.dropboxforum.com/t5/Storage-Space/Disaster-Dropbox-removing-external-disk-support-for-Mac-users/td-p/659876/page/63
Apple schiebt da irgendwelche Sicherheitsgründe vor.

Es gibt halt viele Firmen die mit Riesendateien in Dropbox arbeiten, auf externen Platten, das wird in Zukunft leider nicht mehr möglich sein.
Da hätte ich dann schon gern noch eine Möglichkeit den SSD Speicher zu erweitern...

So ein Quatsch. Jeder Prozess darf auf externe Volumes schreiben wenn er die Berechtigung dafür einholt und der User dies genehmig. die Dropbox App ist einfach nur Rotz.

Nur ein Beispiel:


Oder hier:
-1
68000er
68000er07.11.23 15:34
Naja, hier geht es halt um die Sync Funktion, nicht um das Schreibrecht.
Das Problem stellt sich allen Sync-Diensten, nicht nur Dropbox.
+1
Nebula
Nebula07.11.23 15:35
DropBox & Co. nutzen auf Apples Wunsch ja die FileProvider-API. Diese verwendet einen fest verdrahteten Ordner auf dem „Systemvolume“. Die Aussage, dass der Zugriff auf externe Platten nicht möglich ist, stimmt in diesem Kontext also. Das bedeutet aber nicht, dass man nicht die Wahl hätte. Mit Maestral gibt es einen alternative Dropbox-Client, der die API von Apple nutzt.

Die Idee, eine Offloading-Funktion zentral durch das Betriebssystem bereitzustellen, ist an sich eine gute. Blöd ist aber, dass Apple die API unzureichend gestaltet hat und es wie üblich nicht hinbekommt, eine halbwegs fehlerfreie API zu programmieren.
»Wir werden alle sterben« – Albert Einstein
+1
68000er
68000er07.11.23 16:02
Das einzig blöde ist eigentlich dass ich einen Rechner den ich mit 2TB Volume gekauft habe nicht nachträglich auf 8TB erweitern kann, anscheinend erwartet Apple dass man in dem Fall einen neuen Mac kauft.
Ein alternativer Client ist jetzt leider auch keine gute Möglichkeit, wenn man als Firma viel mit Dropbox macht, allein schon weil es eine Drittherstellerlösung ist ohne Dropbox Support.
+1
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.