Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Video: Mac mini M1 vs. Mini-PC mit AMDs aktueller Highend-CPU Ryzen 9 5900HX

Intel steht nicht nur durch Apples Abkehr von der x64-Architektur und die Performance der M1-CPU unter Druck. AMD setzt dem Chip-Giganten ebenfalls erheblich zu. Der deutlich kleinere Prozessorhersteller verfügt derzeit mit dem Ryzen 9 5900HX über die weltweit schnellste x64-APU für Notebooks und sparsame Desktops. Diese kommt etwa im brandneuen Mini-PC Elite HX90 des Herstellers Minisforum zum Einsatz. Ob der kompakte Rechner gegen den Mac mini M1 bestehen kann, zeigt ein aktueller Praxistest.


Mac mini M1 und Elite HX90 mit identischer Ausstattung
In dem Video-Vergleich, den der bekannte YouTuber Max Tech jetzt auf seinem Kanal veröffentlicht hat, tritt der Mac mini M1 mit 16 Gigabyte RAM und 256 Gigabyte SSD gegen den identisch ausgestatteten AMD-Rechner an. Beide Computer verfügen über eine Achtkern-CPU mit annähernd gleicher Taktfrequenz sowie einer integrierten GPU, welche acht Grafikkerne aufweist. Auch die Preise der Rechner sind identisch, sie kosten in den Vereinigten Staaten jeweils knapp 900 US-Dollar. Hinsichtlich des Formfaktors unterscheiden sich die Geräte ebenfalls nicht, der Elite HX90 ist allerdings fast doppelt so hoch, zudem wird er mit einem externen Netzteil betrieben.


Apples M1 ist dem AMD Ryzen 9 5900HX deutlich überlegen
Obwohl die beiden Kompaktrechner von der Papierform her identisch zu sein scheinen, ist der Mac mini M1 dem Konkurrenten aus dem x64-Lager in nahezu allen Belangen überlegen. Der Elite HX90 kann nur einen Benchmark für sich entscheiden: Im Cinebench R23 CPU-Stresstest erzielt er mit seinen acht Performance-Kernen einen Wert von 10.680 Punkten, während der Computer aus Cupertino lediglich auf 7.717 Punkte kommt. Allerdings genehmigt sich der AMD-Rechner maximal 65 Watt, der Mac mini M1 nur 15 Watt. Der AMD Ryzen 9 5900HX heizt sich dabei auf 90 Grad Celsius auf, der M1 bleibt mit maximal 65 Grad Celsius deutlich kühler. Alle anderen Benchmarks entscheidet Apples kompakter Rechner eindeutig für sich, zum Teil mit deutlichen Abstand. Beim Geekbench 5 Single Core geht das Duell mit 1.753 zu 1.321 Punkten zugunsten des Mac mini M1 aus, beim Multi-Core-Test lautet das Ergebnis 7.632 zu 6.436 Punkte Ein ähnliches Resultat ergibt auch der Vergleich der Grafik-Performance.

Drastische Unterschiede bei der Foto- und Video-Performance
Besonders deutlich wird die leistungsmäßige Überlegenheit von Apples CPU-Architektur bei den von Max Tech durchgeführten Praxistests mit Adobe Lightroom und DaVinci Resolve. Bei einfachen Aufgaben wie dem Einsatz eines Pinsels liegen die Kandidaten noch annähernd gleichauf, das ändert sich jedoch bei komplexeren Arbeiten drastisch. Für den Export von 50 RAW-Fotos mit jeweils 42 Megapixeln benötigt der Elite HX90 3:33 Minuten, während der Mac mini M1 nach 2:37 Minuten fertig ist. Die Stabilisierung eines 20 Sekunden langen 4K-Clips dauert mit Apples Rechner eine halbe Minute, der AMD-Computer benötigt mit 1:10 Minuten mehr als doppelt so lange. Ein fünfminütiges H.264-Video exportiert der Mac mini M1 in etwas mehr als drei Minuten, der Elite HX 90 lässt sich mit 8:32 Minuten deutlich mehr Zeit und macht dabei mit kräftigen Lüftergeräuschen auf sich aufmerksam.

Kommentare

Dicone
Dicone06.09.21 16:18
Der Unterschied im Cinebench ist aber enorm 😵, wie geht das wenn der M1 sonst vorne liegt?
0
Krypton06.09.21 16:28
Dicone
Der Unterschied im Cinebench ist aber enorm 😵, wie geht das wenn der M1 sonst vorne liegt?
Der AMD hat 8 vollwertige oder identische Kerne und die addieren sich fast linear (1300 SingleCore mal 8 = 10.400 MultiCore).
Der M1 hat dagegen 4 High-Performance (= schnelle) Kerne und 4 (High Efficiency = langsame aber stromsparende) Kerne. Wie diese Kombi im Zweifelsfall zusammenläuft und welche Kerne bei Multikern-Nutzung wie stark verwendet werden, ist noch nicht so ganz entschlüsselt. Scheinbar ist die MultiCore-Leistung hier aber geringer, als es theoretisch sein könnte.

Dafür wird’s der M1X oder M2 richten. In ein paar Wochen sollten wir ja mehr wissen.
+15
Bitsurfer06.09.21 16:31
Mac mini M1 vs. Mini-PC mit AMDs aktueller Highend-CPU Ryzen 9 5900HX

Da wir also ein Highend-CPU mit einer Einstiegs-CPU verglichen. Spannend.

Apple! Mach auch mal eine Highend-CPU
+7
Dunkelbier06.09.21 16:37
Bitsurfer
Da wir also ein Highend-CPU mit einer Einstiegs-CPU verglichen. Spannend.

Apple! Mach auch mal eine Highend-CPU
Das ist ja gerade das, was man sich vor Augen halten muss. Die aktuellen M1 sind gut. Da gibt es nichts. Sie sind höchstens für bestimmte Aufgaben schlicht nicht (gut) geeignet. Leider wird das oft mit „sie doch nicht so gut, wie behauptet“ verwechselt.

Das ist der Grund, warum ich auf den großen iMac warte. Inzwischen staune ich über mein Air.
+17
Michael Lang aus Rieder06.09.21 16:45
Bitsurfer
Mac mini M1 vs. Mini-PC mit AMDs aktueller Highend-CPU Ryzen 9 5900HX

Da wir also ein Highend-CPU mit einer Einstiegs-CPU verglichen. Spannend.

Apple! Mach auch mal eine Highend-CPU

Aktuell ist der M1 die einzige CPU die Apple auf ARM Basis im Programm hat. Also ist das sozusagen auch die High-End Variante.

Mit Erscheinen der nächsten Generation (M1X) gibt es dann eine Alternative mit mehr Leistung. Aber bei Apple wird es immer maximal 2 Varianten geben. Da werden nicht so viele verschiedene CPU-Varianten entwickelt.
Warum auch?
Die müssen nur wenige Modelle Ihrer hauseigenen Rechner bestücken.
Und wenn die Leistung reicht, dann ist es doch auch gut

Aber es werden wieder Experten kommen, die aussagen, dass man das so eh nicht vergleichen kann (Es steckt halt ein anderes OS/System darunter).
+3
Krypton06.09.21 16:48
Bitsurfer
Mac mini M1 vs. Mini-PC mit AMDs aktueller Highend-CPU Ryzen 9 5900HX

Da wir also ein Highend-CPU mit einer Einstiegs-CPU verglichen. Spannend.

Da greift der Artikel schon sehr in die Wortklauberkiste, um das so zu formulieren. Die schnellste CPU von AMD für Notebooks und «sparsame Desktops» als «High-End» zu titulieren, ist schon eine sehr Spezielle Sichtweise.

Sicher, der VW Lupo mag auch das HighEnd im Kleinstwagensektor markieren, oder die Ohrstöpsel, welche man bei manchen Langstreckenflügen geschenkt bekommt, sind wohl auch HighEnd im Flugzeuggoodiebereich und der Preisklasse bis 1,50 €.

Würde ich was in Cinema4D rendern wollen, wäre wohl eher ein «echter high-end» Rechner mit AMD Threadripper das Tool der Wahl mit ca. 74.000 Punkten. Sicher, der kostet mehr und genehmigt sich mehr Energie. Aber wenn Zeit Geld kostet, relativiert sich das schnell.

Bin dennoch mal gespannt, was Apple zum Jahresende aus dem imaginären Hut zaubert.

+5
Michael Lang aus Rieder06.09.21 16:59
Ja,
da bin ich mal gespannt, ob Apple im Desktopbereich (also MacPro) auch so was beeindruckendes wie im Laptopbereich hinbekommt....

Aber der kommt erst Ende 2022 schätze ich....

Beim iMac könnte man mit dem M2(X) wohl auch in Bereiche von 40.000 Cinebenchpunkten kommen. Aber auch das bleibt abzuwarten.
0
Krypton06.09.21 17:00
Michael Lang aus Rieder
Mit Erscheinen der nächsten Generation (M1X) gibt es dann eine Alternative mit mehr Leistung. Aber bei Apple wird es immer maximal 2 Varianten geben. Da werden nicht so viele verschiedene CPU-Varianten entwickelt.
Warum auch?
Die müssen nur wenige Modelle Ihrer hauseigenen Rechner bestücken.

Darauf würde ich nicht wetten. Natürlich braucht Apple keine Armada an Varianten wie die generischen Hersteller, aber mit nur 2 Varianten würden sie einerseits den «Power» Markt begraben und andererseits viel Geld verschenken.

Mal angenommen, sie würden nur einen M(x) und M(x)X (also M1 und M1x, M2 und M2x) herausbringen und den kleinen mit 8 und den großen etwa mit 12-16 Kernen laufen lassen. Dann würden einige Anwender wohl komplett abwandern. Die Anzahl derer ist gering und die Stimmen wohl relativ leise, aber im Gebiet, wo AMD/Intel 32, 64 und ab Anfang nächsten Jahres wohl 96 Kerne in einen Prozessor steckt, hätte Apple dann einfach gar nichts mehr zu bieten.

Der andere Punkt ist die Ausbeute in der Chip-Produktion. Es kommen hier immer Fehler und nur teilweise funktionierende CPUs heraus. Oder auch Modelle, die zwar prinzipiell laufen aber nicht mit höchstem Takt. Das ist der Grund, warum du bei Intel und AMD soviele Zwischenstufen an GHz-Werten und auch CPU Kernen bekommst. Ein 8-Kerner mit einem defekten Kern wird halt als 6-Kerner verkauft. Einer CPU, die keine 4,8 GHz schafft, bekommst du günstiger als 4,2 GHz Modell.

Dieses grundsätzliche Problem in der Herstellung hat auch TSMC und somit Apple. Da sie nicht in den höchsten GHz-Stufen wildern, kann es schon sein, dass hier nur sehr wenig Varianten nötig sind. Bei den Kernen stehen sie aber vor der Wahl, ob es verschiedene Abstufungen gibt oder ob man alle «low Performer» und damit auch deren Wert weg wirft.
Anhand der aktuellen GPU-Auswahl (7-core und 8-core) vermute ich aber, dass wir bei den Prozessoren auch mehrere Abstufungen bekommen werden. Nicht weil das nötig wäre, aber es dient einfach der Effizienz (und Rendite)
+2
Michael Lang aus Rieder06.09.21 17:07
naja, gebe Dir teilweise Recht.
Aber Apple bietet eben nur kleine Laptops (Air, das kleine Pro) und Pro-laptops (ab 14") sowie Macmini und iMac an.

Dafür reichen jeweils 2 CPU Varianten M1/M2 und jeweils X Variante.
Die CPUs werden jedes Jahr weiterentwickelt zur nächsthöheren Generation.
Also werden maximal 3 Varianten angeboten.

Für den MacPro muß es noch was spezelles eigenes geben, da gebe ich Recht.
0
tk69
tk6906.09.21 17:36
Mein Gott ist das Design des AMD grottig... 🙈
+1
steve.it06.09.21 18:42
"Ein fünfminütiges H.264-Video exportiert der Mac mini M1 in etwas mehr als drei Minuten, der Elite HX 90 lässt sich mit 8:32 Minuten deutlich mehr Zeit und macht dabei mit kräftigen Lüftergeräuschen auf sich aufmerksam."

Wie üblich wurde hier mal wieder nicht die Qualität und die Dateigröße verglichen.
Der Hardware-Encoder im M1 ist super schnell, in der Qualität bzw. Platzverbrauch aber schlecht.

Am besten encodiert man ohnehin auf der CPU mit einem hochwertigen Encoder (also nicht mit einem Apple Encoder oder den meisten anderen zweifelhaften kommerziellen Software-Encodern), sondern mit x264 (H.264) oder x265 (H.265).

"Seeing exact same thing. I haven't compared the VT vs x265 quality yet extensively but eye test, the VT version had to be encoded at 8K+ BR to yield comparable quality to x265 which was closer to 2K BR. And of course the resulting 9GB file vs 2.3GB file."
https://forums.macrumors.com/threads/mac-mini-m1-h-265-encoding.2269815/

9GB mit dem M1 Encoder, 2.3 GB auf der CPU mit x265
+1
steve.it06.09.21 18:47
Die integrierte Grafik im Ryzen 9 5900HX (= APU) dürfte der M1 Grafik unterlegen sein. Wenn man den Ryzen 9 5900HX mit einer aktuellen GPU koppelt, dann sieht der M1 vermutlich häufig die Rücklichter (z.B. in DaVinci Resolve).
-2
tjost
tjost06.09.21 19:07
Der Mini ist in allen Bereichen effektiv besser.
Cinebench liegt der AMD zwar vorne aber mit nur dank 8 Kernen und 16 Threads.
der MacMini hat effektiv nur 4 Kerne und 4 Threads.
x86 ist scheinbar wirklich am Ende.
0
NX4U206.09.21 19:31
Je nach Einsatzzweck ist die Rechenleistung pro Watt ein entscheidender Faktor. Und hier liefert Apple mit dem M1 erstaunliches ab. Da wo es um reine Rechenleistung geht, Kühlung kein Problem ist und vor allem Erweiterbarkeit gefragt ist, da müssen wir noch auf einen Entwurf warten. Falls sowas von Apple jemals kommen mag.
+4
bit.trash
bit.trash06.09.21 20:03
ich habe einen m1 und einen Ryzen, allerdings nur einen 3600x. Der M1 Mac ist klasse als Laptop aber diese ganzen Benchmarks sind großer B.S. . Man kann solche Test immer so drehen, dass ein bestimmtes Ergebnis kommt. Der M1 ist genial, solange die Aufgaben mundgerecht sind, aber man rennt auch schnell gegen eine Wand. Was ich so gar nicht verstehe ist, das die M1 so snappy sind... mein PC hat eine deutlich schnellere NVME und daher wundert mich es nicht, dass die Programme schneller öffnen. Mit den 16GB Unified Memory renne ich auch leider öfters in die Problematik das der Speicher voll ist und dann wilde GPU glitches oder Abstürze verursacht. In C1, Resolve und Luminar AI. Alle Optimiert für M1. Kommt halt darauf an, was man damit macht. Bestimmte Nodes in Resolve killen den M1 SOC rasant, ebenso wenn man in C1 viele Brushes, Layer verwendet. Luminar AI ist übrigens die einzige Software, die wirklich merklich schneller auf dem Mac ist. M1 ist göttlich als mobile Maschine mit langer Batterielaufzeit, aber Wunder verbringt der nicht. Ich finde das alles etwas schade, weil eigentlich sind die M1 toll, aber bis auf die Batterielaufzeit werden die dem Hype nicht gerecht. In Sachen Leistung ist man mit einem aktuellen Ryzen und einer Nvidia deutlich schneller unterwegs … außer man macht Pillepalle, dann sind die Kisten alle sowieso schnell genug, seit Langem.
+2
steve.it06.09.21 22:53
@bit.trash: Das deckt sich mehr oder weniger mit meinen Eindrücken. Bin selber M1-Besitzer. Zugriff auf einen aktuellen Ryzen mit ordentlicher GPU habe ich allerdings nicht. Ähnliches habe ich aber schon an anderen Stellen gelesen.
Ist aber auch nicht verwunderlich.

Der Ryzen (Zen 3) hat 8 vollwertige Cores. Pro Core dürfte der M1 zwar etwas schneller sein. Nur ihm fehlen eben vier vollwertige gegenüber dem Ryzen. Die Integrierte Grafik vom M1 ist für eine integrierte Grafik extrem gut und stromsparend. Aber die kommt eben nicht gegen aktuelle GPUs an.
Und dann ist klar, dass ein entsprechendes Ryzen-System in Desktop oder Laptop-Form den M1 in entsprechender Software abhängt (vermutlich sogar deutlich), auch wenn dieses Paket natürlich mehr Strom verbrauchen wird (hat aber auch mehr Leistung).

Der kommende M1X oder wie auch immer der heißen wird, ist der richtige Gegner. Aber man muss eben das vergleichen, was aktuell da ist. Und da haben einige Fanboys völlig falsche Vorstellungen, insbesondere da diese sich von bestimmten Benchmarks blenden lassen, wie z.B. H.264 oder H.265 Encoding auf der Encoding Hardware des M1. Das hat aber nichts mit der eigentlichen CPU zu tun (und zudem ist die noch schlecht, siehe oben).
-1
Dunkelbier06.09.21 22:55
steve.it

Am besten encodiert man ohnehin auf der CPU mit einem hochwertigen Encoder (also nicht mit einem Apple Encoder oder den meisten anderen zweifelhaften kommerziellen Software-Encodern), sondern mit x264 (H.264) oder x265 (H.265).

Warum, zum Geier sollte das die CPU machen? Und was ist für Dich ein „Apple-Encoder“? Es wird bei diesem Test im beiden Fällen DaVinci benutzt. Eben genau um vergleichen zu können
+3
steve.it06.09.21 23:35
Dunkelbier
steve.it

Am besten encodiert man ohnehin auf der CPU mit einem hochwertigen Encoder (also nicht mit einem Apple Encoder oder den meisten anderen zweifelhaften kommerziellen Software-Encodern), sondern mit x264 (H.264) oder x265 (H.265).

Warum, zum Geier sollte das die CPU machen? Und was ist für Dich ein „Apple-Encoder“? Es wird bei diesem Test im beiden Fällen DaVinci benutzt. Eben genau um vergleichen zu können

Weil das Ergebnis richtig schlecht ist. Bildqualität kann nicht mithalten oder die Dateigrößen werden viel größer.
Schau in den Link, den ich oben gepostet habe. Das ist aber nicht verwunderlich. Hardware-Encoding war und ist eigentlich immer gutem Software-Encoding unterlegen. Mit gutem Software-Encoding meine ich nicht die kommerziellen Encoder, wie von Apple, Adobe usw, die häufig auch grottig sind, sondern richtig gute Software-Encoder, wie eben x264 oder x265.
Das ist alles nichts neues. Der einzige Hardware-Encoder, der ggf. qualitativ etwas mithalten kann, scheint NVENC von NVIDIA zu sein.
Der Encoder im M1 ist rasend schnell, qualitativ aber eben nicht so toll.

Nur darauf achten die ganzen "Experten" nicht... Hauptsache die Balkengrafiken sind toll (laut diverser Aussagen auch schlechter als das von Intel).

Ich mache das schon immer so - egal ob auf Intel Mac oder M1 Mac. In Final Cut Pro X wird in ProRes exporiert. Die riesige Datei wird dann mit Handbrake auf der CPU nach H.264 oder H.264 encodiert. Somit umgehe ich den bescheidenen Encoder von FinalCutProX oder dem Compressor (egal ob auf der CPU oder im M1 oder der Intel CPU) und kann x264 bzw. x265 nutzen.

DaVinci wird wahrscheinlich auch auf den jeweiligen Hardware-Encoder zurückgreifen. Und ich weiss nicht, was da als Software-Encoder dabei ist. Vermutlich etwas, das x264/x265 deutlich unterlegen ist (habe mir das noch nicht angeschaut).


"Seeing exact same thing. I haven't compared the VT vs x265 quality yet extensively but eye test, the VT version had to be encoded at 8K+ BR to yield comparable quality to x265 which was closer to 2K BR. And of course the resulting 9GB file vs 2.3GB file."


"You'll probably want to use software encoding if you care about quality and size. Feedback on M1 that I've seen hasn't been good with regards to quality and filesize."
+2
steve.it06.09.21 23:47
"I think that a visual quality of hardware video encoder (VideoToolBox H.264) in M1 Macs is not great.

I compared a software libx264 encoder (Mac) and NVIDIA Geforce (NVENC) on Windows 10 with the same bitrate or constant quality mode producing almost identical file size.

I see many visual artefacts on a video encoded with VideoToolBox H.264 (1080p 60 fps) 3300K or CQ56. It's especially noticeable on video with animated photo slideshows and blur effect. Too many artefacts. NVENC and libx264 produce much better visual results with the same file size."



VideoToolBox (oben als VT abgekürzt) ist die Schnittstelle in macOS um auf den HardwareEncoder zuzugreifen. Damit ist das HardwareEncoding gemeint (hier auf dem M1).
0
cps07.09.21 00:09
In anderen Tests findet sich der Ryzen 9 5900HX bei 13700 Punkten.
+1
Dunkelbier07.09.21 09:51
steve.it
"I think that a visual quality of hardware video encoder (VideoToolBox H.264) in M1 Macs is not great.

I compared a software libx264 encoder (Mac) and NVIDIA Geforce (NVENC) on Windows 10 with the same bitrate or constant quality mode producing almost identical file size.

I see many visual artefacts on a video encoded with VideoToolBox H.264 (1080p 60 fps) 3300K or CQ56. It's especially noticeable on video with animated photo slideshows and blur effect. Too many artefacts. NVENC and libx264 produce much better visual results with the same file size."



VideoToolBox (oben als VT abgekürzt) ist die Schnittstelle in macOS um auf den HardwareEncoder zuzugreifen. Damit ist das HardwareEncoding gemeint (hier auf dem M1).
Ich habe es gerade ausprobiert und kann es nicht nachvollziehen. Von welchen Ausgangsmaterial reden wir hier überhaupt? Und für welchen Zweck soll das Endergebnis sein?

Bei mir sind es 4K 10Bit 24FPS 1/50 Verschlusszeit. Gefilmt mit einer Lumix DC-G9. Ich kann keinen Unterschied zwischen dem, was FCPX als "Originaldatei" ausgibt und dem was bei der schnellsten Codierung herauskommt, erkennen. Zumindest auf meinem 65" Samsung Q90.

Sollte da wirklich ein Unterschied sein, dann spielt der vermutlich nur in bestimmten Situationen eine Rolle. Und die müssten eben benannt werden. Bis dahin werde ich bestimmt keine Zeit und Energie verschwenden, was nur bei Betrachtung mit x-facher Vergrößerung zu erkennen ist.
+3
steve.it07.09.21 10:13
Ich habe aktuell kein FCPX hier und kann daher nicht nachsehen, was du mit Originaldatei meinst. Das sollte die ProRes sein?

Zum Beispiel:
https://larryjordan.com/articles/how-to-get-the-best-image-quality-exporting-prores-master-files/


Natürlich sind da Unterschiede. Wie stark es auffällt, kommt natürlich auch auf das Material an. Und hast du mal die Dateigröße verglichen in Verbindung mit der Bildqualität vs. x265? Oben hat das jemand. Bei dem waren das wahnsinnige ca. 7 GB Unterschied für vergleichbare Bildqualität... "And of course the resulting 9GB file vs 2.3GB file."

Das sind uralte Themen, dass die Encoder der "Profi"-Software häufig schlecht bis maximal OK sind (und in Hardware sowieso, abgesehen vielleicht von NVENC).

Ein paar "Profis" haben das wenigstens gemerkt (und war ihnen nicht egal) und haben dann früher x264 in Compressor eingebunden (häufig noch alte Gammel-Versionen von x264, da aktuellere Versionen sich nicht mehr einbinden ließen.).
Beispiel: https://larryjordan.com/articles/compressor-x264-improve-video/

"My last bit of concern was with exporting to a delivery codec (H264 being the most popular one, in a widely international MP4 container) of the highest possible quality. After multiple test exports from Premiere I noticed serve cases of banding and other artefacts, even when set at an incredibly high bitrate. I did some research and found people complaining about the same thing too, issue being Premiere’s poor implementation of MainConcept AVC (Premiere’s H264 encoder)."

"The best H264 encoder in the world is the open source x264. But how would I export directly from Premiere using x264?"

"This gives me a total file size of only 3.7GB, which is decent. At this stage I do not need to compress it further because this is suitable for the web as well as film festivals. I am a quality freak and I have discovered the secret recipe of insane and efficient quality. I have visually tested this x264 export against DNxHD/Cineform HD/ProRes 4444 and it is to the eye, identical. Don’t get me wrong though, intermediate codecs are used to preserve the data the eye doesn’t see for post work. x264 actually holds its own at an incredibly low file size in comparison. This is the reason why the encoder has won many awards in recent years, it is simply the best."


Das ist zwar jetzt Premiere aber ähnliches findest du auch zu FCPX (habe den erstbesten Link genommen).

Edit:
Aus einem alten Link, der leider nicht mehr geht (daher Link auf Forum):
x264 gegen teuere "Profi"-Tools (vermutlich Komplettpaket Encoder mit Hardware und allem drum und dran):
“Professional” tools for Blu-ray video encoding can cost as much as $100,000 and are often utter garbage. Here are two actual screenshots from real Blu-rays: I wish I was making this up.
Leider ist der Link weg mit dem Bildvergleich, der AFAIR da war.
+1
maybeapreacher
maybeapreacher07.09.21 11:34
Bin wirklich mal gespannt was die nächsten CPUs bringen werden...

Apple kann von 3 Dingen profitieren. Ob sie diese gleichzeitig im M2 auf den Markt werfen, oder sich das Häppchenweise für die nächsten CPUs aufsparen wird die Zeit zeigen:
  • Verkleinerung der Fertigung bei TSMC von 5 auf 3nm. Dadurch entweder NOCH stromsparender, oder deutlich Leistungsfähiger durch mehr Cores bei gleichem Platz- und Strombedarf.
  • IPC Gewinn durch Optimierungen. Apple konnte hier regelmäßig 20% IPC pro Generation abgrasen, wo Intel meist um die 5-10% liegt. AMD hat hier zuletzt 19% erreicht, nicht zu verachten.
  • Umstellung von ARM v8.4 auf ARM v9 behebt einige Flaschenhälse bei wissenschaftlichen Berechnungen und bringt Prinzipbedingt auch nochmal einige % IPC Steigerung

Unterm Strich erwarte ich entweder gleiche Leistung bei 5-10Watt (vielleicht was fürs iPad Pro mit M2?) oder nochmal deutlich gesteigerte Leistung beim M2 im Vergleich zum M1 (z.B: was für Air und Mini), und eine echte Rakete als M2X für die Pro Linien. Vielleicht könnte ein MacPro hier mit 2 Chips aufwarten, oder einer M2X+ Variante mit noch mehr Cores.

Wir werden sehen was Apple bringt, aber das Potential ist erstaunlich.

Bin aber auch gespannt was Intel und AMD machen. TSMC bietet denen ja auch die 5 und 3 nm nodes an, das bringt nochmal was. Ich erwarte von beiden vlt. nochmal 10% IPC Gewinn in der nächsten Generation. Das ist gut für den PC, wird aber gegen Apple nicht ausreichen aus oben genannten Gründen.
+2
Michael Lang aus Rieder07.09.21 17:58
maybeapreacher
Bin wirklich mal gespannt was die nächsten CPUs bringen werden...
....
und eine echte Rakete als M2X für die Pro Linien. Vielleicht könnte ein MacPro hier mit 2 Chips aufwarten, oder einer M2X+ Variante mit noch mehr Cores.

Natürlich sind die M1 nicht das absolute HighEnd unter den CPUs. Klar sind HighEnd CPUs ala Threadripper mit HighEnd GPU mehr als deutlich schneller. Da hat Apple derzeit nichts entgegen zu setzen (und das wird eine Weile so bleiben).

Aber man sollte auch nicht Äpfel mit Birnen vergleichen (man muß Energieverbrauch und auch Kosten gegenüberstellen für einen fairen Vergleich). Derzeit handelt es sich beim M1 um Mobilprozessoren.

Reine Desktop-CPUs hat Apple derzeit nicht im Programm. Die kommen erst für den MacPro. Und da braucht es mehr als nur 2 M-Chips um mit Threadripper und Co mithalten zu können.

Dafür muß Apple was eigenes mit dedizierter GPU entwickeln. Da bin ich dann mal gespannt drauf ob es so kommt...

Bis dahin wird er M1X der nächste spannende Schritt. Immer noch kein HigfhEnd, aber für den Einsatzbereich (Laptops, iMac, MacMini) sicherlich ein weiterer Performanceschritt im Vergleich zur (vergleicbaren) Konkurrenz.
+1
Dunkelbier07.09.21 22:57
Dunkelbier
steve.it
...
Wasn Haufen Text. Du willst offenbar Recht behalten, ohne sich nur ein Stück Bildmaterial zu zeigen. Du ziehst Dich alleine an der Dateigröße fest. Aber das hat nur bedingt was mit der Ausgabequaltät zu tun.

Offenbar willst Du auch um jeden Preis den M1 schlecht aussehen lassen.

"Original" heißt in diesem Fall ProRes422
Die H264 war in der schnellsten, also im Grunde schlechtesten Qualität. Und es war schlicht kein Unterschied zu sehen. Vielleicht kann man das auf kalibierten ProofMonitoren erkennen. Aber nicht auf meinen Zielgeräten.

Warum sollte ich also die CPU mit Handbrake quälen, wenn ich das ganze in einem Bruchteil der Zeit machen kann?

Also, was genau sind Deine Ansprüche?
0
Krypton07.09.21 23:57
Dunkelbier
Dunkelbier
steve.it
...
Wasn Haufen Text. Du willst offenbar Recht behalten, ohne sich nur ein Stück Bildmaterial zu zeigen. Du ziehst Dich alleine an der Dateigröße fest. Aber das hat nur bedingt was mit der Ausgabequaltät zu tun.

Offenbar willst Du auch um jeden Preis den M1 schlecht aussehen lassen.

"Original" heißt in diesem Fall ProRes422
Die H264 war in der schnellsten, also im Grunde schlechtesten Qualität. Und es war schlicht kein Unterschied zu sehen. Vielleicht kann man das auf kalibierten ProofMonitoren erkennen. Aber nicht auf meinen Zielgeräten.

Warum sollte ich also die CPU mit Handbrake quälen, wenn ich das ganze in einem Bruchteil der Zeit machen kann?

Also, was genau sind Deine Ansprüche?

Ist das nicht etwas weit ausgeholt? Die Diskussion um verschiedene Codecs (hier speziell .h264 und .h265) wurde auch früher schon geführt und es gibt immer bessere und schlechtere Encoder.
«Besser» und «schlechter» sind hierbei natürlich sehr subjektiv und können sich auf verschiedene Parameter beziehen, wie etwa:
- Bildqualität generell (Artefakte, Farben, feine Muster, Farbabrisse, schnelle Szenen)
- Geschwindigkeit
- Dateigröße
- Spezialitäten bei bestimmtem Material (Slow-Mo, schnelle Bewegung, Text, Standbild)

Ich denke nicht, dass man den M1 hier absichtlich schlecht aussehen lassen will, aber man sollte (wenn man einen Vergleich antritt) gleiches mit gleichem vergleichen. Also etwa beide CPUs/GPUs mit dem selben (etwa .x265) Codec vergleichen und nicht nur Geschwindigkeit von CPU-Version gegen Hardware-Encoder.
Das kann man machen, greift aber gern mal zu kurz.
+2
cps09.09.21 02:21
Ich habe mal CB R23 auf mein MBP losgelassen.

Etwa 7700 Punkte waren es, die Performance Cores wurden dabei über 90°C heiß, die Efficiency Core lagen bei 73°C. Die Lüfter drehten jenseits der 4000 und waren damit deutlich hörbar. Dabei schaffte es die CPU nicht, den Takt von 3,2 GHz stabil zu halten.
0
Dunkelbier10.09.21 12:58
Krypton
Ist das nicht etwas weit ausgeholt? Die Diskussion um verschiedene Codecs (hier speziell .h264 und .h265) wurde auch früher schon geführt und es gibt immer bessere und schlechtere Encoder.
«Besser» und «schlechter» sind hierbei natürlich sehr subjektiv und können sich auf verschiedene Parameter beziehen, wie etwa:
- Bildqualität generell (Artefakte, Farben, feine Muster, Farbabrisse, schnelle Szenen)
- Geschwindigkeit
- Dateigröße
- Spezialitäten bei bestimmtem Material (Slow-Mo, schnelle Bewegung, Text, Standbild)

Ich denke nicht, dass man den M1 hier absichtlich schlecht aussehen lassen will, aber man sollte (wenn man einen Vergleich antritt) gleiches mit gleichem vergleichen. Also etwa beide CPUs/GPUs mit dem selben (etwa .x265) Codec vergleichen und nicht nur Geschwindigkeit von CPU-Version gegen Hardware-Encoder.
Das kann man machen, greift aber gern mal zu kurz.
Aber genau das meine ich doch: Diese ganzen "Beiträge" geben keinerlei Daten an, was da genau wie getan wurde. Und darauf will man schließen, dass Handbrake immer die bessere Qualität liefert? Weil die Dateien größer sind? Und wieso kann der OP nicht einfach selbst Beispiele liefern, sondern muss sich auf Aussagen irgendwelcher Forenbeiträge/Artikel? Einer davon ist aus 2012 und dürfte überhaupt keine Relevanz mehr haben.

Übrigens hat Blackmagic mit der neuen Version noch einen draufgegelegt:
https://www.youtube.com/watch?v=jLfnlfwxIXc&t=2s

Für den Fall, dass man nicht FCPX verwenden möchte. Und ich behaupte, man kann darauf, was selbst das mickrigste Air jetzt schon liefert, darauf gespannt sein, das die Nachfolger leisten werden.
0
cps13.09.21 22:27
Der HX90 bzw. der Hersteller wird gerade in verschiedenen Tests thematisiert und beide kommt dabei nicht wirklich gut weg.
-1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.