Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Blender: Version 3.1 mit Apples Metal-Engine ist fertig

Blender: Version 3.1 mit Apples Metal-Engine ist fertig

maculi
maculi10.03.2208:59

Apple ist im Oktober dem Blender Development Fund beigetreten, um die weitere Entwicklung der Anwendung mitsamt der Mac-Version zu unterstützen. Dadurch wird macOS zu einer vollständig von Blender unterstützten Plattform.
Und das jetzt auf dem Studio mit M1 Ultra, da kommt wohl keine Langeweile mehr auf.

Ich würde mich freuen, wenn hier Erfahrungsberichte geteilt werden würden. Ich selbst hab zwar mit 3D nichts am Hut, mich würde aber interessieren, wie sehr sich die Unterstützung durch Apple ausgewirkt hat.
+2

Kommentare

verstaerker
verstaerker10.03.2211:40
und mit macOs12.3 kommt der GPU support auch für Intel-Macs
+1
Gammarus_Pulex
Gammarus_Pulex10.03.2213:17
Also falls jemand eine Testszene bereitstellen kann, würd ich die mal mit dem M1 Max durchrendern lassen.
0
Megaseppl10.03.2213:28
Und endlich stürzt Blender beim Rendern über die GPU auch nicht mehr ab bei meinen Projekten
Was Performance betrifft liegt mein m1 Max allerdings noch weit hinter OptiX über meine RTX 3080 im PC. Das wird sich auch nicht ändern, da der m1 schlicht keine Raytracing-Hardware besitzt. Ich werde nachher mal benchmarken in wieweit der Unterschied zu OpenCL unter Windows noch besteht. Dieser Vergleich ist vermutlich fairer.
Positiv ist, dass das Macbook Pro beim reinen GPU-Rendern keine spürbaren Leistungseinbußen hat und man davon praktisch nix mitbekommt. Das buttert der einfach nebenher, der Lüfter wird nur am Ende ein wenig lauter wenn er das Post-Processing über die CPU rendert.
Gammarus_Pulex
Also falls jemand eine Testszene bereitstellen kann, würd ich die mal mit dem M1 Max durchrendern lassen.
Da bin ich mal gespannt wie der m1 Max gegenüber meiner 5700XT am i7 Mac mini abschneidet.
+1
Megaseppl10.03.2213:34
Weiß eigentlich jemand wie man die Tiles beim Cycles-Raytracing am idealsten konfiguriert?
Bei Windows gilt ja beim Rendering als Faustformel: Beim GPU-Rendering ein einzelnder großer Tile (ich nutze 1024x1024), beim CPU-Rendering: kleine Tiles in der Anzahl der Threads. Und beim Misch-Rendering gibt es keine Faustformel... da muss man bei jeden Projekt ausprobieren was sinnvoll ist (oder man die CPU gleich deaktiviert)
0
Dunkelbier10.03.2213:41
Gammarus_Pulex
Also falls jemand eine Testszene bereitstellen kann, würd ich die mal mit dem M1 Max durchrendern lassen.
Gibt es diverse zum Download auf Blender.org
+3
verstaerker
verstaerker10.03.2215:17
Dunkelbier
Gammarus_Pulex
Also falls jemand eine Testszene bereitstellen kann, würd ich die mal mit dem M1 Max durchrendern lassen.
Gibt es diverse zum Download auf Blender.org

genau .. man könnte z.B. die Barbershopscene hernehmen
0
timp
timp10.03.2216:18
Megaseppl
Weiß eigentlich jemand wie man die Tiles beim Cycles-Raytracing am idealsten konfiguriert?
Bei meinen Tests (MBP Pro Max) mit der Beta haben unterschiedliche Tile-Größe kaum einen Unterschied gemacht. Ach, und idealer als ideal gibts nicht
„Never argue with an idiot. He'll bring you down to his level and then beats you with experience.“
0
wolfgag
wolfgag11.03.2213:46
Gammarus_Pulex
Also falls jemand eine Testszene bereitstellen kann, würd ich die mal mit dem M1 Max durchrendern lassen.

Auf der Blender Homepage gibt es Beispielszenen zum Download. Probier doch bei Gelegenheit mal die hier:
https://download.blender.org/demo/cycles/flat-archiviz.blend
0
Gammarus_Pulex
Gammarus_Pulex11.03.2215:29
wolfgag
Auf der Blender Homepage gibt es Beispielszenen zum Download. Probier doch bei Gelegenheit mal die hier:
https://download.blender.org/demo/cycles/flat-archiviz.blend

Danke dir. Das 16" Book war zu keinem Zeitpunkt hörbar:

0
wolfgag
wolfgag12.03.2214:34
Danke dir. Das 16" Book war zu keinem Zeitpunkt hörbar:


[/quote]

Welches GPU Modell war das? 20 Minuten kommen mir noch etwas langsam vor, da wäre ein Windows Laptop mit nVidia Karte ca 5x so schnell (da föhnt dann allerdings der Lüfter auch ganz ordentlich).
0
Radioflo12.03.2214:59
Ja 20 Minuten GPU Rendering kommt mir auch sehr lang vor.
Mein iMac 2020 i7 mit CPU Rendering (MacOS12.2) braucht für die Szene 14 Minuten.

Wenn MacOS12.3 raus ist, teste ich das GPU Rendering mit der internen AMD Radeon Pro 5700 XT.
0
Gammarus_Pulex
Gammarus_Pulex12.03.2215:33
Ich hab das 16“ Book in Vollausstattung - mehr geht nicht.
0
verstaerker
verstaerker12.03.2216:15
Gammarus_Pulex
wolfgag
Auf der Blender Homepage gibt es Beispielszenen zum Download. Probier doch bei Gelegenheit mal die hier:
https://download.blender.org/demo/cycles/flat-archiviz.blend

Danke dir. Das 16" Book war zu keinem Zeitpunkt hörbar:


auf meinem MacPro mit 12 Core CPU
11:37
0
wolfgag
wolfgag13.03.2214:11
Gammarus_Pulex
Ich hab das 16“ Book in Vollausstattung - mehr geht nicht.
Könnte es sein, daß da noch der CPU Renderer voreingestellt ist (in der Szene)? Bei einem Kollegen ist das Gestern auf dem 16" Max bei gut 5 Minuten gelandet (was schon sehr ordentlich ist, ohne dezidierte GraKa).
+2
verstaerker
verstaerker13.03.2214:20
wolfgag
Gammarus_Pulex
Ich hab das 16“ Book in Vollausstattung - mehr geht nicht.
Könnte es sein, daß da noch der CPU Renderer voreingestellt ist (in der Szene)? Bei einem Kollegen ist das Gestern auf dem 16" Max bei gut 5 Minuten gelandet (was schon sehr ordentlich ist, ohne dezidierte GraKa).

dediziert

ich brings aber auch gern durcheinander
+2
Gammarus_Pulex
Gammarus_Pulex13.03.2214:22
verstaerker
dediziert

ich brings aber auch gern durcheinander

Ich auch
Und hier auf MTN wird man da durchaus mal gerne für angepampt, wie fehlerbehaftet man doch ist...
0
wolfgag
wolfgag13.03.2214:28
verstaerker
dediziert

ich brings aber auch gern durcheinander

Einer dieser Fehler, die ich mir einfach nicht abgewöhnen kann. Auf Englisch hab ich dagegen komischerweise noch nie “decidated” getippt
+1
Gammarus_Pulex
Gammarus_Pulex13.03.2214:33
Tatsächlich war nur die GPU aktiviert.



Jetzt mit beiden komm ich auf 05:42.
Und auch hier: Das Macbook ist nicht hörbar.
+2
maculi
maculi13.03.2214:38
Von 20 Minuten auf unter 6, das ist doch ordentlich. Und wieder mal zeigt es sich, das sich ein Blick in die Einstellungen ziemlich lohnen kann.
0
Gammarus_Pulex
Gammarus_Pulex13.03.2214:47
Da ich mit Blender keinerlei Erfahrung habe, ist das nicht weiter verwunderlich

Will mich da aber nun mal reinarbeiten.
0
wolfgag
wolfgag13.03.2215:15
Gammarus_Pulex
Tatsächlich war nur die GPU aktiviert.



Jetzt mit beiden komm ich auf 05:42.
Und auch hier: Das Macbook ist nicht hörbar.

Ok - das klingt schon deutlich besser
Das der Lüfter dabei nicht hochdreht ist allerdings wirklich sensationell. Wer noch ein MBP oder einen iMac mit intel CPU hat weiss ja wie laut das normalerweise wird...
+2
verstaerker
verstaerker13.03.2215:30
wolfgag
Gammarus_Pulex
Tatsächlich war nur die GPU aktiviert.



Jetzt mit beiden komm ich auf 05:42.
Und auch hier: Das Macbook ist nicht hörbar.

Ok - das klingt schon deutlich besser
Das der Lüfter dabei nicht hochdreht ist allerdings wirklich sensationell. Wer noch ein MBP oder einen iMac mit intel CPU hat weiss ja wie laut das normalerweise wird...

ja das fährt schon die Lüfter hoch wenn man in die Nähe des render buttons kommt
+3
verstaerker
verstaerker13.03.2215:31
Gammarus_Pulex
Tatsächlich war nur die GPU aktiviert.



Jetzt mit beiden komm ich auf 05:42.
Und auch hier: Das Macbook ist nicht hörbar.

Sehr cool !
Bin gespannt wie mein MacPro abschneidet .... evtl ist es ja schon Morgen Abend soweit für 12.3
+1
silversurfer2213.03.2216:02
53 Minuten für einen sehr betagten iMac 12.2, 3,4 GHz, auch ohne GPU Rendering, ist doch ganz iO ... für alles alltägliche reicht der "leider" noch immer völlig aus
0
maculi
maculi13.03.2216:20
Bei was für einem Lärmpegel?
0
silversurfer2213.03.2216:26
nach einer Komplettreinigung des iMacs letztens >10°C weniger Prozessortemperatur ... trotzdem natürlich reichlich Lüftergeräusch beim rendern / exportieren, zumal er nur max 75°C warm werden darf (GK ist deshalb noch TOP iO)

da das rendern nicht die Hauptaufgabe ist, sondern täglicher Bürokram oder selten mal HD Videos schneiden & exportieren, ist das Ganze völlig iO
+1
Gammarus_Pulex
Gammarus_Pulex13.03.2217:38
verstaerker
Bin gespannt wie mein MacPro abschneidet .... evtl ist es ja schon Morgen Abend soweit für 12.3

Gab's vor 12.3 tatsächlich keinen GPU Support?
0
verstaerker
verstaerker14.03.2208:43
Gammarus_Pulex
verstaerker
Bin gespannt wie mein MacPro abschneidet .... evtl ist es ja schon Morgen Abend soweit für 12.3

Gab's vor 12.3 tatsächlich keinen GPU Support?

nein ,lässt sich nicht einschalten



da steht
Currently supported on Apple M1 computers running macOS 12.2 or newer,
and Apple computers with AMD graphics cards running macOS 12.3 or newer.
+1
scheibe brot
scheibe brot14.03.2209:35
so, ich habe jetzt auch zum ersten mal überhaupt gerendert mit meinen betagten kleinsten 14er Macbkook Pro 2021 in der Grundausstattung, also das kleinste Modell und nach 3 Monaten besitzt,
habe ich zum erstmal überhaupt sowas wie ein rauschen vom Lüfter gehört, falls es überhaupt eins war
hier meine Zeit und man sollte sich wohl mal überlegen, ob man aufgrund der Zeit überhaupt zu gossen Modellen greifen muss...



ahja, habe auch die Beispielszene von Blender genommen.
+3
Gammarus_Pulex
Gammarus_Pulex14.03.2209:58
Hattest du auch GPU und CPU fürs Rendering ausgewählt?
0
scheibe brot
scheibe brot14.03.2210:02
ja!
+1
MetallSnake
MetallSnake14.03.2210:24
scheibe brot
hier meine Zeit und man sollte sich wohl mal überlegen, ob man aufgrund der Zeit überhaupt zu gossen Modellen greifen muss...

Also haben wir hier einen Vergleich zwischen dem kleinsten Pro und dem größten Max
Das heißt 14GPU Kerne gegen 32 GPU Kerne
Man könnte etwas mehr als eine Verdopplung der Leistung erwarten. Eure Tests zeigen etwas weniger als eine Verdopplung.
Eine 100% Skalierung ist unrealistisch, aber etwas mehr hätte man eigentlich schon erwarten können. Jetzt stellt sich die Frage, woran liegts?
„Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.“
0
timp
timp14.03.2210:29
MetallSnake
Eine 100% Skalierung ist unrealistisch, aber etwas mehr hätte man eigentlich schon erwarten können. Jetzt stellt sich die Frage, woran liegts?
Es gibt soooo viele Rendereinstellungen, die das Ergebnis beeinflussen können - das wäre die sprichwörtliche Suche nach der Nadel im Heuhaufen.
„Never argue with an idiot. He'll bring you down to his level and then beats you with experience.“
0
Gammarus_Pulex
Gammarus_Pulex14.03.2210:36
Also:

M1 Pro 16GB, 8 CPU Kerne, 14 GPU Kerne

gegen

M1 Max 64GB, 10 CPU Kerne, 32 GPU Kerne
0
Megaseppl14.03.2210:47

Ergebnis bei mir mit m1 Max, 24 GPUs bei der voreingestellten 2048er Tile-Size bei GPU+CPU-Cycles-Rendering.
Mit 1024er-Tiles war es 3 Sekunden schneller.
0
Gammarus_Pulex
Gammarus_Pulex14.03.2210:48
Tiles meint in Blender was genau?

Ich stell gerne mal ein was die Kenner für sinnvoll oder interessant erachten.
Ihr müsst mir nur sagen wo und was
0
Megaseppl14.03.2211:35
Gammarus_Pulex
Tiles meint in Blender was genau?
Die Tile Size definiert die Größe des pro Thread berechneten Bildbereichs. Im Projekt sind 2048x2048 eingestellt. Das ist eine für die GPU-Berechnung meist gute Größe. Für reine CPU-Berechnungen stellt man die meist kleiner, geht dann auch runter auf bis zu 64x64 Pixel. Bei einer Mischung von GPU+CPU, bei der jeder Kern der CPU wie auch die GPU jeweils ein eigenes Tile parallel berechnen, verwendet man meist einen Wert dazwischen. Hier ist vor allem wichtig, dass die langsamen CPU-Threads am Ende der Berechnung eines Bildes nicht die Gesamt-Rechenzeit ausbremsen und alleine noch zu lange rendern während die GPU und die anderen Kerne nix mehr zu tun haben. Da ist es natürlich besser eine kleine Tile-Größe zu wählen die dies verhindern kann.
Bei der Metal-Berechnung allerdings unterstützt die CPU die Berechnung des selben Tiles wie ihn die GPU berechnet. Da macht eine Verkleinerung weniger Sinn und für die GPU sind hier die Nachteile zu groß.
Ich stell gerne mal ein was die Kenner für sinnvoll oder interessant erachten.
Ihr müsst mir nur sagen wo und was
Für einen Benchmark würde ich gar nichts ändern, ansonsten wäre es ja nicht mehr vergleichbar. Bei eigenen Projekten ist das jedoch anders. Es gibt unzählige Parameter an denen man schrauben kann und muss, damit ein Rendering in akzeptabler Zeit durchgeführt werden kann. Das ist eigentlich immer eine Gradwanderung.
+3
Gammarus_Pulex
Gammarus_Pulex14.03.2211:41
Danke für die Erläuterungen
Und klar, hier ging's mir eher drum, ob man mit dem M1 Max noch mehr rausholen kann.

Ich gehe davon aus, dass das Endergebnis nicht zu unterscheiden ist je nachdem was man bei den Tiles einstellt sondern dass es lediglich die Redezeit verlängert oder verkürzt?
+1
verstaerker
verstaerker14.03.2212:03
Gammarus_Pulex
Ich gehe davon aus, dass das Endergebnis nicht zu unterscheiden ist je nachdem was man bei den Tiles einstellt sondern dass es lediglich die Redezeit verlängert oder verkürzt?

ja das sollte absolut identisch sein ... was im übrigen gerade bei GPU rendering nicht selbstverständlich ist

kannst du gerne ausprobieren , rendere ein bild mit 1024er size , eins mit 2048 und lege die Bilder dann mit Difference übereinander .
Im optimalen Fall sollte das Ergebnis 100% schwarz sein.
+2
Megaseppl14.03.2212:09
Gammarus_Pulex
Danke für die Erläuterungen
Und klar, hier ging's mir eher drum, ob man mit dem M1 Max noch mehr rausholen kann.
Außer durch die Konfguration einer Render-Farm vermutlich nicht wirklich.
Ich gehe davon aus, dass das Endergebnis nicht zu unterscheiden ist je nachdem was man bei den Tiles einstellt sondern dass es lediglich die Redezeit verlängert oder verkürzt?
Genau. Das Ergebnis ist hier identisch. Bei den anderen Werten ändert sich üblicherweise auch das Bild (zum Beispiel durch Änderung der Anzahl der Samples).

Der Sprung des m1 durch 3.1 und Metal-Rendering ist natürlich recht beeindruckend ggü. dem bisherigen CPU-Rendering.
Allerdings muss man auch ganz nüchtern sagen, dass der Mac trotzdem dadurch keine Render-Maschine wird.
Hier mal die Werte der gleichen Szene mit Rendering über eine RTX 3080 via CUDA:


Und noch schneller geht es mit OptiX (Raytracing auf dedizierten Kernen einer RTX GPU) auf dem gleichen PC:


Der Vorteil beim Mac ist der RAM. Denn dieser ist zugleich VRAM für die GPU. Bei meiner 3080 kann ich Szenen berechnen die im Speicher der Grafikkarte maximal 10GB groß sein dürfen. Bei einem m1 Max kann ich den kompletten freien RAM verwenden. Und für unterwegs ist der Mac endlich überhaupt für Blender einsatzbar abseits vom reinen Modellieren. Bisher war das reine CPU-Raytracing einfach indiskutabel.
+3
Gammarus_Pulex
Gammarus_Pulex14.03.2212:18
Die M1 Chips sind definitiv beeindruckend, ja. Aber natürlich nicht das Nonplusultra in allen Bereichen. Dennoch bin ich froh, dass ich jetzt eine konstante Leistung immer und überall habe: Im Saarland, in Berlin und dazwischen

Grade hat mir jemand UE4 als bessere Render Engine für Blender empfohlen. Kommt aber vermutlich wieder drauf an, was man eigentlich wofür rendern möchte.

Ich hab bisher nur Erfahrung mit Cinema 4D und Redshift.
+1
verstaerker
verstaerker14.03.2212:19
Megaseppl

Allerdings muss man auch ganz nüchtern sagen, dass der Mac trotzdem dadurch keine Render-Maschine wird.
Hier mal die Werte der gleichen Szene mit Rendering über eine RTX 3080 via CUDA:


der Test wird dann mit einem M1 Ultra spannend .. Apple behauptet ja der würde eine 3090 schlagen, was ich nicht glaube .. zumindest nicht für 3D rendering

es wird dann wohl auf 2:50 rauslaufen - hier könnte ein geringere Tilesize mehr herauskitzeln
+2
Megaseppl14.03.2212:30
verstaerker
der Test wird dann mit einem M1 Ultra spannend .. Apple behauptet ja der würde eine 3090 schlagen, was ich nicht glaube .. zumindest nicht für 3D rendering

es wird dann wohl auf 2:50 rauslaufen - hier könnte ein geringere Tilesize mehr herauskitzeln

Die Zeit halte ich auch für realistisch. Es kann aber auch sein, dass der Metal-Support noch weiter optimiert wird und auch auf den bisherigen Geräten noch fixer wird. Ich hätte mit weniger Unterschied zu CUDA gerechnet.

Da bei Metal nur ein Tile zur gleichen Zeit berechnet wird wird es geschätzt unterhalb von 512x512 wieder langsamer werden. GPUs mögen einfach lieber größere Tiles. Ist aber auch start projektabhängig.

Wenn heute oder morgen das macOS-Update kommt kann ich auch mal endlich mit meiner 5700XT eGPU am Mac mini rendern... da bin ich mal wirklich gespannt, wie da die Zeiten sein werden. Denn dann kann man die Metal-Implementierung auch leichter mit PCs mit der gleichen GPU unter OpenCL vergleichen und abschätzen in wieweit der Metal-Support noch verbessert werden kann.
0
maculi
maculi14.03.2212:43
Es mag zwar trotz allem leistungsfähigere Maschinen geben, nur sind die nicht mobil.
Ich vermute mal, der Stromverbrauch beim rendern sorgt dafür, das man im Akkubetrieb zusehen kann wie der Ladestand fällt? Hat mir zumindest neulich jemand in Bezug auf Cinema 4D erzählt, und bei Blender wird es wohl ähnlich sein. Dennoch, wer im Zug einen Platz mit Steckdose hat der kann auch ohne das sich die Mitreisenden beschweren (=> Lüfterlärm) die Zeit nutzen und den einen oder anderen Renderjob unterwegs erledigen. Das dürfte konkurrenzlos sein.
+1
verstaerker
verstaerker14.03.2212:52
Megaseppl
Da bei Metal nur ein Tile zur gleichen Zeit berechnet wird wird es geschätzt unterhalb von 512x512 wieder langsamer werden. GPUs mögen einfach lieber größere Tiles. Ist aber auch start projektabhängig.
ich bin noch von der alten Schule .. kenne mich mit GPU renderer noch nicht gut aus.
Echt nur ein Tile auf einmal ? Daran rendern dann alle cores?
Bei CPU verteilt man ja die Anzahl/Größe der Tiles möglichst so , das möglichst alle Cores die ganze Zeit beschäftigt sind.
Also bei nem 1024x1024 Bild , bitte keine 1024 Tilesize... sondern z.B. tilesize 256 für n 16 core Rechner (wäre das optimum)
0
Dunkelbier14.03.2213:12
Das Tolle ist doch: Man kann jetzt auf jeden Fall Testrenderings in akzeptabler Zeit und das ganze auch noch im Akkubetrieb im Falle eines MacBooks machen. Wenn es dann drum geht, die Animation durchzurechnen, dann packe ich das natürlich auf das richtige Werkzeug dafür. Der kann dann auch laut und einiges an Energie verpulvern. Ist dann halt so.

Es wäre natürlich spannend, in wie weit da drin der Fortschritt geht: Mehr Rechenpower bei gleichzeitig geringerem Energiebedarf. Und genau daran scheint ja Apple zu arbeiten. Und das ist es, was diese ganzen Trollen aus diversen Foren nicht kapieren: klar kann ich mir eine Hardware hinstellen, die x-mal so viel Power hat. Aber wir oft wird das wirklich gebraucht? Und wenn doch, dann hat man in der Firma ohnehin eine Infrastruktur dafür. Nur zum Modellieren und testen braucht es das nicht unbedingt.

Und deswegen finde ich Apple silicon als einen sehr großen Wurf.
+3
Dunkelbier14.03.2213:15
verstaerker
ich bin noch von der alten Schule .. kenne mich mit GPU renderer noch nicht gut aus.
Echt nur ein Tile auf einmal ? Daran rendern dann alle cores?
Bei CPU verteilt man ja die Anzahl/Größe der Tiles möglichst so , das möglichst alle Cores die ganze Zeit beschäftigt sind.
Also bei nem 1024x1024 Bild , bitte keine 1024 Tilesize... sondern z.B. tilesize 256 für n 16 core Rechner (wäre das optimum)
Blender berechnet jedes Tile, soweit ich weiß, auf einem eigenen Core, gleichzeitig. Je mehr Du davon hast, desto mehr Bums. Das lässt sich allerdings auch einschränken.
+1
verstaerker
verstaerker14.03.2213:23
Dunkelbier
Das Tolle ist doch: Man kann jetzt auf jeden Fall Testrenderings in akzeptabler Zeit und das ganze auch noch im Akkubetrieb im Falle eines MacBooks machen. Wenn es dann drum geht, die Animation durchzurechnen, dann packe ich das natürlich auf das richtige Werkzeug dafür. Der kann dann auch laut und einiges an Energie verpulvern. Ist dann halt so.

Es wäre natürlich spannend, in wie weit da drin der Fortschritt geht: Mehr Rechenpower bei gleichzeitig geringerem Energiebedarf. Und genau daran scheint ja Apple zu arbeiten. Und das ist es, was diese ganzen Trollen aus diversen Foren nicht kapieren: klar kann ich mir eine Hardware hinstellen, die x-mal so viel Power hat. Aber wir oft wird das wirklich gebraucht? Und wenn doch, dann hat man in der Firma ohnehin eine Infrastruktur dafür. Nur zum Modellieren und testen braucht es das nicht unbedingt.

Und deswegen finde ich Apple silicon als einen sehr großen Wurf.

volle Zustimmung:
immerhin käme ich mit einem M1 Ultra in den breach das ich zumindest kleine private Projekte zu hause rendern kann

so wie hier in dem Beispiel : das Bild dauert auf meinen MacPro 12 min ... würde ich damit eine Animation mit z.B. 1000 frames rendern wollen , müsste ich derzeit 8,3 Tage darauf warten ... mit nem M1 Ultra vermutlich nur 48h - das kann man dann schonmal machen
+2
Gammarus_Pulex
Gammarus_Pulex14.03.2213:31
Dunkelbier
Blender berechnet jedes Tile, soweit ich weiß, auf einem eigenen Core, gleichzeitig. Je mehr Du davon hast, desto mehr Bums. Das lässt sich allerdings auch einschränken.

Sprichst du hier von CPU oder GPU Cores?
0
Megaseppl14.03.2213:40
verstaerker
Megaseppl
Da bei Metal nur ein Tile zur gleichen Zeit berechnet wird wird es geschätzt unterhalb von 512x512 wieder langsamer werden. GPUs mögen einfach lieber größere Tiles. Ist aber auch start projektabhängig.
ich bin noch von der alten Schule .. kenne mich mit GPU renderer noch nicht gut aus.
Echt nur ein Tile auf einmal ? Daran rendern dann alle cores?
Japp. Und das ist offenbar auch auf dem PC mit OptiX und CUDA nun der Fall. Das war mit Versionen < 3.0 anders und hängt offenbar mit dem Wechsel von Cycles auf CyclesX zusammen. In Cycles hatte jeder (virtuelle) Kern einen eigenen Tile, jede GPU ebenfalls genau einen. Nun gibt es trotz aktivierter CPU nur einen Tile - und die CPU-Kerne sind auch tatsächlich voll ausgelastet.
Was die Beispielszene betrifft ist das Rendern mit aktivierter CPU unter Windows und OptiX allerdings langsamer als rein über die GPU. (etwa 1:07 statt 1:03) bei 2048er Tile. Eine 256er Tile hat die Zeit auf 1:30 bei der Verwendung von GPU + CPU hochgeschraubt.

Hier die Werte von CUDA nur GPU 2048er Tile: 01:27
und CUDA CPU+GPU bei 2048er Tile: 01:28
CUDA CPU + GPU 256er Tile: 01:57

Auch beim Mac kann man zumindest hier getrost auf das Mitwirken der CPU verzichten und erspart sich so Lüftergeräusche:
Nur GPU: 05:40
GPU + CPU: 05:39
Bei CPU verteilt man ja die Anzahl/Größe der Tiles möglichst so , das möglichst alle Cores die ganze Zeit beschäftigt sind.
Also bei nem 1024x1024 Bild , bitte keine 1024 Tilesize... sondern z.B. tilesize 256 für n 16 core Rechner (wäre das optimum)
So wie es das aussieht gilt das für Blender ab Version 3.0 nicht mehr. Ich hab mit der 3er tatsächlich noch nicht so viel gemacht (und rendere sowieso immer nur mit einem Tile über OptiX), daher ist mir das nie aufgefallen.
+1

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.