Forum>Software>Cinema 4D GPU-Renderer gesucht

Cinema 4D GPU-Renderer gesucht

Gammarus_Pulex
Gammarus_Pulex11.04.1915:26
Hallo zusammen,

ich hab mich jetzt schon ein wenig in den Octane for Cinema 4D Renderer eingearbeitet, störe mich aber immernoch dran, dass ich diesen nicht mit meinem 2013er Mac Pro nutzen kann. Da muss dann immer der Windows Rechner unterm Tisch ran (GTX 960 4GB).

Da der 6-Kerner des Mac Pro nicht wirklich effizient ist beim CPU-Rendern... mal die Frage: Welchen Renderer nutzt ihr im Alltag und welche GPU-basierten arbeiten sowohl mit CUDA als auch AMD Karten?

Gerne mal mit Vor- und Nachteilen in eurem Schaffen – ich suche halte eine Allroundlösung für den Anfang.
Spezifische Anwendungsgebiete müssen sich erst noch ergeben.


Danke euch

Grüße
Oliver
0

Kommentare

ahs11.04.1916:47
Ich betreibe 3D nur als Hobby mit Cinema 4D Release 20. Mein Rechner ist ein MacPro 2013 (Dual FirePro D700). Als eGPU diente bis macOS 10.13.x eine GTX 980ti Hybrid (6 GB VRAM). Als Renderer benutzte ich Thea (CUDA). Diese Software unterstützt keine AMD-Karten.

Nach dem Update auf 10.14.x dient nun eine AMD Vega 64 (8 GB VRAM) als eGPU. Ich benutze nun den ProRender von Cinema 4D. Damit rendern dann je nach Voreinstellung in Cinema 4D alle drei AMD-Karten gleichzeitig. Dabei kommt es aber bisweilen zu Abstürzen. Die Vega 64 alleine ist kein Problem.

Allerdings musste ich inzwischen feststellen, dass selbst 8 GB VRAM für große Projekte nicht reichen.
Dies gilt aber genauso beim Rendern mit Thea und der 980er.

Der ProRender von Cinema 4D wird durchaus kontrovers diskutiert. Aber mir reicht er momentan (Hobby...).
+1
Stresstest11.04.1917:54
ahs
Allerdings musste ich inzwischen feststellen, dass selbst 8 GB VRAM für große Projekte nicht reichen.
Dies gilt aber genauso beim Rendern mit Thea und der 980er.

Wie ist das eigentlich beim VRAM wenn der zu klein ist? Die GPU lagert dann aus? Irgendwo in den RAM, irgendwo auf die HDD/SSD?
Oder wie zeigt sich dass dann technisch?
+1
verstaerker
verstaerker11.04.1918:22
eigentlich ist ProRender der einzige mir bekannte Render für AMD-GPUs
dessen Feature-Liste ist überschaubar.. mag aber für Hobbyzwecke reichen

eigentlich wäre es cool wenn da Apple mal investieren würde.. aber das wird wohl eher nicht passieren
+1
becreart
becreart11.04.1918:23
Als Render Engine verwenden wir VRay
-1
verstaerker
verstaerker11.04.1918:25
Stresstest
ahs
Allerdings musste ich inzwischen feststellen, dass selbst 8 GB VRAM für große Projekte nicht reichen.
Dies gilt aber genauso beim Rendern mit Thea und der 980er.

Wie ist das eigentlich beim VRAM wenn der zu klein ist? Die GPU lagert dann aus? Irgendwo in den RAM, irgendwo auf die HDD/SSD?
Oder wie zeigt sich dass dann technisch?

tatsächlich ist das dann eher so das es einfach nicht funktioniert... der einzige Renderer der sowas kann (Auslagerung in Ram) ist RedShift.. leider auch nur für Cuda ... aber evtl kommt da mit der 3.x und durch den Aufkauf durch Maxon Bewegung und man darf auf eine Unterstützung für Metal hoffen(da Cinema in der Mac-Welt recht verbreitet ist)
+1
verstaerker
verstaerker11.04.1918:27
becreart
Als Render Engine verwenden wir VRay
man darf auch gern auf die Fragestellung eingehen ... wir rendern mit Arnold, aber das nicht hilfreich
0
Gammarus_Pulex
Gammarus_Pulex11.04.1918:50
Waren vRay und Arnold nicht CPU-basiert?
0
verstaerker
verstaerker11.04.1919:11
Gammarus_Pulex
Waren vRay und Arnold nicht CPU-basiert?

ja genau ...beide bieten mittlerweile auch GPU Unterstützung.. aber so ganz Produktionsreif ist das nur sehr bedingt
+1
Gammarus_Pulex
Gammarus_Pulex11.04.1919:17
Also gibt es tatsächlich keinen aktuellen Renderer, der beide GPU Sorten sinnvoll nutzen kann?
0
RonniRoyaL
RonniRoyaL11.04.1921:29
Fürs GPU Rendering kann ich leider nur empfehlen, Windows zu nutzen. Die Alternative ist ein Classic MacPro, aber ab Mojave gibt es keine nVidia Treiber mehr. Als Renderer kann ich Redshift empfehlen, erst recht seit der Übernahme durch Maxon. Ansonsten Octane oder Arnold falls es auch unbiased sein darf.
+2
Gammarus_Pulex
Gammarus_Pulex11.04.1923:37
Hmm... Redshift weil?

Stolper da in letzter Zeit öfter drüber, aber das ganze Thema ist so komplex, dass Vergleiche echt schwierig sind.
Was mit an Octane gefällt, ist die superflotte "Echtzeit"vorschau.
0
RonniRoyaL
RonniRoyaL12.04.1908:45
Redshift ist quasi genauso schnell. Hab ebenfalls bis jetzt mit Octane gearbeitet und bin nun am Redshift lernen. Mit Redshift bist du flexibler. Da es biased ist, kannst du wie von C4D Internen Renderern gewohnt, z.B. einzelne Lichter, Schatten, Reflexionen von Objekten exkludieren bzw. inkludieren. Musst mal googeln dazu, war für mich ein Hauptgrund umzusteigen.
+1
verstaerker
verstaerker12.04.1909:10
Gammarus_Pulex
Hmm... Redshift weil?

Stolper da in letzter Zeit öfter drüber, aber das ganze Thema ist so komplex, dass Vergleiche echt schwierig sind.
Was mit an Octane gefällt, ist die superflotte "Echtzeit"vorschau.

Octane ist für unsere Produktionszwecke echt furchtbar ... es fehlen viele Features und er ist schon ziemlich unzuverlässig. Große scenes sind schlicht nicht renderbar.
Redshifts großes Plus ist das er eben auch den Ram nutzen kann. Mittlerweile ist der zu nem echten Produktionsrenderer herangewachsen.

Arnold ist auch großartig.Damit rendern wir schon seit Jahren unsere Projekte. GPU Unterstützung steckt noch in den Kinderschuhen und dank Autodesk ist er recht teuer geworden.
0
wolfgag
wolfgag12.04.1909:36
Gammarus_Pulex
Also gibt es tatsächlich keinen aktuellen Renderer, der beide GPU Sorten sinnvoll nutzen kann?
Cycles - aber da funktioniert OpenCL auch nur mit Einschränkungen, sowohl was Features als auch Geschwindigkeit angeht. Leider kommt man bei dem Thema um CUDA einfach nicht herum - was mittelfristig wohl leider bedeutet, das Mac User komplett aussen vor bleiben.
Meine letzte Hoffnung ist jetzt, daß Maxon es irgendwie schafft, eine Redshift Version für den Mac zu entwickeln. Da die sich beim Thema Renderer aber bisher nicht unbedingt mit Ruhm bekleckert haben, bin ich nicht sonderlich optimistisch.
0
verstaerker
verstaerker12.04.1910:19
wolfgag
Cycles - aber da funktioniert OpenCL auch nur mit Einschränkungen,

bei meinem Test an nem MBP und Mini mit eGPU lief das deutlich langsamer als mit CPU
0
Gammarus_Pulex
Gammarus_Pulex12.04.1912:14
verstaerker
bei meinem Test an nem MBP und Mini mit eGPU lief das deutlich langsamer als mit CPU

Also ich hab Cinema 4D mal mit hauseigenen CPU Renderern 36 Stunden rendern lassen und das unfertige Ergebnis war nicht annähernd so gut wie Octane mit der GTX 960 nach 10 Minuten Fertigstellung...

Dabei ist es egal, ob's der 6-Kerner des Mac Pros oder der i7 5820K 6-Kerner ist... ar***lahm
0
verstaerker
verstaerker12.04.1912:23
Gammarus_Pulex
verstaerker
bei meinem Test an nem MBP und Mini mit eGPU lief das deutlich langsamer als mit CPU

Also ich hab Cinema 4D mal mit hauseigenen CPU Renderern 36 Stunden rendern lassen und das unfertige Ergebnis war nicht annähernd so gut wie Octane mit der GTX 960 nach 10 Minuten Fertigstellung...

Dabei ist es egal, ob's der 6-Kerner des Mac Pros oder der i7 5820K 6-Kerner ist... ar***lahm

das von mir erwähnte war auch ein Cycles und Blender exklusives Problem, keine generelle Aussage über GPU renderer
0
Mapache12.04.1912:47
Welcher Renderer am Besten ist, das hängt natürlich stark vom Anwendungszweck und der Hard- und Softwareumgebung ab. Größe der Szene, Komplexität der Shader, gewünschter Look, vorhandene Hardware, welches Betriebssystem, Renderfarm, ...
0
Gammarus_Pulex
Gammarus_Pulex12.04.1912:57
Mapache
Hard- und Softwareumgebung

Mac Pro 2013 • 6-Kern • D500 3GB • 64GB Ram • 512GB SSD
Win10 • i7 5820K 6-Kern • GTX 960 4GB • 64GM DDR4 Ram • 1TB SATA SSD

Beide Systeme auf dem neusten Stand und mit Cinema 4D Studio R20


Bisher beschränkt sich mein Anwendungsgebiet auf Teile, die ich in Photoshop dann reinretuschiere (Compositings).
0
DERJUNG12.04.1918:37
ich nutze auch redshift als standard in meinem Produktionsalltag. läuft von den gpu rendern am stabilsten. als rechner habe ich einen classic mac pro 5,1. 2x 1070 drin und eine amd wx 4100 für updates oder sonstiges falls mal nvidia treiber nicht gehen. sehe es genau so, es gibt für mac keinen gpu render der wirklich gut ist auf amd karten. cuda basiert ist einfach flotter. indigo render kann auch gpu ist auf open cl basis. man wird leider abwarten müssen wie sich das mit metal2 wird ohne open cl und open gl in der nächsten betriebssystem version entwickelt. werde aber auch auf pc wechseln bzw. arbeite ich teilweise schon um mich mit windows anzufreunden.
+3
druid13.04.1909:59
Kann mich den Vorrednern nur anschließen: Beim aktuellen Stand der Entwicklung – insbesondere den fehlenden Treibern fürs aktuelle MacOS für CUDA-Karten – kannst du eigentlich nur mit ProRender arbeiten (und dessen Einschränkungen), auf eine Metal-Anpassung von Redshift hoffen (nach der Übernahme, wird wenn dann aber noch einige Zeit dauern) oder zumindest für 3D und GPU-Rendering einen PC anschaffen. Stehe vor demselben Schritt, bin aber breit aufgestellt (mache auch reichlich nicht-3D) und kann das jobtechnisch daher noch bis Mitte des Jahres strecken – in der letzten Hoffnung auf ein paar handfeste Ankündigungen seitens Apple. Ansonsten wars das. Nach 20 Jahren Mac.
+1
druid13.04.1910:00
Von "anfreunden" kann da bei mir allerdings keine Rede sein.
0
verstaerker
verstaerker13.04.1910:18
privat und teilweise beruflich nutze ich meine Macs... in der Firma , wo wir hauptsächlich 3D Animationsfilme produzieren, gibts Macs nur fürs Editing
ich kann derzeit auch wirklich keinen Grund finden warum man für 3D auf nem Mac arbeiten sollte
1. Windows 10 funktioniert
2. custom-build Windows-PC sind einfach deutlich günstiger - als Firma muss man stark auf Wirtschaftlichkeit achten
3. Macs bieten keinen mir ersichtlichen Mehrwert in der Produktion

es wäre schön wenn Apple nicht nur einfach so einen modularen MacPro vorstellt, sondern auch eine Lösung wie man mit nem Mac wieder in allen professionellen Feldern arbeiten kann und auch einen wirklichen Mehrwert hat.
Der kann in dem Bereich nur darin liegen ,das die Geräte zuverlässiger,leistungsfähiger, zukunftssicherer als existierende Lösungen sind. Das dürfte schwer erreichbar sein.
0
druid13.04.1912:19
Der Grund bei mir ist eher – ich möchte als Freelancer nur eine Maschine verwalten, evtl. noch ein Backup (aber ein zumindest bauähnliches, das ich dann mit CCC bestücken kann). Dafür bin ich auch bereit einen Aufpreis zu zahlen. Schaffe ich jetzt nur für 3D einen PC an, habe ich schon zwei bzw. eigentlich vier, denn ich bräuchte ja auch für den PC ein Backup. Aber ich möchte wirklich ungern mit sehr breitem Spektrum auf PC arbeiten. Für eine Aufgabe sind die Dinger relativ stabil, je mehr verschiedene Dinge ich in ein System frachte – meiner Erfahrung nach – je eher wird auch Windows 10 instabil, zumindest instabiler als MacOS (das diesbezüglich natürlich auch nicht perfekt ist). Also etwa Print mit Kalibrierung, Schnittplatz und 3D-GPU-Maschine.
0
DERJUNG13.04.1916:54
Nun, möchte man auf einem Mac mit Cinema bleiben, würde ich eher den corona render jedem ans Herz legen. Der ist cpu basiert aber wirklich flott dafür. Echtzeitvorschau geht auch gut. Node System wie bei octane und Redshift. Also ein aktueller iMac mit ordentlich Kernen kann durchaus als Allrounder gesehen werden.
+2
Gammarus_Pulex
Gammarus_Pulex14.04.1919:19
Naja, den Windows Rechner hab ich ja und würde ihn auch über kurz oder lang mit ner stärkeren Grafikkarte aufrüsten – wobei die 960 4GB zumindest mit Octane echt schon superflotte Ergebnisse liefert im Vergleich zum CPU Rendern.
Der Gedanke war, ob es einen Renderer gibt, den ich auf beiden System nutzen kann, da mein Hauptrechner der Mac bleibt.

Seh ich das richtig, dass man Redshift einmal kauft und dann Ruhe hat?
0
DERJUNG15.04.1914:28
Redshift kaufen: Ja, man hat dann eine Lizenz. Möchte man aktuell bleiben kann man jedes Jahr eine Maintenance gebühr von ca. 250 euro zahlen. Ansonsten bleibt man nach dem einen Jahr einfach auf der Version hängen.
+2
Gammarus_Pulex
Gammarus_Pulex15.04.1914:37
Danke dir.
Für genau sowas hab ich die Abo Dienste anderer Softwareanbieter liebgewonnen...

Ich konnte bisher keinen Hinweis bei Redshift finden... kann ich die Lizenz auf dem Desktop und auf dem Mobilrechner installieren und nutzen?
0
wolfgag
wolfgag15.04.1919:58
Gammarus_Pulex
Danke dir.
Für genau sowas hab ich die Abo Dienste anderer Softwareanbieter liebgewonnen...

Ich konnte bisher keinen Hinweis bei Redshift finden... kann ich die Lizenz auf dem Desktop und auf dem Mobilrechner installieren und nutzen?
Die normale Lizenz von Redshift ist node locked - d.h. man kann sie erst mal nur auf einem Rechner nutzen. Es gibt auch floating licenses aber ich glaube nur für Kunden mit mindestens fünf Lizenzen, ausserdem kosten die dann mehr. (Auf einem Macbook nützt Dir Redshift aber ja eh nur in Verbindung mit einer Thunderbolt Box).
Da die jetzt von Maxon gekauft wurden, kann man aber vermutlich mit einer baldigen Änderung des Lizenmodells rechnen - mit etwas Glück ist Redshift zukünftig bei der Studio Version von Cinema inklusive (das ist jetzt allerdings reine Spekulation).

Wenn Du Software lieber abonnierst wäre Corona vielleicht wirklich das richtige für Dich (das kann man nämlich wiederum nicht kaufen) und ist in Bezug auf MacOS zumindest erstmal relativ zukunftssicher, weil CPU basiert.
+1
Gammarus_Pulex
Gammarus_Pulex15.04.1920:50
Mein Mobilrechner ist aktuell ein Wacom MobileStudio, also Windows 10 basiert.

CPU Renderer will ich ehrlich gesagt nicht, es sei denn, er ist um Welten schneller als die Cinema-internen.
Die sind sowohl auf dem Mac Pro als auch auf dem Desktop Windowsrechner ar***lahm...

Mit den Lizenzen muss ich wohl mal direkt nachhaken, möcht ungern zwei kaufen müssen nur damit ich auch mobil arbeiten kann.
0
DERJUNG15.04.1923:04
bei redshift kann man die node locked auf einem rechner aktivieren. wenn man sie auf dem anderen rechner nutzen möchte, muss der erste rechner erst deaktiviert werden. dann kann man sie auf dem anderen wieder aktivieren. mache ich ständig. wenn ich zwischen home office und arbeit wechsel. ist ähnlich wie bei octane. dort kann man sich auch anmelden und abmelden.
+2
Gammarus_Pulex
Gammarus_Pulex15.04.1923:57
Super, danke dir.
Das reicht mir schon

Dann schau ich mir wohl mal Redshift genauer an – Tipps für den Einstieg?
0
verstaerker
verstaerker16.04.1909:04
+1
DERJUNG16.04.1909:40
Ja, das von dem Gorilla Habe ich auch. Ist gut. geht aber auch so: https://www.redshift3d.com/support/video_tutorials#category- cinema-4d
+1
Gammarus_Pulex
Gammarus_Pulex16.04.1910:15
Nice!
Werd ich mir mal zu Gemüte führen und hoffentlich erstmal meinen Renderer gefunden haben.

Mit welcher Rechner Konfiguration nutzt ihr Redshift?
0
DERJUNG16.04.1912:19
Wie gesagt Mac Pro 5,1 (aus 2010) 2x GTX 1070 (8GB), 32 GB Ram, 2x 3,46 GHz 6-Core Intel Xeon. System HighSierra – Mojave und aufwärts bietet keine Nividia Grafik und Cuda treiber mehr. Das heißt ich bleibe vorerst auf HighSierra sitzen. Darüber sollte man sich im klaren sein auf OSX.
Windows PC, 4x GTX 1080, 64 GB ram, glaube Xeon 3,2 (4 kern ist meiner meinug zu schwach...), bin gerade nicht daran.
+1
Gammarus_Pulex
Gammarus_Pulex16.04.1912:57
Ja, über Mac Systeme brauche wir da nicht reden... schade, aber wahr.

4 1080er? Ok... das Ding übertrifft den 5.1er Mac Pro defintiv beim Stromverbrauch
0
wolfgag
wolfgag16.04.1913:18
Gammarus_Pulex
Mit welcher Rechner Konfiguration nutzt ihr Redshift?
Jetzt gerade ne Dose mit 3,5 GHz i7 & 4x GTX 970, zuhause ne 12x 3,46 GHz Käsereibe mit nur einer GTX 1080 (da allerdings mit Octane).

Für die normalen C4d Renderer lohnt es sich übrigens auch, sich mal tiefergehend mit den Rendereinstellungen zu beschäftigen - die sind zwar grundsätzlich keine Raketen im Vergleich zu GPU Renderern, aber mit den richtigen Einstellungen und einem entsprechenden Licht Set-up (nix GI!) haben die schon auch ihre Vorteile (keine RAM Limitierung, billiges Netzwerk Rendern, biased, nicht realistische Looks wie sketch & toon). Man darf da halt auf keinen Fall den Fehler machen einfach alle Checkboxen anzuklicken - dann wirds tatsächlich unbenutzbar langsam.
+1
verstaerker
verstaerker16.04.1918:22
wolfgag
entsprechenden Licht Set-up (nix GI!)
[/quote]

puh.. wir haben 2019 , das ist Qualitäts-Standard

mit Arnold find ich das auch auf ner CPU recht flott
0
wolfgag
wolfgag16.04.1919:30
verstaerker
puh.. wir haben 2019 , das ist Qualitäts-Standard

mit Arnold find ich das auch auf ner CPU recht flott
Das richtet sich halt immer nach dem zur Verfügung stehenden Renderer. Ich arbeite oft für Agenturen die nur die Studio Version ohne irgendwelche Plug-Ins benutzen und dann leuchte ich halt meine Szene von Hand so, daß sie gut aussieht und erträglich schnell rendert. Vieles fake ich auch einfach im Comp, daß spart dann nochmal extrem viel Zeit.

Wenn ich manchmal bei Praktikanten oder Studenten sehe, mit was für Einstellungen die Arbeiten und wie lange der Scheiss dann rendert, rollen sich mir die Zehennägel hoch. Die verwenden GI auch für komplett abstrakten Motion Design Kram, den ich in weniger als einem Zehntel der Zeit, mit dem gleichen Look gerendert bekomme.
0
verstaerker
verstaerker16.04.1919:33
wolfgag
Wenn ich manchmal bei Praktikanten oder Studenten sehe, mit was für Einstellungen die Arbeiten und wie lange der Scheiss dann rendert, rollen sich mir die Zehennägel hoch. Die verwenden GI auch für komplett abstrakten Motion Design Kram, den ich in weniger als einem Zehntel der Zeit, mit dem gleichen Look gerendert bekomme.

wir haben super Studenten von den Hochschulen. Kreativ und motiviert.
Aber wenn mal was nicht geht , sind se verloren. Fehlen halt die Grundlagen der Technologie.
0
wolfgag
wolfgag16.04.1920:18
verstaerker
Fehlen halt die Grundlagen der Technologie.

Deswegen empfahl ich ja auch sich etwas tiefergehender mit der Software zu befassen. Wenn dazu noch ein bisschen Wissen über Fotographie und Licht kommt, kann man ziemlich viel Zeit (und Geld) sparen.
Auf ne Art profitiere ich da wohl heute noch von der arschlangsamen Hardware, auf der ich in den Neunzigern animieren musste - mit 50 MHz hat man sich halt bei jedem Licht noch genau überlegen müssen, ob das jetzt wirklich Schatten werfen muss.
#GeschichtenausdemKrieg
+2
verstaerker
verstaerker16.04.1922:26
wolfgag
#GeschichtenausdemKrieg

ich hab schon mit 7,09 MHz gerendert!
+1

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.