Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Mac Pro mit Grafikkarten – Zukunftsmusik, aber wohl in Arbeit

Einer der Gründe, warum die Performance der M1-Chips so derart erstaunen konnte, war das Speicherkonzept. Apple setzt auf "Unified Memory", was bedeutet, dass GPU und CPU auf dieselben Speicherbereiche zugreifen können. Kopieren über den langsamen Bus entfällt damit, was beispielsweise bei dem früher eingesetzten Intel-Grafikchipsatz bzw. bei PCI-Grafikkarten der Fall ist. Gleichzeitig endete damit aber die Ära externer Grafikkarten ("eGPUs") für Apple wieder, denn dies ist mit der aktuellen Bauweise unvereinbar. Ein M-Chip setzt auf seine eigenen Grafikkerne – und zwar nur auf diese. Angesichts zahlreicher Berichte gilt es als außerordentlich unwahrscheinlich, dass Apple beim kommenden Mac Pro anders agiert. Mehr Grafik-Power gibt es auch dann nur durch den Einsatz von mehr GPU-Kernen, nicht jedoch durch handelsübliche Highend-Grafikkarten.


Dedizierte Grafikkarten haben andere Stärken
Es ist allerdings nicht so, dass Apples Ansatz in jeder Konstellation Vorteile bringt. Wie verschiedene Benchmarks zeigen, gibt es noch einen weiten Weg zu gehen, um es mit der Performance der leistungsstärksten Grafikkarten auf dem Markt aufzunehmen. Diese haben zwar den Nachteil der eingangs beschrieben Speicheranbindung, setzen dafür aber auf massiv schnelleren Speicher – vor allem Fillrate-intensive Aufgaben sind auf Apples Chips dadurch weit unterlegen. Der Einsatz von dediziertem Grafikspeicher anstatt des bisherigen RAMs wäre hingegen extrem teuer, vor allem in den höheren Ausbaustufen.

Apple forscht an Mehrfach-GPUs
Wie Apple in mehreren Patentschriften dokumentiert, gibt es allerdings durchaus Bestrebungen, an der Unterstützung von Grafikkarten zu arbeiten. Dazu wäre es erforderlich, schnell zwischen den jeweiligen Grafikchips hin- und herzuschalten, je nachdem wer für den aktuellen Anwendungsfall die bessere Leistung bietet. Ein grob ähnliches Vorgehen kannte man schon von Intel-basierten Macs, welche sowohl den integrierten Grafikchip als auch eine Grafikkarte aufwiesen.

Es ist komplex, Architekturen zu mischen
Allerdings ist es ein technisch wesentlich komplexeres Unterfangen, selbiges bei der aktuellen Architektur vorzunehmen – immerhin schaltet man nicht nur auf einen anderen Grafikchip um, sondern auf eine gänzlich andere Funktionsweise. Während der integrierten GPU direkt alle Daten im Speicher zur Verfügung stehen, müsste die Grafikkarte wieder vergleichsweise langsame Kopiervorgänge anstrengen. Apples Ansatz sieht eine Logik vor, die bestimmte Tasks gruppiert, um dann Aufgaben an mehr als eine GPU zu verteilen. Weitere Routinen kümmern sich darum, die Daten dann wieder aus dem Grafikspeicher zurückzuerhalten, wie Apple im Patent "Software Control Techniques For Graphics Hardware That Supports Logical Slots" schildert.

Kommentare

Gammarus_Pulex
Gammarus_Pulex17.02.23 13:09
Man darf gespannt sein, wann sie einer 4090 etwas entgegen zu setzen haben.
Klar, ist die RTX im Vergleich zu allem was Apple derzeit an Grafiklösungen zu bieten hat, ein Energieverbrenner sondergleichen. Aber in manchen Szenarien benötigt man halt einfach Grafikperformance. Und da stinkt derzeit jede Apple Silicon GPU Lösung einfach ab.
+5
Fedora17.02.23 13:13
Forschen können sie, wird aber nicht kommen vermute ich.
Vor allem nicht durch Nvidia und vermutlich auch nicht durch AMD.

Da wird es eher so etwas werden
+1
gfhfkgfhfk17.02.23 13:41
nVidias NVLink ist schneller als die Speicheranbindung bei allen Apple M Chips außer dem M1 Ultra. Bei x86-64 Systemen wird es meist nur als Kopplung zwischen den GPUs genutzt, bei IBM POWER Server kann man darüber direkt mit der GPU kommunizieren. AMD ist dabei vergleichbares auf den Markt zu bringen, und das wird dann eine direkte Kopplung von AMD CPUs und GPUs beinhalten.
+8
MacKaltschale17.02.23 14:24
Ich verstehe nicht, wieso das momentan nicht möglich sein soll. Eine Grafikkarte wird, wie jede andere Peripherie, durch einen Treiber angesprochen, PCIe ist bei den M-Systemen vorhanden, sonst hätten sie kein Thunderbolt. Entprechend kann man mit diesen Geräten vollkommen problemlos jede Grafikkarte der Welt ansprechen, wenn man einen Treiber für diese schreibt. Dass die integrierte GPU sich den Speicher teilt und damit ein anderes Konzept verfolgt, hat doch rein gar nichts mit der möglichen Verwendung anderer GPUs zu tun. Das ist eine reine Softwarefrage. Zumindest bei Anschluss des Bildschirms an die Grafikkarte, was der Regelfall bei eGPUs ist. Es ist einfach nur Apples Wille, dass Grafikkarten auf M-Systemen nicht genutzt werden können.

Vielleicht kenne ich mich aber auch nicht ausreichend aus, ich schreibe nur Shader und keine Treiber. Aber wenn Grafikkarten nicht gehen, dann Frage ich mich ernsthaft, welcher Voodoo bei andere Thunderbolt-Peripherie abläuft.
-3
Mendel Kucharzeck
Mendel Kucharzeck17.02.23 14:43
MacKaltschale
Ganz so trivial wie du es schilderst ist es leider nicht. Momentan hat Apple bei Apple Silicon aus Hard- und Software-Perspektive eine sehr saubere Architektur mit einem komplett einheitlichem Adressraum – dies würden sie aufgeben, wenn sie Unterstützung für GPUs mit dediziertem VRAM integrieren.

Ferner ist auch die Software-Seite komplex, besonders wenn mehrere GPUs unterschiedlicher Bauart in einem System werkeln. Wenn du selbst Shader schreibst, bist du dir ja darüber bewusst, dass manche GPU-Bauarten manche Datentypen nicht unterstützen und andere schon. Willst du z.B. die dedizierte GPU für eine komplexe Berechnung nutzen, um diese dann mittels der integrierten GPU weiterzuverarbeiten (beispielsweise darzustellen), musst du eine Datenorganisation verwenden, mit welchen beide GPUs zurechtkommen – das ist ein erheblicher Aufwand.

Apples Wille, von dem du schreibst, ist es, eine möglichst einheitliche Hardware-Plattform über alle Mac-Modelle (und auch iPhones, iPads) zu bieten. Unified Memory hat in sehr vielen Fällen gigantische Vorteile – besonders, wenn es die gesamte Apple-Welt einsetzt.
+15
anaximander17.02.23 16:18
@Mendel

Am Ende zählt für den Nutzer die Leistung des Gesamtsystems, weniger wie ausgeklügelt die Systemarchitektur ist.
-1
Mendel Kucharzeck
Mendel Kucharzeck17.02.23 16:37
anaximander
Nicht ganz. Beispiel: Die Playstation 3 war mit dem Cell-Prozessor extrem leistungsfähig – nur halt sau schwer zu programmieren. Ende der Geschichte war, dass viele Entwickler die leistungsstarken Zusatzkerne nicht verwendet haben, weil es einfach zu kompliziert war.

Apple hat aktuell die Chance, dass alle Macs die gleiche Systemarchitektur mitbringen und somit aus Software-Sicht keine Spezialanpassungen für einzelne Modelle notwendig sind. Ferner verhalten sich alle Apple-GPUs bezüglich der Grafikschnittstelle Metal gleich/ähnlich – zuvor war dies so IRRE nervtötend, weil jede GPU in vielen Aspekten unterschiedlich reagiert hat.
+7
anaximander17.02.23 18:40
@Mendel

Gutes Argument. Ich modifiziere dann meine Aussage: Den Nutzer interessiert am Ende die Leistung, die er tatsächlich in der Praxis bekommt.
+5
ideal18.02.23 10:05
es gibt auch User, die Performance benötigen, und sich kaum für das Innenleben interessieren.
+2
Weia
Weia18.02.23 13:39
ideal
es gibt auch User, die Performance benötigen, und sich kaum für das Innenleben interessieren.
Ja, aber wieviel Prozent beziehungsweise besser Promille von Apples Nutzerbasis sind das?

Wenn man für diese Klientel mit eventuell hohem Aufwand die Systemarchitektur entsprechend erweitern kann, fein; den hohen Aufwand zahlt diese Klientel dann halt mit einem entsprechenden Aufpreis und der Rest von Apples Nutzerbasis ist nicht betroffen. Aber wenn das nur mit einer Veränderung und nicht Erweiterung der Systemarchitektur möglich ist, mit anderen Worten, wenn Vorzüge für die gesamte restliche Nutzerbasis durchlöchert werden (Stichwort: konsistentes Verhalten der API), dann ist es unter dem Strich möglicherweise besser, dass die wenigen Nutzer mit den hohen Spezialanforderungen im Regen stehen bleiben.

NB: Ich habe meine Mac Pros wegen des sauberen Innenlebens gekauft; Grafikleistung ist mir reichlich schnuppe und für Normalsterbliche ist sie in Apples M-Prozessoren ja wohl im Übermaß vorhanden.
🦖The dinosaurs invented Jesus to test our confidence in science
+2
gfhfkgfhfk18.02.23 14:42
Mendel Kucharzeck
MacKaltschale
Ganz so trivial wie du es schilderst ist es leider nicht. Momentan hat Apple bei Apple Silicon aus Hard- und Software-Perspektive eine sehr saubere Architektur mit einem komplett einheitlichem Adressraum – dies würden sie aufgeben, wenn sie Unterstützung für GPUs mit dediziertem VRAM integrieren.
Der Adressraum ist nicht das Problem, selbst NUMA Systeme haben einen Adressraum. Das wesentliche Problem ist der Zugriff auf den Speicher. Bei einem UMA System wird die Speicherbandbreite früher oder später zu einem Flaschenhals, so dass die erzielbare Rechenleistung nur noch von der Speicherbandbreite limitiert wird. Ein weiterer Aspekt ist der Preis für schnellen Speicher. Momentan ist HBM Speicher der schnellstmögliche speicher. Allerdings ist er relativ teuer und kann nur begrenzt von CPUs bzw. GPUs angesteuert werden. nVidias Beschleuniger Karten (H100 SMX) sind mit 80GB HBM Speicher bei ca. 3350GB/s (das ist ca. 5-10 Mal schneller als bei den Apple M Chips) momentan das Maß der Dinge. Nur sind 80GB mittlerweile eher wenig Arbeitsspeicher, wenn man bedenkt, dass in Server einige TB verbaut sein können.
Mendel Kucharzeck
Ferner ist auch die Software-Seite komplex, besonders wenn mehrere GPUs unterschiedlicher Bauart in einem System werkeln. Wenn du selbst Shader schreibst, bist du dir ja darüber bewusst, dass manche GPU-Bauarten manche Datentypen nicht unterstützen und andere schon. Willst du z.B. die dedizierte GPU für eine komplexe Berechnung nutzen, um diese dann mittels der integrierten GPU weiterzuverarbeiten (beispielsweise darzustellen), musst du eine Datenorganisation verwenden, mit welchen beide GPUs zurechtkommen – das ist ein erheblicher Aufwand.
Innerhalb der AMD oder nVidia Welt ist das eher weniger das Problem. Dazu wurde in den letzten Jahren auch nicht unerheblich Aufwand in die Vereinheitlichung von höheren APIs gesteckt, so dass man relativ einfach Programme schreiben kann, die je nach Backend Rechnungen durchführen können, und die man dann über OpenGL oder Vulkan visualisieren kann. Das Problem hierbei ist, dass Apple sich dazu entschieden hat, keine dieser APIs zu unterstützen.
Weia
Wenn man für diese Klientel mit eventuell hohem Aufwand die Systemarchitektur entsprechend erweitern kann, fein; den hohen Aufwand zahlt diese Klientel dann halt mit einem entsprechenden Aufpreis und der Rest von Apples Nutzerbasis ist nicht betroffen.
Weil Apple auf eigene proprietäre APIs auch für LowLevel Aufgaben setzt, ist der Aufwand höher macOS Versionen von Programmen auf den Markt zu bringen. Für die ISVs wird es deshalb immer mehr zu einem Problem überhaupt macOS Software anzubieten, da man nicht mehr nur das GUI neu schreiben muss, sondern ein Großteil der Software selbst, und das muss erstmal refinanziert werden. Wenn man statt dessen auf die branchenüblichen APIs setzt, ist der Mehraufwand für die Unterstützung von Hochleistungs-GPUs nicht vorhanden. Nur diese APIs werden auf macOS nicht unterstützt.
+3
Fedora18.02.23 14:50
gfhfkgfhfk
Der Adressraum ist nicht das Problem, selbst NUMA Systeme haben einen Adressraum. Das wesentliche Problem ist der Zugriff auf den Speicher. Bei einem UMA System wird die Speicherbandbreite früher oder später zu einem Flaschenhals, so dass die erzielbare Rechenleistung nur noch von der Speicherbandbreite limitiert wird. Ein weiterer Aspekt ist der Preis für schnellen Speicher. Momentan ist HBM Speicher der schnellstmögliche speicher. Allerdings ist er relativ teuer und kann nur begrenzt von CPUs bzw. GPUs angesteuert werden. nVidias Beschleuniger Karten (H100 SMX) sind mit 80GB HBM Speicher bei ca. 3350GB/s (das ist ca. 5-10 Mal schneller als bei den Apple M Chips) momentan das Maß der Dinge. Nur sind 80GB mittlerweile eher wenig Arbeitsspeicher, wenn man bedenkt, dass in Server einige TB verbaut sein können.
Super Ausführung und es zeigt, das der HPC Bereich NICHT so einfach in die WKST Sparte überleitbar ist und vor allem nicht zwingend erforderlich.
0
MacKaltschale19.02.23 00:37
Mendel Kucharzeck
MacKaltschale
… Willst du z.B. die dedizierte GPU für eine komplexe Berechnung nutzen, um diese dann mittels der integrierten GPU weiterzuverarbeiten (beispielsweise darzustellen), musst du eine Datenorganisation verwenden, mit welchen beide GPUs zurechtkommen – das ist ein erheblicher Aufwand.

Wir reden über die Nutzung der Grafikkarte als Grafikkarte. Nicht für andere Berechnungen, was in dieser Diskussion auch keinen Sinn ergibt, da all das wofür man Grafikkarten sonst einsetzt könnte mit den M-SoCs sowieso nicht gemacht wird, mangels Unterstützung der üblichen APIs – die Argumentation ist also hinfällig.

95% aller Nutzer wollen ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen. Und da sind die ARM-Macs schlecht aufgestellt und hinken von der Performance 4-5 Jahre hinter dem Standard zurück. Die Möglichkeiten von Desktops werden beschnitten, für die die Mobilität, die deren Nutzer gar nicht benötigen.

Die interne GPU soll dabei gar nicht mehr genutzt werden. eGPU an einem ganz normalen Mac und kein MacBook. Und in diesem Szenario, was das einzige ist, das mich beruflich interessiert, gibt es keinerlei Grund, warum das nicht gehen soll.
-1
Weia
Weia19.02.23 01:28
MacKaltschale
95% aller Nutzer wollen ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen.
Steile These. Wann wird für Dich denn eine Grafikkarte ausschließlich als Grafikkarte genutzt? Wenn Du damit meinst nur zur Grafikausgabe – dafür sind Grafikkarten doch mittlerweile völlig überdimensioniert und jenseits von Gut und Böse.
Die interne GPU soll dabei gar nicht mehr genutzt werden.
Weil?
eGPU an einem ganz normalen Mac und kein MacBook. Und in diesem Szenario, was das einzige ist, das mich beruflich interessiert
Was machst Du denn beruflich so Super-Spezielles, dass das so ist?
gibt es keinerlei Grund, warum das nicht gehen soll.
Ich sehe nur auch keinerlei Grund, warum das nötig sein sollte?
🦖The dinosaurs invented Jesus to test our confidence in science
-1
MacKaltschale19.02.23 04:05
Weia
MacKaltschale
95% aller Nutzer wollen ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen.
Steile These. Wann wird für Dich denn eine Grafikkarte ausschließlich als Grafikkarte genutzt? Wenn Du damit meinst nur zur Grafikausgabe – dafür sind Grafikkarten doch mittlerweile völlig überdimensioniert und jenseits von Gut und Böse.

Das ist totaler Quatsch. Selbst die heutige Spitzengrafikleistung ist in jeglicher Hinsicht noch fernab von dem, was wirklich benötigt wird. Wir stehen in der Hinsicht noch ganz am Anfang. Mangels Leistung müssen permanent Kompromisse eingegangen werden. Den Spruch kannst du in 50 Jahren vielleicht mal bringen.
Weia
Die interne GPU soll dabei gar nicht mehr genutzt werden.
Weil?

Sie für die Grafikausgabe nicht benötigt wird.
Weia
eGPU an einem ganz normalen Mac und kein MacBook. Und in diesem Szenario, was das einzige ist, das mich beruflich interessiert
Was machst Du denn beruflich so Super-Spezielles, dass das so ist?

Mehrgleisig. Eines der Gleise ist Spieleentwickler.
Weia
gibt es keinerlei Grund, warum das nicht gehen soll.
Ich sehe nur auch keinerlei Grund, warum das nötig sein sollte?

Weil die Grafikleistung der aktuellen Macs vergleichsweise schwach ist und das immer ging, bis Apple der Meinung war, dass deren Kunden das nicht mehr brauchen.

Früher ist man zu strangedogs ins Forum gegangen, hat Apple den Finger gezeigt und die Karten selbst geflasht, wenn Apple mal wieder der Meinung war, dass man auf etwas verzichten solle, später hat man einen Hackintosh genommen. In Zukunft geht gar nichts mehr. Das ist eine Welt, auf die ich dankend verzichten kann.
0
Weia
Weia19.02.23 04:40
MacKaltschale
Weia
MacKaltschale
95% aller Nutzer wollen ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen.
Steile These. Wann wird für Dich denn eine Grafikkarte ausschließlich als Grafikkarte genutzt? Wenn Du damit meinst nur zur Grafikausgabe – dafür sind Grafikkarten doch mittlerweile völlig überdimensioniert und jenseits von Gut und Böse.
Das ist totaler Quatsch. Selbst die heutige Spitzengrafikleistung ist in jeglicher Hinsicht noch fernab von dem, was wirklich benötigt wird.
Soso. Wirklich benötigt wofür?

Als Wissenschaftler fordere ich einem Computer teils extreme Leistungen ab. Ich bin schon an alle möglichen Grenzen gestoßen, aber nicht an die der Grafikausgabe.
Wir stehen in der Hinsicht noch ganz am Anfang. Mangels Leistung müssen permanent Kompromisse eingegangen werden.
Mir ist kein Kompromiss bekannt, den ich wegen der Grafikausgabe hätte eingehen müssen.
Weia
Die interne GPU soll dabei gar nicht mehr genutzt werden.
Weil?
Sie für die Grafikausgabe nicht benötigt wird.
Die GPU wird nicht für die Grafikausgabe benötigt? Du redest wirr.
Weia
Was machst Du denn beruflich so Super-Spezielles, dass das so ist?
Mehrgleisig. Eines der Gleise ist Spieleentwickler.
Ach so, na gut. Ich dachte jetzt an ernsthafte Programme. Und auf Deinen seriösen Gleisen, da stößt Du auch an die Grenzen der Grafikausgabe?
Weil die Grafikleistung der aktuellen Macs vergleichsweise schwach ist
Aber vollkommen ausreichend für ernsthafte Anwendungen aller Art.
🦖The dinosaurs invented Jesus to test our confidence in science
-1
wolfgag
wolfgag19.02.23 12:32
Weia
Weil die Grafikleistung der aktuellen Macs vergleichsweise schwach ist
Aber vollkommen ausreichend für ernsthafte Anwendungen aller Art.
“Ernsthafte Anwendungen” scheint für Dich nur zu sein, was Du gerade selbst benötigst. Ich empfehle mal etwas über den Tellerrand hinaus zu schauen. Praktisch alles was mit Echtzeitvisualisierung, Simulationen oder 3D zu tun, läuft heutzutage über die GPU und da ist Apple mit seinem aktuellen Kurs leider einfach aussen vor. Das geht weit über den Spielemarkt hinaus und selbst das allein ist ja schon eine ziemlich große Industrie.

Wirklich schnell genug sind GPUs erst dann, wenn sie eine virtuelle 360° Umgebung in Spielfilmqualität darstellen oder komplexe VFX Shots in Echtzeit render können und davon sind wir momentan immer noch ziemlich weit weg. Und selbst wenn es mal soweit sein sollte, kommt die Software Industrie eh wieder mit irgendwelchen neuen must-have Features um die Ecke, die auch zukünftige Monster GPUs ganz schnell in die Knie zwingt.
+3
vta19.02.23 13:01
Mendel Kucharzeck
anaximander
Nicht ganz. Beispiel: Die Playstation 3 war mit dem Cell-Prozessor extrem leistungsfähig – nur halt sau schwer zu programmieren. Ende der Geschichte war, dass viele Entwickler die leistungsstarken Zusatzkerne nicht verwendet haben, weil es einfach zu kompliziert war.
... und nur für bestimmte Szenarien sinnvoll (genauso wie man eine GPU nicht für alles nutzen kann).
0
ideal19.02.23 14:15
Weia
ideal
es gibt auch User, die Performance benötigen, und sich kaum für das Innenleben interessieren.
Ja, aber wieviel Prozent beziehungsweise besser Promille von Apples Nutzerbasis sind das?

mir ist das Innenleben eher egal, hauptsache es läuft und bringt Leistung, aus Neugierde lese ich gern mit !
+1
gfhfkgfhfk19.02.23 14:18
Weia
Die GPU wird nicht für die Grafikausgabe benötigt? Du redest wirr.
Auch Dir sollte bekannt sein, dass man mittlerweile vielen wissenschaftlichen Code auf GPUs laufen lässt, da diese bei bestimmten Workloads sehr viel schneller als CPUs sind. Ein Beispiel für ein solches Programm ist cp2k, ein Programm für DFT. Nur das unterstütz halt neben CPUs nur CUDA und HIP, und eben keinerlei API, die Apple anbietet.
+1
Weia
Weia19.02.23 15:21
wolfgag
Praktisch alles was mit Echtzeitvisualisierung, Simulationen oder 3D zu tun, läuft heutzutage über die GPU und da ist Apple mit seinem aktuellen Kurs leider einfach aussen vor.
Das ist mir vollkommen klar, aber erstens ist das doch ein hochspezialisierter Markt, auf den ein General-Purpose-Computer wie ein Mac nicht unbedingt Rücksicht nehmen muss (jedenfalls sollte er nicht wegen dieser Nische seine großen Architektur-Vorteile für den gesamten restlichen Anwendungsbereich aufgeben), und zweitens, und das ist mein Kernpunkt, wird die GPU dann ja eben nicht nur für die Grafikausgabe verwendet, sondern auch für 3D-Rendering – der Beitrag, auf den ich antwortete, behauptete ja aber
MacKaltschale
95% aller Nutzer wollen ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen.
und selbst dafür sei die Rechenleistung der Grafikkarte zu gering – und das ist eben Unsinn.
wolfgag
Das geht weit über den Spielemarkt hinaus und selbst das allein ist ja schon eine ziemlich große Industrie.
Aber keine, zu deren Nutzen ich irgendeine Einschränkung in Kauf zu nehmen gewillt wäre.
Wirklich schnell genug sind GPUs erst dann, wenn sie eine virtuelle 360° Umgebung in Spielfilmqualität darstellen oder komplexe VFX Shots in Echtzeit render können und davon sind wir momentan immer noch ziemlich weit weg.
Da redest Du aber wieder von GPUs fürs 3D-Rendering und nicht für die Grafikausgabe. Das ist doch wirklich ein sehr, sehr spezielles Aufgabengebiet. Du tust geradezu so, als sei 3D-Rendern für hollywoodreife Special Effects eine Standardaufgabe eines Computers, noch vor dem Beherrschen der Grundrechenarten.
🦖The dinosaurs invented Jesus to test our confidence in science
-2
Weia
Weia19.02.23 15:26
gfhfkgfhfk
Weia
Die GPU wird nicht für die Grafikausgabe benötigt? Du redest wirr.
Auch Dir sollte bekannt sein, dass man mittlerweile vielen wissenschaftlichen Code auf GPUs laufen lässt, da diese bei bestimmten Workloads sehr viel schneller als CPUs sind.
Aber das heißt doch nicht, dass die GPU nicht für die Grafikausgabe benötigt wird?

Natürlich ist mir das bekannt, aber nochmal, ich antwortete lediglich auf einen Beitrag, der behauptete, es ging ihm gerade nicht um solche Anwendungen, sondern nur um die 95% aller Nutzer, die ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen wollen und selbst für die sei die Rechenleistung zu gering – weshalb sie eben nicht dafür benutzt würde.
Ein Beispiel für ein solches Programm ist cp2k, ein Programm für DFT. Nur das unterstütz halt neben CPUs nur CUDA und HIP, und eben keinerlei API, die Apple anbietet.
Das ist doch aber dann ein Defizit dieses Programms?
🦖The dinosaurs invented Jesus to test our confidence in science
-1
Weia
Weia19.02.23 15:41
ideal
mir ist das Innenleben eher egal, hauptsache es läuft und bringt Leistung, aus Neugierde lese ich gern mit !
Habe ich verstanden. Ich wollte ja nur sagen, dass nicht jeder so tickt bzw. es auch einfach davon abhängt, was man unter Leistung versteht.

Allgemein ist Leistung ja wohl das effiziente Erfüllen einer Aufgabenstellung. Und somit hängt sie eben von der Aufgabenstellung ab.

Viele verstehen unter Leistung primär oder nur Rechenleistung, speziell Grafik-Rechenleistung. Und das ist mir eben zu eng gedacht. Für meine Aufgabenstellungen sind große Speicherkapazität und die Integration von Spezialperipherie viel wichtiger. Das war meine Motivation für die Mac Pros; die Rechenleistung ist mir nicht so wichtig, da bin ich eh immer langsamer als mein Mac.
🦖The dinosaurs invented Jesus to test our confidence in science
0
MacKaltschale19.02.23 22:01
Weia, es ist etwas anstrengend, wenn du so tust, als hättest du die letzten 25 Jahre unter einem Stein gelebt, wir wissen beide, dass das nicht der Fall ist.

Seit vielen Jahren ist die Videospielindustrie in Sachen Medienkulturgüter mit gigantischem Abstand (231 Milliarden) weit vor der gesamten Musikbranche (26 Milliarden). Mehr Umsatz macht allerdings noch Film & TV zusammengenommen. Wobei die einzelnen Sparten Kino (21 Milliarden) und Streaming (93 Milliarden) gegenüber Gaming abgeschlagen sind. Traditionelles TV & Home Video hingegen liegt bei 378 Milliarden.

60 Prozent der Bevölkerung spielt regelmäßig Games (das entspricht übrigens grob dem Interesse in der Bevölkerung an Fußball), Games sind nunmal Echtzeitvisualisierungen. Das als einen „hochspezialisierten“ Markt abzutun, „auf den ein General-Purpose-Computer wie ein Mac nicht unbedingt Rücksicht nehmen muss“ ist schon extrem ignorant.

Eine der Hauptproblematiken eines Spieleentwicklers ist es, mit der gegebenen Rechenleistung auszukommen. Wenn die so wäre, wie wir sie eigentlich benötigen, würden wir massiv Zeit sparen, die wir mit Tricks, Vortäuschungen und Optimierung verbringen. Ein guter 3D-Artist z. B. ist nicht jemand, der beeindruckende Modelle bauen kann, sondern jemand, der intuitiv weiß, an welchen Stellen er Polygone sparen kann und wo er mehr einsetzen muss, damit der Betrachter den Fake abnimmt. Spieleentwicklung besteht zu einem Großteil aus dem steten, wirklich sterbenslangweiligen Kampf gegen die Probleme die sich durch unsere noch viel zu langsamen Computer ergeben. Spiele zu entwicklen hat sehr wenig mit Spaß zu tun und viel mehr mit Mathematik und Physik.

Natürlich forderst du als Wissenschaftler einem Computer teils extreme Leistungen ab, nur machen das Spiele noch viel mehr und so ziemlich jede Sache, die du als Wissenschafter mit einem Computer berechnen willst, ist etwas, dass Spieleentwickler in der Zukunft ebenfalls berechnen wollen. Nur in Echtzeit. Und das meiste davon auf der Grafikkarte. Das grundlegendste Beispiel: Bei einem aufwendigen Shader der gerade den gesamten Bildschirm füllt wird bei 4K@60Hz 500 Millionen mal pro Sekunde die gleiche Berechnung durchgeführt. Wie umfangreich die sein darf, bestimmt die Leistungsfähigkeit der Hardware. Deswegen wollen seit Jahrzehnten alle immer schnellere Grafikkarten.

Bis Spiele aufhören können Impostors und Co zu benutzen wird noch sehr viel Zeit vergehen. Heute sind Spiele noch riesige Fakes, das Bedürfnis ist aber da, nach der optimalen Spielwelt und diese benötigt die Simulation der gesamten Welt mit all ihren physikalischen Zusammenhängen. Das ist nicht nur unter der Haube ein gewaltiger Anspruch, sondern auch in Sachen Grafik. Wir können heute nicht mal einen „simplen“ Baum wirklich überzeugend in Echtzeit simulieren ohne zu faken bis der Arzt kommt.

Heute nutzen wir in Games für interaktive Simulationen noch recht einfache Flow Fields und teilweise auch schon Zeug wie SPH-Simulation und auch die Finite Element Method. Bis das aber in einem Maße genutzt werden kann, wie man das bereits jetzt gerne machen möchte, vergeht noch sehr, sehr viel Zeit.
Für Shading verwenden wir seit Anfang/Mitte der 2010er die bidirektionale Reflexionsverteilungsfunktion und die inzwischen immer mehr in Kombination mit Ray Tracing. Das sieht schon recht beeindruckend aus, wird aber am Ende auch nur ein Schritt der Evolution gewesen sein.

Die interne GPU soll nicht benutzt werden, weil es Unsinn ist, die Ausgabe der eGPU über die interne GPU laufen zu lassen, das geht auf Kosten der Performance. Das macht man nur, wenn man keinen externen Monitor hat. Ich habe das nur aus einem Grund erwähnt: Um Klarzustellen, dass es mir um die auschließliche Nutzung der PCIe-Grafikkarte geht, ohne irgendwelche Laptop-Problematiken mit Bildern, die über die interne GPU an den verbauten Bildschirm gehen müssen. Man verbietet doch nicht einfach die Möglichkeiten, die ein Setup (Desktop) bieten kann, nur weil die mobile Lösung es nicht ebenfalls kann – das ist bevormundend und Enteignung (da es vorher ging).
+5
Weia
Weia20.02.23 01:14
MacKaltschale
Weia, es ist etwas anstrengend, wenn du so tust, als hättest du die letzten 25 Jahre unter einem Stein gelebt, wir wissen beide, dass das nicht der Fall ist.
Offenbar aus Deiner Sicht schon: In meinem weitgefächterten Mac-nutzenden Bekanntenkreis kenne ich niemanden, der Videospiele spielt. Und was ich durch Werbung etc. davon unfreiwillig mitbekomme, bestätigt nur meine Wahrnehmung, dass es sich dabei durch die Bank um ästhetische und ethische Zumutungen handelt, die auf einem Mac, als Schnittstelle von Technologie und Humanities verstanden, schon von daher nichts verloren haben. Dass Menschen damit ihre Lebenszeit vergeuden, kann ich nicht verhindern, aber ich finde Apples Strategie, dem keinerlei Bedeutung bei der konzeptionellen Ausrichtung von Macs beizumessen, genau richtig und wäre empört, würden sie es anders machen und dadurch dessen seriöse Funktionalität beeinträchtigen. Es reicht schon, dass das Zeug für iOS-Geräte vermarktet wird und dort den App Store mit einem Wall aus Scheußlichkeiten umgibt, den man jedes Mal durchdringen muss, wenn man den App Store benutzen will.
Seit vielen Jahren ist die Videospielindustrie in Sachen Medienkulturgüter mit gigantischem Abstand (231 Milliarden) weit vor der gesamten Musikbranche (26 Milliarden).
Schlimm genug. Betrifft aber Computer als seriöse Arbeitsgeräte nicht.
60 Prozent der Bevölkerung spielt regelmäßig Games (das entspricht übrigens grob dem Interesse in der Bevölkerung an Fußball)
Fußball – noch so was, was ich unerträglich finde, Brot und Spiele für die Gegenwart.

Was soll dieses Argument mit Masse? Fliegen können bei der Wahl ihrer Mahlzeit nicht irren?

Wenn 60% der Bevölkerung Videospielen und Fußball verfallen sind, dann bleiben ja immerhin 40% potentielle Mac-Nutzer. Da besteht angesichts der faktischen Verbreitung von Macs in Deutschland noch jede Menge Wachstumspotential.
Das als einen „hochspezialisierten“ Markt abzutun, „auf den ein General-Purpose-Computer wie ein Mac nicht unbedingt Rücksicht nehmen muss“ ist schon extrem ignorant.
Das ist ein technisch hochspezialisierter Markt, insofern er als einziger unter zig Anwendungsmöglichkeiten eines Computers derartig extreme Anforderungen an eine einzelne Komponente stellt, die um Größenordnungen von dem entfernt sind, was andere Anwendungen erfordern. Das ist ein technisches Faktum. Mit der Zahl der potentiellen Interessenten hat das überhaupt nichts zu tun. Deswegen ist es so absurd, wenn Du postulierst, dass Computer-Grafikkarten heute generell noch nicht leistungsfähig genug sind.

Viele Menschen kochen und backen gerne und verwalten ihre Rezepte auf dem Computer. Da wäre es doch naheliegend, in den Mac einen Backofen (vielleicht mit der Abwärme eines Intel-Prozessors oder gar eines G5 beheizt ) zu integrieren, der die Rezepte gleich umsetzt. Selbst wenn 60% der Bevölkerung oder gar noch viel mehr Koch- und Backliebhaber sind, fändest Du das sinnvoll? Doch offenkundig nicht (hoffe ich) – dafür gibt es eigenständige, darauf spezialisierte Backöfen. Und so ist es mit den Spielen genauso; wenn man das schon will, dann bietet sich dafür doch dedizierte Hardware an, denn in anderer Hinsicht nutzen Spiele die Möglichkeiten eines General-Purpose-Computers wiederum nicht annähernd aus. Es ist einfach das falsche Gerät dafür, denn seine Qualität besteht in der Breite der Möglichkeiten und nicht darin, eine ganz bestimmte Sache ins Extrem treiben zu können. Dafür gibt es dann spezialisierte Geräte.
Man verbietet doch nicht einfach die Möglichkeiten, die ein Setup (Desktop) bieten kann, nur weil die mobile Lösung es nicht ebenfalls kann
Das ist ja auch nicht der Grund; Apples neue Systemarchitektur steht dem im Wege, von der ansonsten aber alle Nutzer enorm profitieren. Apple verbietet nichts; es ist Apple (zurecht) nur einfach nicht wichtig.
– das ist bevormundend und Enteignung (da es vorher ging).
Man kann es auch Ausdifferenzierung nennen. In den 70ern hat man noch eine Heimwerker-Bohrmaschine mittels diverser Aufsätze auch als Stichsäge, Kreissäge und Schwingschleifer benutzt, um den seinerzeit kostbaren Elektromotor vielseitig zu verwenden. Das ist dann einer Spezialisierung der Geräte gewichen.

Das ist heute beim Computer in manchen Bereichen ja ebenso; ein heutiger „Fernseher“ ist ein auf eine spezielle Anwendung hin ausgerichteter Computer. Warum nicht ebenso für Spiele; es gibt doch Spielekonsolen? Freilich braucht man zur Entwicklung dann noch entsprechend hochgezüchtete Computer, aber zu fordern, dass ein Mac das können müsste, wäre ähnlich wie die Forderung, dass ein Mac für die Special Effects von Hollywood-Filmen ausreichen müsste.
🦖The dinosaurs invented Jesus to test our confidence in science
+1
barty7520.02.23 12:43
Weia


... bestätigt nur meine Wahrnehmung, dass es sich dabei durch die Bank um ästhetische und ethische Zumutungen handelt, die auf einem Mac, als Schnittstelle von Technologie und Humanities verstanden, schon von daher nichts verloren haben. Dass Menschen damit ihre Lebenszeit vergeuden, kann ich nicht verhindern, aber ich finde Apples Strategie, dem keinerlei Bedeutung bei der konzeptionellen Ausrichtung von Macs beizumessen, genau richtig und wäre empört, würden sie es anders machen und dadurch dessen seriöse Funktionalität beeinträchtigen. Es reicht schon, dass das Zeug für iOS-Geräte vermarktet wird und dort den App Store mit einem Wall aus Scheußlichkeiten umgibt, den man jedes Mal durchdringen muss, wenn man den App Store benutzen will.

Schlimm genug. Betrifft aber Computer als seriöse Arbeitsgeräte nicht.

Fußball – noch so was, was ich unerträglich finde, Brot und Spiele für die Gegenwart.

Was soll dieses Argument mit Masse? Fliegen können bei der Wahl ihrer Mahlzeit nicht irren?

Viele Menschen kochen und backen gerne und verwalten ihre Rezepte auf dem Computer. Da wäre es doch naheliegend, in den Mac einen Backofen (vielleicht mit der Abwärme eines Intel-Prozessors oder gar eines G5 beheizt ) zu integrieren,
Wow, Weia wieder in Hochform. An Überheblichkeit und Arroganz nicht zu überbieten. Hoffentlich fängt er nicht wieder an zu flennen und befragt das Forum nach seinem Verbleib, sollte jemand wieder etwas "robuster" antworten.
0
MacKaltschale20.02.23 18:13
Auweia dein Name ist echt Programm.
Weia
Deswegen ist es so absurd, wenn Du postulierst, dass Computer-Grafikkarten heute generell noch nicht leistungsfähig genug sind.

Spiele sind DIE treibende Kraft der Hardwareentwicklung.

3D-fähige Computer-Grafikkarten wurden ausnahmslos wegen Spielen weiterentwickelt. Ohne Spiel wäre diese Technologie niemals derart weiterentwickelt worden, weil die finanziellen Anreize gefehlt hätten. Zu CUDA und Co. wäre es ohne Spiele so nie gekommen.

Gleiches gilt für CPU-Leistung. Ohne die gigantische Masse an nimmersatten Gamern als Kundschaft, hätte es niemals für die paar Nutzer, die sonst noch Rechenleistung benötigen einen derartigen Aufwand gegeben, die Leistung immer weiter zu erhöhen. Für Textverarbeitung und Office waren Computer schon in den 80ern bestens gerüstet. Wissenschaftler und Co wären lange Zeit weiterhin ausschliesslich auf Großrechner angewiesen gewesen.

Was kommt als nächstes? Willst du die Bedeutung von Pornos, Raubkopien und Streaming für den Ausbau der Internetgeschwindigkeit leugnen?

Absurd ist deine Argumentationbasis. Das ist sowas von ignorant und selbstzentriert. Allein deine Definitionshoheit von seriösen Arbeiten mit Computern. Eine 231 Milliarden Dollar Industrie ist für dich nicht seriös (Wortherkunft beachten!) genug?
Weia
Apples neue Systemarchitektur steht dem im Wege, von der ansonsten aber alle Nutzer enorm profitieren. Apple verbietet nichts; es ist Apple (zurecht) nur einfach nicht wichtig.

Alles klar, du willst mir ernsthaft erzählen, macOS für ARM kann von Apple nicht in der Lage versetzt werden über PCIe eine Grafikkarte anzusprechen, obwohl macOS für ARM jede andere PCIe-Karte wie z. B. Pro Tools HDX ganz normal ansprechen kann? Da werden auch Daten ausgetauscht und es funktioniert erstaunlicherweise trotz des superdollen „komplett einheitlichem Adressraums“.

Niemand würde dafür funktional eingeschränkt werden, denn das passiert jetzt auch nicht, wenn z. B. die Tonausgabe und Eingabe über eine HDX-Karte läuft.

Wie oft soll ich mich noch wiederholen? Es geht nicht darum, in irgendeiner Form die interne Karte zu nutzen oder einen verbauten Bildschirm oder die Grafikkarte als parallelen Rechenknecht zu missbrauchen.

Funktional eingeschränkt werde ich hingegen von Apple seit langer Zeit, weil sie sich geradezu trotzig weigern, gängige Industriestandards zu übernehmen.
Weia
Das ist heute beim Computer in manchen Bereichen ja ebenso; ein heutiger „Fernseher“ ist ein auf eine spezielle Anwendung hin ausgerichteter Computer. Warum nicht ebenso für Spiele; es gibt doch Spielekonsolen? Freilich braucht man zur Entwicklung dann noch entsprechend hochgezüchtete Computer, aber zu fordern, dass ein Mac das können müsste, wäre ähnlich wie die Forderung, dass ein Mac für die Special Effects von Hollywood-Filmen ausreichen müsste.

Wie in meinem Posting oben erklärt, die Mehrheit der Computer auf dieser Welt wird für Spiele eingesetzt. Ob es dir passt oder nicht. Ich bin auch kein Gamer. Ich spiele vielleicht an maximal 10 Tagen des Jahres mal ein Spiel.

Du solltest einsehen, dass du und deine Ansprüche nicht zur Hauptzielgruppe von Computernnutzern gehörst, sondern du unter ferner liefen läufst. Du bist unwichtig für Apple, das sich seit Jobs’ Rückkehr mehr und mehr den Konsumenten verschrieben hat. Das ist etwas, das auch ich für mich persönlich furchtbar finde, aber nachvollziehen kann, da dort der Ernst des Geschäfts zu finden ist: das Geld.

Ich kann Fußball auch nicht leiden, ich verleugne aber nicht die Realität und muss mich damit abfinden, dass ich für Fußball indirekt mitbezahlen muss. So wie du dich mal daran gewöhnen solltest, dass die Mehrheit der Menschheit es sinnvoll findet, Spiele zu spielen.

Eine Spielekonsole kann, so wie sie ausgeliefert wird, einen Rechner nicht ersetzen, da dieser Auslieferungszustand im Regelfall die Konzeption der Eingabemöglichkeiten von Spiele stark einschränkt. Deswegen erscheinen bestimmte Spiele nicht für Konsolen. Die Kombination Maus + Tastatur kann man ab einer gewissen Komplexität eines Spiels mit einem Gamepad nicht ersetzen und die Möglichkeit diverse Input-Peripherie anzuschliessen und zu routen ebenfalls nicht. (Ein weiteres Manko des Macs ist die mangelnde Unterstützung von Drittanbietereingabegeräten, etwas, bei dem Apple Abhilfe schaffen könnte, indem es Anreize für die Hersteller bietet)
+3
Weia
Weia20.02.23 23:34
MacKaltschale
Spiele sind DIE treibende Kraft der Hardwareentwicklung.
Wie kommt es dann, dass der Mac gerade einen Riesensprung in der Hardwareentwicklung gemacht hat, wo er doch Spiele so stiefmütterlich behandelt?

Freilich, die Entwicklung von Hardware, die nur Spiele benötigen, wird durch Spiele angetrieben. Das ist aber zirkulär.
Willst du die Bedeutung von Pornos, Raubkopien und Streaming für den Ausbau der Internetgeschwindigkeit leugnen?
Nö, natürlich nicht. Aber mit Deinen eigenen Beispielen demonstrierst Du doch am besten, dass man von der Tatsache, dass etwas die Hardware-Entwicklung antreibt, in keiner Weise auf die Seriosität dieser Sache schließen kann.
Eine 231 Milliarden Dollar Industrie ist für dich nicht seriös (Wortherkunft beachten!) genug?
Wie bitteschön kommt man auf die Idee, kommerzieller Erfolg habe auch nur im Entferntesten irgendetwas mit Seriosität zu tun? Wenn überhaupt, dann steht die ihm im Wege.
Alles klar, du willst mir ernsthaft erzählen, macOS für ARM kann von Apple nicht in der Lage versetzt werden über PCIe eine Grafikkarte anzusprechen, obwohl macOS für ARM jede andere PCIe-Karte wie z. B. Pro Tools HDX ganz normal ansprechen kann?
Die Grafikausgabe läuft auf Apple-Silicon-Rechnern halt nicht über PCIe. Audiokarten sind von der neuen Grafikarchitektur aber natürlich nicht betroffen.
Da werden auch Daten ausgetauscht und es funktioniert erstaunlicherweise trotz des superdollen „komplett einheitlichem Adressraums“.
Nicht trotz, sondern völlig unabhängig von ihm. Andere Baustelle mit einem weit geringeren Datendurchsatz.
Niemand würde dafür funktional eingeschränkt werden,
Nicht zwingend funktional, dann aber pekuniär. Denn entweder müsste Apple zur alten Architektur zurückkehren, was erhebliche Geschwindigkeitnachteile für alle Nutzer mit sich brächte, oder Apple müsste zwei Architekturen gleichzeitig pflegen, was die Kosten nach oben treiben würde.

Aber wozu die Aufregung? Der Ausgangsartikel berichtet ja gerade, dass sie versuchen, eine auch Dich zufriedenstellende Lösung zu finden.
Du solltest einsehen, dass du und deine Ansprüche nicht zur Hauptzielgruppe von Computernnutzern gehörst, sondern du unter ferner liefen läufst. Du bist unwichtig für Apple, das sich seit Jobs’ Rückkehr mehr und mehr den Konsumenten verschrieben hat.
Mir gefällt die Richtung unter Tim Cook auch nicht, aber noch baut Apple Macs in meinem und nicht in Deinem Sinne – das ist ja gerade der Kernpunkt Deines Ärgers.
Eine Spielekonsole kann, so wie sie ausgeliefert wird, einen Rechner nicht ersetzen, da dieser Auslieferungszustand im Regelfall die Konzeption der Eingabemöglichkeiten von Spiele stark einschränkt.
Das kann man ja ändern. Mein grundsätzlicher Punkt ist lediglich, dass dedizierte Hardware sinnvoller ist als die Erwartung, dass ein General-Purpose-Computer auch in einer technisch höchst speziellen Sparte Höchstleistungen erzielen können muss.
🦖The dinosaurs invented Jesus to test our confidence in science
0
crazyjunk21.02.23 12:41
Weia
Für meine Aufgabenstellungen sind große Speicherkapazität und die Integration von Spezialperipherie viel wichtiger.

Das ist es ja. Die Gerüchte zum neuen Mx Mac Pro besagen eben, dass genau das nicht mehr so einfach Möglich sein wird. Sondern dass das eher in Richtung Mac Studio mit vl. erweiterbarem Massenspeicher gehen wird. Da sind wir dann wieder beim Mac Pro 2013. Und den Sprung davon weg hat nichtmal der Mac Pro 2019 geschafft. Trotz PCI Slots. Aber ohne Treiber und passende Hardware vom Drittanbietermarkt bringt das halt auch wenig.
Weia
..., dass ein Mac das können müsste, wäre ähnlich wie die Forderung, dass ein Mac für die Special Effects von Hollywood-Filmen ausreichen müsste.

Und auch genau DAS ist glaub ich der Punkt den @MacKaltschale so vehement verteidigt.
Ich bin in der 3D, VFX, Animation und Realtime Branche untewegs. Bis zum 2012er Mac Pro waren da dementsprechend noch sehr viele solche Kisten unterwegs. Wir im Studio hatten ausschließlich Mac Pros. Dann sind GPU-Renderer (Octane/Redshift) groß geworden und plötzlich konnten wir den neuen heißen Stuff nicht mehr verwenden (Das waren Sprünge in der Renderzeit tw um Faktor 10.)

Alle diese Renderer basierten dazumals auf CUDA. Da haben wir dann einfach in unsere Käsereiben GTX 1080TI und GTX TITANX gesteckt, die Nvidia Webdriver installiert und losgerendert. Und dann kappte Apple den Support für NVIDIA Treiber, bzw zertifizierte diese nicht mehr. Wir hingen alle eine weile auf 10.13 fest, bis die aktuelle Software nicht mehr lief. Dann schauten wir durch die Finger und stiegen als Branche geschlossen auf Windows-Maschinen um. Das war wirklich so und deshalb Tippe ich diese Zeilen auf einer HP-Z Workstation (Mit Quatro RTX GPU).

Was auch noch spannend, bzw augenöffnend für dich sein könnte ist das Gaming-Technologie nicht immer gleich Gaming bedeutet. Wir basteln hier mit UnrealEngine hauptsächlich Messe-Anwendungen die in Echtzeit auf großen Touchscreens, VR-Brillen oder was auch immer laufen. Oder Anwendungen für Museen, wo man in Echtzeit und 3D Geschichte oder Kunst erleben kann usw.

DAS ist der Grund warum eine Branche die Apple groß gemacht hat (PIXAR/NeXT!) vor ein paar Jahren Apple den Rücken gekehrt hat.

ABER, was man schon auch sagen muss. Seit den M SoCs ist einiges ein bisschen besser geworden. vray CPU läuft nativ auf Apple Silicon, Redshift läuft nativ auf Apple Silicon GPUs, ebenso Cycles / Blender. Nachteil: man sieht den direkten Performance vergleich. Die Apple GPUs stinken MASSIV ab gegen Systeme mit RTX4090, oder gar Systeme mit mehreren RTX4090!

Was wir wollen ist ein Mac Pro, in den ich bei bedarf 4 solche GPUs stecken kann. Weil wir lieben MacOS.

Ich fahre seitdem zweigleisig. Hab ein M1Max MBP und freu mich dass ich auch mobil mal schnell was rendern kann. Aber zum ernsthaften Arbeiten ist das nichts. Im Homeoffice steht bei mir ein 32Core Threadripper mit RTX3080TI und wenn ich lustig bin steck ich eine 2te dazu.

Nebeneffekt => Ich kann damit auch mal ne Runde zocken. Das ist für mich A) Research und B) Entspannung.. damit kommen mir die besten Ideen für meine Arbeit.

lg
flo
+2
Weia
Weia21.02.23 14:49
crazyjunk
Weia
Für meine Aufgabenstellungen sind große Speicherkapazität und die Integration von Spezialperipherie viel wichtiger.
Das ist es ja. Die Gerüchte zum neuen Mx Mac Pro besagen eben, dass genau das nicht mehr so einfach Möglich sein wird. Sondern dass das eher in Richtung Mac Studio mit vl. erweiterbarem Massenspeicher gehen wird.
Das habe ich anders verstanden. Es wird eine PCIe-Bus geben für alles außer Grafikkarten, weil in der Apple-Silicon-Architektur die Grafikausgabe eben nicht mehr über den PCIe-Bus läuft.
Da sind wir dann wieder beim Mac Pro 2013.
Das sehe ich überhaupt nicht, außer man hat eben diesen Grafikkarten-Fokus.
Und den Sprung davon weg hat nichtmal der Mac Pro 2019 geschafft. Trotz PCI Slots. Aber ohne Treiber und passende Hardware vom Drittanbietermarkt bringt das halt auch wenig.
Da musst Du aber die Drittanbieter hauen.
Weia
..., dass ein Mac das können müsste, wäre ähnlich wie die Forderung, dass ein Mac für die Special Effects von Hollywood-Filmen ausreichen müsste.
Und auch genau DAS ist glaub ich der Punkt den @MacKaltschale so vehement verteidigt.
Ich bin in der 3D, VFX, Animation und Realtime Branche untewegs. Bis zum 2012er Mac Pro waren da dementsprechend noch sehr viele solche Kisten unterwegs. Wir im Studio hatten ausschließlich Mac Pros. Dann sind GPU-Renderer (Octane/Redshift) groß geworden und plötzlich konnten wir den neuen heißen Stuff nicht mehr verwenden (Das waren Sprünge in der Renderzeit tw um Faktor 10.)
Ja, aber das ist doch genau der Punkt in der technischen Weiterentwicklung: die Technologie wird immer leistungsfähiger und differenziert sich entsprechend aus; wo früher ein universales Gerät verwendet wurde, gibt es später lauter Spezialgeräte, die auf einen Einsatzzweck hochgezüchtet sind. Es wäre ökonomisch völlig unsinnig, dass alle Nutzer eines Universalgerätes hohe Aufpreise dafür zahlen müssten, dass das Gerät auch in einem Spezialbereich einsatzfähig ist.

Wenn das über eine Erweiterung zu lösen ist, für die alle anderen Nutzer nicht mit zahlen müssen, fein. Apple scheint das ja zu versuchen, und wenn es klappt, wunderbar. Aber die Anwender, für die die heutige Grafikausgabe in Apple Macs locker bis ans Ende ihrer Tage reicht, dürfen halt nicht dafür zur Kasse gebeten werden, dass einige wenige mehr brauchen (die 60%, von denen MacKaltschale redet, sind nie und nimmer alles Anwender, die hochgerüstete Gaming-PCs bezahlen und nutzen).

Wenn man selbst im 3D-Bereich steckt, mag der einem als der Nabel der Welt erscheinen, aber das stimmt so nicht; etliche Computernutzer kommen damit nur am Rande in Berührung, falls überhaupt (ich z.B. nur zur 3D-Darstellung von Farbräumen, Freunde von mir gar nicht).

Und man kann auch sehr darüber streiten, ob 3D-Rendering strukturell gesehen überhaupt zu Grafikausgabe gehört und nicht vielmehr zur Modellbildung. Die Aussage von MacKaltschale, an der sich mein Protest entzündet hat, war ja, dass 95% aller Nutzer ihre Grafikkarte auch ausschliesslich als Grafikkarte nutzen wollen – wozu nach meinem Verständnis nur die Grafikausgabe gehört, aber weder wissenschaftliche Berechnungen über CUDA noch Rendering von 3D-Modellen –, dann aber behauptet, selbst die heutige Spitzengrafikleistung sei in jeglicher Hinsicht noch fernab von dem, was wirklich benötigt wird – wirklich benötigt ohne jede Einschränkung oder Angabe, wofür benötigt. Und das ist eben Unsinn, solange man versteht, dass die Welt sich nicht ausschließlich um 3D dreht und 3D-Rendering nicht mehr und nicht weniger mit einer Grafikkarte zu tun hat als wissenschaftliche Berechnungen über CUDA. Viele Anwender benötigen das nicht nur nicht wirklich, sondern gar nicht.
Was auch noch spannend, bzw augenöffnend für dich sein könnte ist das Gaming-Technologie nicht immer gleich Gaming bedeutet. Wir basteln hier mit UnrealEngine hauptsächlich Messe-Anwendungen die in Echtzeit auf großen Touchscreens, VR-Brillen oder was auch immer laufen. Oder Anwendungen für Museen, wo man in Echtzeit und 3D Geschichte oder Kunst erleben kann usw.
Das ist mir schon klar. Es ist trotzdem nur ein kleiner Bereich dessen, wofür Computer eingesetzt werden können. Denk mal an den KI-Hype; ChatGPT performt dem Vernehmen nach auf Apple-Silicon-Macs besonders gut …
DAS ist der Grund warum eine Branche die Apple groß gemacht hat (PIXAR/NeXT!) vor ein paar Jahren Apple den Rücken gekehrt hat.
Das ist doch ein wunderbares Beispiel. Steve Jobs kam als CEO von NeXT, die er (zu Recht ) für die mit Abstand besten General-Purpose-Computer der Welt hielt, zu PIXAR. Und, hat PIXAR daraufhin NeXT-Computer zum Rendern verwendet? Nein! Spezialisierte Machinen waren eben besser geeignet.
🦖The dinosaurs invented Jesus to test our confidence in science
-1
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.