Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>eGPU an MacBook Pro 15 Retina

eGPU an MacBook Pro 15 Retina

Himmellaeufer22.08.1608:16
Hey,

ich interessiere mich für eine eGPU via Thunderbolt an einem MacBook Pro 15Zoll Retina.

Kann mir da jemand tipps geben?

Ich habe mich zwar eingelesen, komme aber nicht so recht klar was ich bestellen muss.
Bis jetzt denke ich an: Akitio Thunderbolt2 PCIe Expansion Box o. Sonnet Technologies ECHO-EXP-SE2 Echo Express SE II Thunderbolt 2 Expansion Chassis.

Betreiben würde ich das ganze mit einer Nvidia GPU ab/um 960 oder höher.

Was muss ich beachten, was benötige ich alles. Muss ein externes Netzteil her? Reicht ein Riser-Karte? ich weiß auch das es um größere Karten zu betreiben größere "Gehäuse" benötigt. Gibt es Alternativen oder Empfehlungen?

Ideal wären deutsche Seiten oder Händler (auch EU) die Sets anbieten oder oder
0

Kommentare

Himmellaeufer22.08.1608:29
Zusätzlich bin ich auf diese Seite gestoßen: http://www.egpukit.com/index.html
Ist das ein "Set" als späteren Eigenbau?
0
AppleUser2013
AppleUser201322.08.1611:40
Laut der Produktspezifikationen kannst du bei deinen beiden genannten PCIe Boxen keine Grafikkarten betreiben, sondern nur Karten, die auch kompatibel sind...
Graphic cards of any kind are NOT supported....

Links zu dem Compatibility Charts...

Akito

Sonnet



Das eGPU kit ist ja schon ein guter Start für die Hardware, die du brauchst....
Ansonsten bin ich gespannt, ob du eine Lösung findest...
0
jensche22.08.1611:50
Bizon Box...


Gibts eigentlich schon traiber für die GTX 1080 für den Mac? ;-9
0
chb22.08.1612:19
Bin auch am Überlegen, ob ich mir eine eGPU Lösung bastle...
Dieser Link hat mir recht weitergeholfen:
0
AppleUser2013
AppleUser201322.08.1612:24
Nein für die 1080er gibt es noch keine Treiber für OSX
0
Megaseppl22.08.1612:25
jensche
Gibts eigentlich schon traiber für die GTX 1080 für den Mac? ;-9
Nein, noch nicht.
0
Jeronimo
Jeronimo22.08.1621:40
AppleUser2013
Nein für die 1080er gibt es noch keine Treiber für OSX

Aber sobald es die gibt, steht der nächste Hackintosh-Build an.
0
Megaseppl22.08.1622:12
Jeronimo
Aber sobald es die gibt, steht der nächste Hackintosh-Build an.
Bei mir läuft die Hardware schon (i7 6700k, GA ZA170x Gaming-5EU, Gigabyte GTX 1080 G1)... es fehlt nur der Treiber für die Karte. So lange bleibt's halt eine reine Windows-Spiele-Maschine.
So lange muss ich halt noch mit der guten alten 970er in meinem zweiten Hackintosh auskommen (die bei 3D immernoch fixer ist als jede original GPU im Mac)
0
Jeronimo
Jeronimo22.08.1622:16
Megaseppl
Bei mir läuft die Hardware schon (i7 6700k, GA ZA170x Gaming-5EU, Gigabyte GTX 1080 G1)... es fehlt nur der Treiber für die Karte. So lange bleibt's halt eine reine Windows-Spiele-Maschine.

Ja, das klingt sehr nach der Konfig meines nächsten Projekts…

Um ehrlich zu sein, vor ein paar Jahren hätte es mich geschüttelt bei dem Gedanken, jemals mit so einem Zombie-Mac unterwegs zu sein. Aber wenn die Herrschaften von der Obstfirma keinen bezahlbaren Rechner mit den von mir angepeilten Leistungsdaten bieten, dann bin ich schon dankbar, dass es diese Lösung gibt.
0
maczock22.08.1622:32
AppleUser2013
Laut der Produktspezifikationen kannst du bei deinen beiden genannten PCIe Boxen keine Grafikkarten betreiben, sondern nur Karten, die auch kompatibel sind...
Graphic cards of any kind are NOT supported....

Links zu dem Compatibility Charts...

Akito

Sonnet



Das eGPU kit ist ja schon ein guter Start für die Hardware, die du brauchst....
Ansonsten bin ich gespannt, ob du eine Lösung findest...

Das ist doch nur die offizielle Angabe, denn Grafikkarten sind erst ab TB3 offiziell möglich (schätze, wenn die das schreiben würden, dann würde ihnen die Lizenz entzogen) und dadurch entziehen sie sich auch dem Support. Die Grafikkarten funktionieren laut vielen Anwendern in diesen Boxen wunderbar. Man muss nur schauen, ob es Probleme gibt, z. B. kann man mit einem 2011er Mac Mini der eine Radeon 6630M verbaut hat keine eGPU verwenden, der 2011er mit intel-graphics hingegen funktioniert, andere Rechner mit dedizierter GPU haben meistens keine Probleme.

Die zitierte Bizon-Box ist ABZOCKE. Bei der wird einem exakt das verkauft, was man auch in Einzelteilen kaufen kann, nur zu einem vollkommen überzogenem Preis. Das einzig gute an der Bizon-Box ist, dass deren Website über eine Kompatibilitätsliste verfügt

Das Forum von Techinferno scheint der wichtigste Ort in Sachen eGPU zu sein:
0
Jeronimo
Jeronimo22.08.1622:42
maczock
Das ist doch nur die offizielle Angabe, dadurch entziehen sie sich dem Support. Die Grafikkarten funktionieren laut vielen Anwendern wunderbar. Man muss nur schauen, ob es Probleme gibt, z. B. kann man mit einem 2011er Mac Mini der eine Radeon 6630M verbaut hat keine eGPU verwenden, der 2011er mit intel-graphics hingegen funktioniert, andere Rechner mit dedizierter GPU haben meistens keine Probleme.

Sehr coole Info, danke! Das war mir nicht bekannt, ich war immer noch der Auffassung, Grafikkarten würden in solchen Gehäusen generell nicht funktionieren. Hmmmm… da eröffnen sich ja doch noch ganz neue Möglichkeiten. Wenn die Dinger nicht (zumindest das von Sonnet) so sauteuer wären.
0
cps23.08.1602:24
Ganz so einfach ist es ja wohl doch nicht, dass Akitio Thunder2 ist z.B. 23,3 cm lang, hat ein 60 Watt Netzteil und liefert am PCIe x16 Slot 25 Watt bei 4 Lanes und PCI Express 2.0.
0
Thyl23.08.1608:07
Hab mich auch schon mal da mit befasst, aber schrecke noch vor der Bastelei zurück. Also wie schon gesagt, ziehen die Graphikkarten zu viel Strom für die Akitio-Box. Man muss also ein Loch ins Gehäuse bohren oder den Deckel weglassen oder so, und zusätzlich ein weiteres Netzteil bereitstellen. Am besten eines mit modular einsteckbaren Kabeln, damit man nicht die ganze Kabelpeitsche auf dem Tisch rumliegen hat.

Dann muss die Graphikkarte ja auch noch reinpassen in das Gehäuse. Leider gibt es keine präzisen Angaben von Akitio, was reingeht.

Schließlich unterstützt MacOSX das nicht, was bedeutet, dass man Datei(en?) patchen muss. Dafür gibt es Anleitungen im Internet, aber ob das immer klappt, und für alle MacOSX Versionen gleich ist, weiß ich nicht. Und die scheinen auch nur mit Nvidia, nicht mit AMD zu funktionieren.

Insgesamt eine Bastelei ohne Ende, nicht nur was die Hardware anbelangt, sondern schon beim Suchen der notwendigen Infos.
0
Thyl23.08.1608:17
chb
Bin auch am Überlegen, ob ich mir eine eGPU Lösung bastle...
Dieser Link hat mir recht weitergeholfen:
das sieht sehr gut aus, wow!
0
JoMac
JoMac23.08.1608:21
Sehr schade dass die Nutzung mit einem iMac nicht möglich ist - also um das interne Display zu nutzen. Für ein externes Display wäre es ja möglich, für mich aber irrelevant.
0
AppleUser2013
AppleUser201323.08.1608:45
Wiegesagt... Die genannten PCIe Boxen können keine Grafikkarten betreiben... Das ist also richtig...da diese beiweiten nicht genug Strom liefern können, damit so eine Karte läuft. Der Trick, damit es doch funktioniert, ist ein externes Netzteil zu nutzen, welches die 2x6 pin oder 1x6 und 1x8 pin Kabel, je nach Karte, liefert. Das ist natürlich mit Bastelei verbunden, da man die Kabel in die Box kriegen muss...Schön sieht das ganze dann auch nicht aus und es ist nicht sicher, ob die Graka auch wirklich stabil läuft. Auch ist klar, daß TB2 zu langsam ist, um die volle Power einer Graka zu nutzen...
0
gfhfkgfhfk23.08.1608:57
JoMac
Sehr schade dass die Nutzung mit einem iMac nicht möglich ist - also um das interne Display zu nutzen.
Das Konzept iMac basiert darauf, daß man den Mac nicht intern erweitern kann.
0
JoMac
JoMac23.08.1609:09
gfhfkgfhfk
Das Konzept iMac basiert darauf, daß man den Mac nicht intern erweitern kann.

Stichwort RAM. Klar können wir uns jetzt ums Prinzip prügeln
Trotzdem sage ich: Schade.
0
jensche23.08.1609:09
Was ich erschreckend finde und anscheinend scheint das niemand bei Apple zu merken:
Grafiktreiber bei Windows sind dem Mac Jahre voraus.
Man nehme MacBook Pro 15 Zoll aktuelle Version. Vergleiche z.b. Framerate eines Spieles welche für Mac und PC optimiert wurde...

Mit gleicher Hardware und Einstellungen hat man auf Windowsseite meist mindestens die doppelte Framezahl/Sekunde.


Apple optimiert ja sonst immer alles bis zum Anschlag warum schaffen die das hier nicht? Ist Direct X soweit voraus, sprich technisch nicht mehr einholbar.
0
AppleUser2013
AppleUser201323.08.1609:14
Die meisten OSX Ports nutzen OpenGL als Schnittstelle... und da hinkt Apple ordentlich hinterher... Aktuell ist OpenGL 4.5...
und OSX nutzt glaube ich noch 4.2 von 2011...
0
gfhfkgfhfk23.08.1611:32
jensche
Was ich erschreckend finde und anscheinend scheint das niemand bei Apple zu merken:
Grafiktreiber bei Windows sind dem Mac Jahre voraus.
Es ist noch schlimmer, die OpenGL Performance ist unter Linux nochmals höher als unter Windows.
0
Thyl24.08.1608:16
AppleUser2013
Auch ist klar, daß TB2 zu langsam ist, um die volle Power einer Graka zu nutzen...

es gab da mal ein Benchmarking unter Windows, wo jemand eine Graphikarte sowohl intern im PCIe Slot als auch extern über Thunderbolt gemessen hat, und der hat keine großen Unterschiede (iirc 20%) festgestellt. Vermutlich werden gar nicht so viele Daten übertragen, wenn man moderne Karten selbst rechnen lässt.
0
gfhfkgfhfk24.08.1610:45
Thyl
es gab da mal ein Benchmarking unter Windows, wo jemand eine Graphikarte sowohl intern im PCIe Slot als auch extern über Thunderbolt gemessen hat, und der hat keine großen Unterschiede (iirc 20%) festgestellt. Vermutlich werden gar nicht so viele Daten übertragen, wenn man moderne Karten selbst rechnen lässt.
Es gibt regelmäßig Test mit PCIe Grafikkarten und verringerter Anbindung, d.h. wie schnell sind die Karten wenn sie mit x8, x4 oder gar nur x1 angebunden sind. Je nach Anwendungen bricht die Performance recht brutal ein, wenn man unter x8 geht. Das Beispiel mit den extremsten Auswirkungen. Zum Verständnis noch ein paar Anmerkungen, da in allen Macs die CPUs langsamer sind als die verwendete CPU im Testsystem kann es sein, daß am Mac das gleiche Programm zuerst in die CPU Sättigung läuft, sprich gar nicht von der GPU limitiert wird. Ferner ist der TB2 Port etwas schlechter von der Anbindung als x4 PCIe 2.0. Sprich in diesem Beispiel halbiert sie die Framerate bei den wichtigen Auflösungen.
0
maczock24.08.1612:22
gfhfkgfhfk
… Ferner ist der TB2 Port etwas schlechter von der Anbindung als x4 PCIe 2.0. Sprich in diesem Beispiel halbiert sie die Framerate bei den wichtigen Auflösungen.

Wo ist der Zusammenhang zwischen Framerate bei unterschiedlichen Auflösungen und der Anbindung der Grafikkarte? Das ist eigentlich irrelevant, außer man möchte einen Film abspielen oder höhere Texturqualitäten verwenden.

Wenn man ansonsten eine total langsame GPU im Mac hat zählt doch die wesentliche Verbesserung, nicht was sein könnte unter anderen Umständen.
0
AppleUser2013
AppleUser201324.08.1612:27
Je höher die Auflösung, desto mehr Daten müssen zwischen GPU und CPU hin und hergeschoben werden...Da ist TB2 der Flaschenhals...da eben nur x4 PCIe. Grafikkarten sind aber für 16x PCIe 3.0 gedacht....
Deswegen kommt es zu Framerateeinbrüchen, Rucklern...
0
jensche24.08.1615:01
Hier noch eine aktuelle Kickstarter Kampagne zum Thema...

0
maczock24.08.1621:28
AppleUser2013
Je höher die Auflösung, desto mehr Daten müssen zwischen GPU und CPU hin und hergeschoben werden...

Das ist aber nicht richtig. Bei 3D Darstellung ist die mögliche Bildschirmauflösung quasi unabhängig vom Datendurchsatz zwischen CPU und GPU. Du verwechselst das mit dem, was unter dem Begriff Fillrate verstanden wird.

Simpel ausgedrückt: die GPU erhält einen Haufen Anweisungen und Rohdaten also die Geometriepunkte, Normals, Tangents, Texturkoordinaten der Geometriepunkte, Texturen, etc. und natürlich Shaderprogramme – was sie bereits in ihrem Speicher hat, muss im Regelfall nicht wieder geladen werden, belastet also den Bus nicht. Die Anweisungen, was wo und wie gerendert werden soll müssen für jeden Frame natürlich neu über den Bus übertragen werden.

Abhängig von der Auflösung des Bildschirms ist natürlich die Berechnung der Bildpunkte, die aber wird komplett auf der GPU erledigt. Wobei zwischen den Geometriepunkten eines Polygons interpoliert wird, z. B. die Texturkoordinate: vereinfachtes und simples Beispiel mit nur zwei Geometriepunkten: Die Texturkoordinate von Vertex A liegt bei X=0, Y=0 die von Vertex B bei X=1, Y=0. Liegt der zu berechnende Pixel exakt zwischen Punkt A und Punkt B dann entspricht die interpolierte Texturkoordinate X=0, Y=0.5 - es wird also der Punkt in der Mitte der Y-Achse der Textur gewählt. Die Anzahl der realen Pixel zwischen Vertex A und Vertex B ist abhängig vom Abstand und Lage dieser Geometriepunkte zur „Kamera“, die Berechnung der dann zu „füllenden" Pixel aber wird natürlich auf der GPU ausgeführt. Da für ein 3D Objekt, besser gesagt letztendlich einen Pixel, meistens auch Licht und andere rechenintensive Aufgaben berechnet werden müssen, ist die Bildschirmauflösung ein wesentlicher Faktor für den Rechenaufwand der GPU. Man die Anzahl der aufwendigen Berechnungen mildern, indem man die GPU, soweit vertretbar, Berechnungen pro Geometriepunkt erledigen lässt und das jeweilige Ergebnis auf die Pixel wie bei den Texturkoordinaten interpoliert überträgt.

Abhängig vom der Busgeschwindigkeit ist also alles, was neu geladen werden muss, also die Informationen über die aktuelle zu rendernde Szene und das sind alles im Regelfall natürlich auflösungsunabhängige Daten wie Positionen und Ausrichtung im Raum.
Wenn aber jedes noch so kleine Particle-Billboard einzeln zur GPU übertragen wird, statt viele möglichst in einem Schwung, dann belastet das sowohl CPU als auch den Bus. Hinzu kommen vielleicht aber auch noch Daten, die von der GPU an das System zurückgeschickt werden z. B. bei jedem Frame eine Rendertexture um mit dieser irgendetwas zu berechnen, dass auf einer GPU nicht möglich ist und diese Textur dann schlimmstenfalls auch noch modifiziert zurückzuschicken (aber solche Rendertextures sind ebenfalls unabhängig von der Bildschirmauflösung, denn es wird direkt in sie gerendert, sie haben also ihre eigene Auflösung). Bestenfalls erledigt man natürlich so viel wie möglich direkt auf der GPU und schickt nur das nötigste an Daten zurück.
0
Thyl25.08.1608:38
maczock
AppleUser2013
Je höher die Auflösung, desto mehr Daten müssen zwischen GPU und CPU hin und hergeschoben werden...

Das ist aber nicht richtig. Bei 3D Darstellung ist die mögliche Bildschirmauflösung quasi unabhängig vom Datendurchsatz zwischen CPU und GPU. Du verwechselst das mit dem, was unter dem Begriff Fillrate verstanden wird.

Simpel ausgedrückt: die GPU erhält einen Haufen Anweisungen und Rohdaten also die Geometriepunkte, Normals, Tangents, Texturkoordinaten der Geometriepunkte, Texturen, etc. und natürlich Shaderprogramme – was sie bereits in ihrem Speicher hat, muss im Regelfall nicht wieder geladen werden, belastet also den Bus nicht. Die Anweisungen, was wo und wie gerendert werden soll müssen für jeden Frame natürlich neu über den Bus übertragen werden.

Abhängig von der Auflösung des Bildschirms ist natürlich die Berechnung der Bildpunkte, die aber wird komplett auf der GPU erledigt. Wobei zwischen den Geometriepunkten eines Polygons interpoliert wird, z. B. die Texturkoordinate: vereinfachtes und simples Beispiel mit nur zwei Geometriepunkten: Die Texturkoordinate von Vertex A liegt bei X=0, Y=0 die von Vertex B bei X=1, Y=0. Liegt der zu berechnende Pixel exakt zwischen Punkt A und Punkt B dann entspricht die interpolierte Texturkoordinate X=0, Y=0.5 - es wird also der Punkt in der Mitte der Y-Achse der Textur gewählt. Die Anzahl der realen Pixel zwischen Vertex A und Vertex B ist abhängig vom Abstand und Lage dieser Geometriepunkte zur „Kamera“, die Berechnung der dann zu „füllenden" Pixel aber wird natürlich auf der GPU ausgeführt. Da für ein 3D Objekt, besser gesagt letztendlich einen Pixel, meistens auch Licht und andere rechenintensive Aufgaben berechnet werden müssen, ist die Bildschirmauflösung ein wesentlicher Faktor für den Rechenaufwand der GPU. Man die Anzahl der aufwendigen Berechnungen mildern, indem man die GPU, soweit vertretbar, Berechnungen pro Geometriepunkt erledigen lässt und das jeweilige Ergebnis auf die Pixel wie bei den Texturkoordinaten interpoliert überträgt.

Abhängig vom der Busgeschwindigkeit ist also alles, was neu geladen werden muss, also die Informationen über die aktuelle zu rendernde Szene und das sind alles im Regelfall natürlich auflösungsunabhängige Daten wie Positionen und Ausrichtung im Raum.
Wenn aber jedes noch so kleine Particle-Billboard einzeln zur GPU übertragen wird, statt viele möglichst in einem Schwung, dann belastet das sowohl CPU als auch den Bus. Hinzu kommen vielleicht aber auch noch Daten, die von der GPU an das System zurückgeschickt werden z. B. bei jedem Frame eine Rendertexture um mit dieser irgendetwas zu berechnen, dass auf einer GPU nicht möglich ist und diese Textur dann schlimmstenfalls auch noch modifiziert zurückzuschicken (aber solche Rendertextures sind ebenfalls unabhängig von der Bildschirmauflösung, denn es wird direkt in sie gerendert, sie haben also ihre eigene Auflösung). Bestenfalls erledigt man natürlich so viel wie möglich direkt auf der GPU und schickt nur das nötigste an Daten zurück.

Allerdings sieht das bei Videodaten etwas anders aus. Dort werden ggfs größere Datenmengen als Pixeldaten auf die GPU geschaufelt, um dort per OpenCL bearbeitet zu werden und werden dann wieder zurückgeschaufelt. Bei HDTV Raw (zB 4 Byte pro Pixel) und 25 Bildern pro Sekunde sind das pro Richtung über 200 MB pro Sekunde.
Die Digital Bolex erzeugt über 90 MB pro Sekunde an Daten. Bei 4K ist dann der Ofen aus, denke ich.
0
Thyl25.08.1608:46
Es kann übrigens noch ein Problem mit der Akitio Thunderbolt 2 Box geben, nämlich die bereitgestellte Leistung. Für PCIe ist das 25 W, nur die Spezialslots für Graphikkarten (PWG) bieten 75 W an. Und die 6Pol und 8Pol Stromversorgungen, die man zusätzlich anschließt, ergänzen das nur.
0
Thyl25.08.1608:49
Typische Aufbauten sehen dann so aus, mit Riser-Karte:

https://odd-one-out.serek.eu/thunderbolt-2-egpu-setup-using-akitio-thunder2/
0
gfhfkgfhfk25.08.1609:07
maczock
Das ist aber nicht richtig.
Was die Ursache ist, ist mir persönlich herzlich egal. Aber die Framerate sinkt bei allen Spielen mehr oder minder stark ab, wenn die GPU Anbindung eine verringerte Bandbreite aufweist. Bei Spielen mit anspruchsvollerer Grafik ist der Abfall größer.
0
maczock25.08.1610:03
gfhfkgfhfk
maczock
Das ist aber nicht richtig.
Was die Ursache ist, ist mir persönlich herzlich egal. Aber die Framerate sinkt bei allen Spielen mehr oder minder stark ab, wenn die GPU Anbindung eine verringerte Bandbreite aufweist. Bei Spielen mit anspruchsvollerer Grafik ist der Abfall größer.

Es hat aber nicht mit der Bildschirmauflösung zu tun. Und darum ging es, denn das wurde behauptet.
Thyl
Allerdings sieht das bei Videodaten etwas anders aus.

Ja, natürlich. Das habe ich aber doch auch geschrieben:
maczock
… außer man möchte einen Film abspielen …
maczock
…Bei 3D Darstellung ist die mögliche Bildschirmauflösung quasi unabhängig vom Datendurchsatz zwischen CPU und GPU. …
0
Thyl25.08.1619:53
maczock
gfhfkgfhfk
maczock
Das ist aber nicht richtig.
Was die Ursache ist, ist mir persönlich herzlich egal. Aber die Framerate sinkt bei allen Spielen mehr oder minder stark ab, wenn die GPU Anbindung eine verringerte Bandbreite aufweist. Bei Spielen mit anspruchsvollerer Grafik ist der Abfall größer.

Es hat aber nicht mit der Bildschirmauflösung zu tun. Und darum ging es, denn das wurde behauptet.
Thyl
Allerdings sieht das bei Videodaten etwas anders aus.

Ja, natürlich. Das habe ich aber doch auch geschrieben:
maczock
… außer man möchte einen Film abspielen …
maczock
…Bei 3D Darstellung ist die mögliche Bildschirmauflösung quasi unabhängig vom Datendurchsatz zwischen CPU und GPU. …
einen Film abzuspielen ist nicht das gleiche wie zB Rohdaten zu graden. Aber OK, im Prinzip deutet es in die Richtung und ich sollte präziser lesen. Sorry-.
0
v3nom
v3nom25.08.1622:30
Hier mein Basic eGPU Hardware Guide:
0
Stefab
Stefab26.08.1606:10
Hallo!

Ich habe vom Thread zwar erst die ersten paar Beiträge gelesen, aber ich schließe mich an, würde auch gern eGPU an iMac anschließen, evt. damit dann VR, mal sehen …

Also soweit ich weiß, geht das Akito schon, man braucht aber VIEL dickeres Netzteil und Adapter-Kabel, wegen kurzem PCIe-Slot, was dann vermutlich der Riser ist.

PS: Das ganze kann man dann in eine passendes Gehäuse mit Kühlung einbauen und fertig ist das Bastelprojekt!

v3nom: Danke für den tollen Link, wird sofort gebookmarked! 👍
0
JoMac
JoMac26.08.1607:33
Stefab
Ich habe vom Thread zwar erst die ersten paar Beiträge gelesen, aber ich schließe mich an, würde auch gern eGPU an iMac anschließen, evt. damit dann VR, mal sehen …
Nur als Hinweis .. beim iMac geht das leider nur wenn Du dann einen externen Monitor benutzt.
0
v3nom
v3nom26.08.1609:52
Also ich habe mir schon 3 eGPU gebaut und alle liefen 1a.
Leider steckt in der eGPU Szene kein extrem tiefes Wissen, wodurch manche Leute die eGPU nie ans laufen bekommen.
Unter OSX sollte eine eGPU immer zum laufen gebracht werden können, wenn man einen externen Bildschirm benutzt! Leider leidet dann der interne Bildschirm an "Lags".
Unter Windows läuft es auf dem internen Bildschirm nur wenn der Mac NUR eine Intel GPU hat und man Windows 8.1/10 benutzt.
Hardware muss halt auch passend ausgewählt werden...

Hier mal meine eGPU auf dem internen Bildschirm (Windows):

Und unter OSX mit 2 eGPUs in DaisyChain mit 8 externen Bildschirmen:
0
Stefab
Stefab28.08.1619:40
JoMac
Stefab
Ich habe vom Thread zwar erst die ersten paar Beiträge gelesen, aber ich schließe mich an, würde auch gern eGPU an iMac anschließen, evt. damit dann VR, mal sehen …
Nur als Hinweis .. beim iMac geht das leider nur wenn Du dann einen externen Monitor benutzt.
Würde wohl auch nicht so viel Sinn machen, da das Bild die eh schon schmale Bandbreite ganz aufbrauchen würde. Aber TV (evt. mal 4k, derweil 1080p) oder VR-Brillen sind ja extern anzuschließen, also passt das schon. Interessant wäre das ganze eben für besonders anspruchsvolle Spiele, wie zB mal Star Citizen oder eben VR, sowas eben …
Für mittelmäßig anspruchsvolles, wie zB Elite Dangerous am Fernseher in FullHD reicht die interne ja auch noch ganz gut.
0
AppleUser2013
AppleUser201328.08.1619:58
Wieviel langsamer werden Gpus in der Box mit x4 Anbndung im Vergleich zu Gpus die direkt in einen PCIe x16 Slot stecken...
0
dom_beta28.08.1621:42
Hallo,
AppleUser2013
und OSX nutzt glaube ich noch 4.2 von 2011

OpenGL Version 4.1 laut
„...“
0
gfhfkgfhfk28.08.1621:49
AppleUser2013
Wieviel langsamer werden Gpus in der Box mit x4 Anbndung im Vergleich zu Gpus die direkt in einen PCIe x16 Slot stecken...
Das hatte ich schon in diesem Thread angeführt .
0
maczock28.08.1623:18
AppleUser2013
Wieviel langsamer werden Gpus in der Box mit x4 Anbndung im Vergleich zu Gpus die direkt in einen PCIe x16 Slot stecken...

Die werden überhaupt nicht langsamer. Aber wenn viele Daten transferiert werden müssen dann müssen sie drauf warten. Das ist aber vollkommen Anwendungs-, Inhalts- und Einstellungsabhängig, es ist also kein permanenter Flaschenhals, wie bei einer SSD an einem alten PATA-Anschluss. Natürlich wird ein modernes High-End-Spiel in höchster Qualitätsstufe diesen Flaschenhals unverzüglich offenbaren, wichtige Einstellungen wie Filtering, AA, die Auflösung des Spiels, Schattenqualität, und alles andere was direkt auf der GPU erledigt wird und quasi keinen extra „Traffic“ erzeugt, sollte vom Flaschenhals nicht betroffen sein.
0
v3nom
v3nom28.08.1623:20
AppleUser2013
Wieviel langsamer werden Gpus in der Box mit x4 Anbndung im Vergleich zu Gpus die direkt in einen PCIe x16 Slot stecken...

90% auf einem extern Bildschirm
70% auf dem internen Bildschirm
Also 70-90% eines Desktop PCs
0
maczock28.08.1623:29
v3nom
AppleUser2013
Wieviel langsamer werden Gpus in der Box mit x4 Anbndung im Vergleich zu Gpus die direkt in einen PCIe x16 Slot stecken...

90% auf einem extern Bildschirm
70% auf dem internen Bildschirm
Also 70-90% eines Desktop PCs

Wenn der Flaschenhals durch die Limitierung der Daten von der CPU auf dem Weg über den Bus sind, dann stehen durch die Natur von Grafikkarten dieser aber mehr Ressourcen für Berechnungen pro Frame zur Verfügung, denn die Beschränkung des Busses entspricht dem Zustand CPU-bound. Man kann also unter Umständen gewisse Stufen der Qualität erhöhen, ohne Einbußen bei den FPS zu erzeugen.
0
v3nom
v3nom29.08.1609:06
Das waren die Werte, die ich mit 1080p Benchmarks erreicht hatte...
0
Thyl29.08.1609:50
v3nom
Also ich habe mir schon 3 eGPU gebaut und alle liefen 1a.
Leider steckt in der eGPU Szene kein extrem tiefes Wissen, wodurch manche Leute die eGPU nie ans laufen bekommen.
Unter OSX sollte eine eGPU immer zum laufen gebracht werden können, wenn man einen externen Bildschirm benutzt! Leider leidet dann der interne Bildschirm an "Lags".
Unter Windows läuft es auf dem internen Bildschirm nur wenn der Mac NUR eine Intel GPU hat und man Windows 8.1/10 benutzt.
Hardware muss halt auch passend ausgewählt werden...

Hier mal meine eGPU auf dem internen Bildschirm (Windows):

Und unter OSX mit 2 eGPUs in DaisyChain mit 8 externen Bildschirmen:
Was ist denn das für eine Gehäuse, in dem die Graphikkarte steckt? und musstest Du jeweils was löten, um den PCIe-Slot von 25 W auf 75 W (PEG) zu bringen?
0
Thyl29.08.1609:58
Das scheint übrigens die billigste (USD550) Fertiglösung zu sein:

https://bizon-tech.com/us/bizonbox2-egpu.html/

Wenn man das recherchiert, so regen sich die Leute auf, das wäre Betrug. Das kann man aber wohl nur so sehen, wenn man leidenschaftlicher Bastler ist und seine Arbeitszeit nicht mit ansetzt.

Anscheinend machen die folgendes: Sie nehmen eine Akitio Thunderbolt-Box, machen zusätzliche Lüftungslöcher und einen Ausschnitt für 6Pol/8Pol-Kabel rein, friekeln irgendwas mit den Kabeln, was nicht verraten wird, und verwenden dann ein Dell-Laptop-Netzteil als zusätzliche externe Stromversorgung. Ich weiß weder, ob die an der Akitio löten, noch, wie sie vom Dell-Netzteil zu den 6Pol/8Pol-Steckern kommen.
0
Thyl29.08.1610:09
kann leider kein Russisch:

http://media-rich.ru/graphics-card/35-obzor-bizonbox-2-boks-dlya-vneshney-videokarty-s-interfeysom-thunderbolt-2.html
0
Thyl29.08.1610:23
Thyl
Das scheint übrigens die billigste (USD550) Fertiglösung zu sein:

https://bizon-tech.com/us/bizonbox2-egpu.html/

Wenn man das recherchiert, so regen sich die Leute auf, das wäre Betrug. Das kann man aber wohl nur so sehen, wenn man leidenschaftlicher Bastler ist und seine Arbeitszeit nicht mit ansetzt.

Anscheinend machen die folgendes: Sie nehmen eine Akitio Thunderbolt-Box, machen zusätzliche Lüftungslöcher und einen Ausschnitt für 6Pol/8Pol-Kabel rein, friekeln irgendwas mit den Kabeln, was nicht verraten wird, und verwenden dann ein Dell-Laptop-Netzteil als zusätzliche externe Stromversorgung. Ich weiß weder, ob die an der Akitio löten, noch, wie sie vom Dell-Netzteil zu den 6Pol/8Pol-Steckern kommen.
Sorry, DA-2 Netzteil von Dell ist für einen kleinen Standrechner, nicht Laptop.
0
v3nom
v3nom29.08.1610:51
Thyl
Was ist denn das für eine Gehäuse, in dem die Graphikkarte steckt? und musstest Du jeweils was löten, um den PCIe-Slot von 25 W auf 75 W (PEG) zu bringen?

Alles was Bizon macht, habe ich schon lange vorher in einem Guide niedergeschrieben:
Ich denke ich weiß genug, um dir helfen zu können.
Und ja, Bizon ist vollkommen überteuert.

Ich habe bei meiner mini eGPU alles im AKiTiO Thunder2 gelassen. Somit also in dem Originalgehäuse, der gängigen TB2 Lösung (auf der auch Bizon basiert).
Um 75W auf den Slot zu bringen muss man nur ein entsprechend starkes NT benutzen.
Das Dell DA-2 hat im Techinferno-Forum einen eigenen Thread wo jeder einzelne Pin erklärt wird.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.