Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>Kommt mit dem ARM-Macs auch das Ende der AMD-GPUs?

Kommt mit dem ARM-Macs auch das Ende der AMD-GPUs?

LoCal
LoCal23.06.2009:03
Was ich interessant fand war, dass Apple bei der Präsentation mehrmals betonte, dass es sich bei GPU um die eigene handelt.

Zwar wurde auch betont, dass das DTP mit dem A12Z Bionic des iPad Pro läuft, aber wenn man sich das Hardware einschl. iMac Pro anschaut, stellt sich schon die Frage, ob Apple nicht auch die Chance nutzt um sich auch von AMD zu trennen.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0

Kommentare

Crypsis8623.06.2009:06
Meine persönliche Vermutung ist, dass in den Pros weiterhin AMD verbaut wird. Es wird eher so sein, dass die unteren Klassen (MacBook Air, Mac Mini, MacBook Pro 13) von einer starken iGPU profitieren. Das ist einer der Vorteile, womit Apple das einem schmackhaft machen wird den Umstieg. Und sind wir ehrlich, grade in den Bereichen, zumindest Air und Mini kann es eigentlich nur besser werden. In den großen Pros dürfte auch weiterhin eine AMD-Karte verbaut sein.
+1
subjore23.06.2009:13
Doch es wurde betont.
https://www.youtube.com/watch?v=GEZhD3J89ZE&t=92m13s
Also zumindest dass der Chip eine high-performance GPU hat.

Wobei das natürlich nicht ausschließt dass es zusätzlich noch eine high-performance AMD GPU haben.

Interessanter weise sind in der Nintendo Switch ein ARM Prozessor und eine AMD Grafikkarte. Es ist also theoretisch möglich das zu kombinieren.
-2
Apple@Wien
Apple@Wien23.06.2009:17
subjore

Nicht ganz, die Switch 1 hat einen Nvidia Tegra Chip und Nvidia wird sicher keine GPU von AMD bauen.

Es steht jedoch im Raum, das in der Switch 2, kein Tegra mehr kommt. Stattdessen ARM+AMD.😉
0
LoCal
LoCal23.06.2009:20
subjore
Interessanter weise sind in der Nintendo Switch ein ARM Prozessor und eine AMD Grafikkarte. Es ist also theoretisch möglich das zu kombinieren.

Naja, machen kann Apple was sie wollen. Es spricht nichts dagegen AMD oder gar nvidia-GPUs in den ARM-Macs zu verbauen. Grafikkarten sind nahezu grundsätzlich Plattform-neutral. Es braucht halt die entsprechenden Treiber und natürlich die Anbindung auf dem LogicBoard.
Aber da Apple wirklich so sehr die eigenen GPUs betont hat, bin ich echt am Grübeln.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
+1
subjore23.06.2009:23
Ah so war das. Dann hatte ich das falsch gelesen
Dann hatte ich den GPU Hersteller vertauscht und wo das stand, stand nur die Architektur der CPU (ARMv8).
0
athlonet23.06.2009:28
Apple hat nicht umsonst betont, dass sich die Grafikleistung ihrer eigenen SoCs vom ersten iPad bis heute um den Faktor 1000 erhöht hat. Und sie sprechen von "Apple Silicon", nicht von Apple CPU!
Wenn es noch Dritthersteller-GPUs geben sollte, dann höchstens im Mac Pro. Und selbst da glaub ich nicht dran. Die wollen zukünftig alles selber machen.
+1
Crypsis8623.06.2009:36
mag ja sein, aber du musst ja auch immer sehen, dass sie einen nachfolger für das macbook pro 16 mit ihrem eigenen silicon bringen müssen. und mit einer integrierten gpu kommst du nicht an die performance einer 5500m oder sogar 5600m. was da maximal möglich ist siehst du ja an den amd apus (ryzen 3400g), lass da noch bisschen optimieren und einen navi chip reinbauen, kommste aber trotzdem nicht an eine 5600m.

wenn apple allerdings auch diskrete gpus baut.. dann ja, dann wars das für amd.
+1
LoCal
LoCal23.06.2009:41
Crypsis86
mag ja sein, aber du musst ja auch immer sehen, dass sie einen nachfolger für das macbook pro 16 mit ihrem eigenen silicon bringen müssen. und mit einer integrierten gpu kommst du nicht an die performance einer 5500m oder sogar 5600m. was da maximal möglich ist siehst du ja an den amd apus (ryzen 3400g), lass da noch bisschen optimieren und einen navi chip reinbauen, kommste aber trotzdem nicht an eine 5600m.

wenn apple allerdings auch diskrete gpus baut.. dann ja, dann wars das für amd.

Die Frage ist halt wofür? Sie haben ja betont, dass die Performance für Spiele ausrreichen soll (ja, Apple Marketingsprech … wer weiss wie die Spiele bei 4K laufen … so wie sie gezeigt wurden war es aber aber akzeptabel)
Und dann haben sie ja mit Afterburner etwas, das sie statt GPU in den MacPro nutzen könnten.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
+2
subjore23.06.2009:45
Eine gute Übersetzung von "Silicon" ist übrigens Chip. Man kann also auch einfach von Apple Chips reden.
Und ja ein Chip kann alles mögliche enthalten.

Ein wichtiger Punkt bei den Apple Chips sind ja die Neuronale Einheiten. Diese sind allerdings auch für Grafikkarten wichtig. Wenn man jetzt eine AMD GPU mit einem A14 Prozessor paart, kann die GPU nicht auf die Neuronale Einheiten vom A14 zugreifen und lässt diese ungenutzt und verwendet nur seine eigenen. Das wäre nicht wirklich effizient.
+1
Crypsis8623.06.2010:00
Local

Ich befürchte, dass Apple die paar Ports, die es gibt zwar einschließt, aber hauptsächlich wohl Apple Arcade meint. Und sind wir ehrlich, dass sind grafisch gesehen keine Bomben. Die laufen auch auf einer Intel iGPU. Sind ja eh alles nur bessere Handygames.
Das mit Afterburner ist ein gutes Argument, stimmt. Sowas in der Art (ja, nur ganz grob) gibt es ja bereits in den T2 Chips - die haben ja auch encoding/decoding Aufgaben übernommen. Wenn das weiter zu einem quasi QuickSync-Ersatz ausgebaut wird, dürften da auch viele aus der Richtung FCPX (mich inkl.) besänftigt sein.

Der Knackpunkt bei den GPUs ist doch der VRAM. Wenn die keinen eigenen haben, sind die in der Performance einfach limitiert. Ob Apple da einen HBM-Block auf das Soc gepackt hat? Wäre natürlich cool..

subjore

Und die neuronalen Einheiten brauch ich am Mac für was? Was spricht dagegen, dass z.B. Siri die neuronalen Einheiten auf dem Soc nutzt und die Einheiten auf der GPU eine andere Anwendung?
0
pünktchen
pünktchen23.06.2010:20
Also ich kuck mir gerade die Plattforms State of the Union an und wie sie vor allem ab 14:00 die Leistung der GPU anpreisen klingt tatsächlich so als wäre bald Schluss mit dezidierten Grafikkarten. Die Unified Memory Architecture wird mehrfach lobend erwähnt und ausdrücklich gesagt dass jeder neuer Mac diese "powerful GPU and metal implementation" haben wird. Gut, bisher hat auch jeder Mac mit dezidierter GPU auch noch eine integrierte GPU, insofern ist das an sich nichts neues. Aber sie betonen es schon sehr deutlich.
+1
LoCal
LoCal23.06.2010:22
Crypsis86
Local

Ich befürchte, dass Apple die paar Ports, die es gibt zwar einschließt, aber hauptsächlich wohl Apple Arcade meint. Und sind wir ehrlich, dass sind grafisch gesehen keine Bomben. Die laufen auch auf einer Intel iGPU. Sind ja eh alles nur bessere Handygames.

Naja, Dirt Rally und der Tomb Raider-Titel (das in Rosetta lief) waren keine Handyspiele
Und die kurze Maya-Demo war zwar kurz, aber ruckelfrei
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
+1
LoCal
LoCal23.06.2010:23
pünktchen
Also ich kuck mir gerade die Plattforms State of the Union an und wie sie vor allem ab 14:00 die Leistung der GPU anpreisen klingt tatsächlich so als wäre bald Schluss mit dezidierten Grafikkarten. Die Unified Memory Architecture wird mehrfach lobend erwähnt und ausdrücklich gesagt dass jeder neuer Mac diese "powerful GPU and metal implementation" haben wird. Gut, bisher hat auch jeder Mac mit dezidierte GPU auch noch eine integrierte GPU, insofern ist das an sich nichts neues. Aber sie betonen es schon sehr deutlich.

Ja, genau. Den Teil den ich noch von der State of the Union mitbekommen habe, war schon sehr viel Werbung für die Grafikleistung des Apple Silicon.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
arekhon
arekhon23.06.2011:09
Außer für den High-End Bereich könnte es sich schon andeuten, dass damit ein Trend Richtung APU beginnt.

Auch im x86-Umfeld kommen hier mit AMDs neuer ZEN2 und RDNA2 Architektur sehr starke CPU/GPU-Kombinationen auf den Markt, was sich für Consumer vor allem bei XBox One X und PS5 zeigen wird, die diesmal wenn sie auf den Markt kommen, auch im PC-Vergleich sehr stark sind. Selbst Hardware Ray Tracing wird schon unterstützt und einige angekündigt Spiele nutzen es schon teilweise. Anders als zu der Zeit wo PS4 und XBox One auf den Markt kamen und mit Mid-Range GPU und eher schwacher CPU nicht so stark auftrumpfen konnten, werden die neuen Systeme up to date sein und bei der IO-Architektur die meisten PCs zunächst sogar weit übertreffen.

Es würde mich daher nicht wundern wenn auch im Bereich bei Midrange-PCs starke APUs auf den Markt kommen.
AMD hat hier gerade sehr große Entwicklungs-Sprünge und Erfolge zu verzeichnen und überlässt NVIDIA auch im GPU-Bereich nicht mehr so einfach das Feld.

Es wird interessant ob die PC-Hersteller diesen Technologie-Sprung in der Art auch mitmachen und mehr zusammen integrieren, oder erst einmal abwarten wie es damit bei Apple laufen wird.

Für Intel würde es damit in jedem Fall schwerer, weil ihre GPU-Entwicklung bei NVIDIA, AMD und ARM bisher anscheinend nicht mithalten kann. AMD und ARM sind für leistungsfähige APUs derzeit am besten aufgestellt - auch da sind kundenorientiert dafür aufgestellt sind Sonderwünsche zu integrieren.
+1
Stefab
Stefab23.06.2011:11
Genau, das Shadow of the Tomb Raider lief in 1080p flüssig als x86 Spiel - und das hat schon ganz ordentliche Anforderungen, siehe App Store:


Rein theoretisch müsste das, wenn die Rosetta2 für iPad OS rauslassen würden, genauso am neuen iPad Pro laufen, oder? Hat das auch den A12Z? Warum wird nicht das als Developer Gerät freigeschaltet?
0
athlonet23.06.2011:52
Stefab
Rein theoretisch müsste das, wenn die Rosetta2 für iPad OS rauslassen würden, genauso am neuen iPad Pro laufen, oder? Hat das auch den A12Z? Warum wird nicht das als Developer Gerät freigeschaltet?

Das iPad Pro hat nur 6GB RAM. Dem Mac Mini aus dem Developer Kit haben sie 16GB RAM spendiert (und mehr Anschlüsse als das iPad Pro hat er auch). Außerdem kann es sein, dass sie den A12Z im Mac Mini höher takten (im Mac Mini darf er ja prinzipiell mehr Strom verbrauchen).
0
Crypsis8623.06.2012:43
LoCal
Naja, Dirt Rally und der Tomb Raider-Titel (das in Rosetta lief) waren keine Handyspiele
Und die kurze Maya-Demo war zwar kurz, aber ruckelfrei

Die zwei meinte ich mit den "paar Ports".. ich mein, klar, in Steam gibts das ein oder andere Game was nach GPU schreit bzw. mit Intel iGPU nicht vernünftig läuft, aber das ist eben eine Nische. Die zentrale Frage wird sein, kann durch eine Radeon 5600M FCPX z.B. noch massiv beschleunigt werden bzgl. Effekte / Filter oder laufen genau die Dinge schon schneller/gleich schnell auf der Apple GPU. Weil für Apple-Arcade werden sie reichen, davon kann man ausgehen, das dürfte denen genügen.

Und ja, es gibt noch andere Programme. DaVinci Resolve, die ganzen 3D-Programme, CAD etc., die auch nach PErformance schreien. Für die gilt das gleiche.. reicht die computing leistung mit der integrierten oder bietet eine Radeon ein deutliches Plus. Vll. gibts in Zukunft anstatt der 5300M dann nur die iGPU und für die, die mehr brauchen, dann die 5500M als Upgrade-Option..wer weiß..
0
Crypsis8623.06.2012:47
athlonet
...Außerdem kann es sein, dass sie den A12Z im Mac Mini höher takten (im Mac Mini darf er ja prinzipiell mehr Strom verbrauchen).

Auf den Vergleich freu ich mich eigentlich am meisten. Ob es stimmt, dass die A12 und Konsorten alles "zerstampfen", wenn sie von der Leine gelassen werden mit Kühlung mehr Stromverbrauch oder ob sie dann doch nicht so hoch skalieren.. spannend.
0
LoCal
LoCal23.06.2012:53
Crypsis86
athlonet
...Außerdem kann es sein, dass sie den A12Z im Mac Mini höher takten (im Mac Mini darf er ja prinzipiell mehr Strom verbrauchen).

Auf den Vergleich freu ich mich eigentlich am meisten. Ob es stimmt, dass die A12 und Konsorten alles "zerstampfen", wenn sie von der Leine gelassen werden mit Kühlung mehr Stromverbrauch oder ob sie dann doch nicht so hoch skalieren.. spannend.

Wo wurde behauptet, dass sie alles zerstampfen?
Es geht dabei doch eher um gleiche bzw etwas mehr Leistung bei geringerem Energiebedarf.
Und vielleicht kam der neue MacPro nicht grundlos erst so spät …
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
0
pünktchen
pünktchen25.06.2010:45
Das ist schon recht eindeutig finde ich:




Vielleicht werden Grafikkarten als Option für den MP und als externe GPU noch geduldet, aber in MBP und iMac ist ihre Zeit wohl abgelaufen.
0
piik
piik25.06.2011:14
LoCal
Und vielleicht kam der neue MacPro nicht grundlos erst so spät …
Und auf welche Erkenntnis stützt Du das? Weil die Füße so schwierig zu fertigen waren?
Oder die ganze Industrie hat es in der Zeit auch nicht fertig gebracht, leistungsfähige Workstations auf Intelbasis zu fertigen? Hab ich was vergessen?
0
Megaseppl25.06.2012:02
LoCal
Naja, Dirt Rally und der Tomb Raider-Titel (das in Rosetta lief) waren keine Handyspiele
Und die kurze Maya-Demo war zwar kurz, aber ruckelfrei
Tomb Raider sah schon arg limitiert aus. Die Texturen wirkten verwaschen, auch Details wie die Haare kenne ich in deutlich schicker in dem Spiel. Lässt sich aber im Stream nicht wirklich beurteilen.
Bei Maya war die Anzahl der Polygone nicht so hoch wie die Betonung davon... und die Texturen waren hauptsächlich Materialien ohne Bitmaps, ohne Bump-Maps etc.

Ich kann mir vorstellen, dass Apple es besser hinbekommt als die integrierten Grafikeinheiten der Intel CPUs zu performen, glaube aber nicht dass sie AMD, geschweige denn Nvidia in absehbarer Zeit auch nur ansatzweise das Wasser reichen können.

Allerdings kann Apple natürlich einen anderen Weg gehen und sagen: Hey, wir sch**ssen auf Spiele und 3D, dafür bauen wir explizite Beschleuniger für alles ein was die Mehrheit am Mac braucht. Sprich: Die Mac Pros bekommen von Haus aus in den SOC den Afterburner, bekommen fette H.26x Encoder als Hardware, und was-weiß-ich-für-Beschleuniger für Dinge wie FCP-Rendering so dass eine GPU weniger relevant wird für alles außer 3D.
Letztlich sind sie ja mit dem T2 bereits einen ersten Schritt in diese Richtung gegangen. Das H.26x-Encoding ist darüber sogar fixer als über meine GTX 1080.

Am Mac fände ich es für mich auch gar nicht so verkehrt. Denn ganz ehrlich: Der Mac-Spiele-Bereich ist imho so immens unattraktiv geworden, da können sie von mir aus auch gleich darauf verzichten extra dafür dicke GPUs einzubauen. Die Arcade-Spiele laufen eh auf allen Geräten, der aufwändigere Rest... nee, das tu ich mir nicht mehr unter macOS an, die laufen einfach unter Windows weitaus besser.
Meine externe AMD 5700 XT habe ich im Grunde genommen nur für FCP, Photoshop und Lightroom.
+3
DERJUNG25.06.2012:56
ich sehe das genauso wie "pünktchen". Apple will die komplette Kontrolle und unabhängiger von Zulieferern werden. Meinen MacPro kauf Anfang des Jahres bereue ich schon. Aber was mir sorgen macht ist das der MacPro dann in naher Zukunft weniger Hardware updates bekommen wird, die man in den jetzigen einbauen kann. Ich gehe fest davon aus, ende nächsten Jahres ist AMD auch raus. genauso wie Nvidia. Keine Treiber für neuere Hardware, weil Apple seine Hardware besser positionieren wird und die Konkurrenz abwürgt.
Ich hoffe natürlich es geht auf und die Leistung steigt. Aber Risiko ist das im Moment schon, wenn man als Nutzer einfach nicht weiß wie man jetzt investieren sollte.
0
pünktchen
pünktchen25.06.2013:16
Zu den integrierten Intel-GPUs sollte der Fortschritt deutlich sein. Die sind ja jetzt schon langsamer als ein iPad.

Mit einer dezidierten Grafikkarte in Konkurrenz zu treten wird wohl schwierig solange sie auf einem gemeinsam genutzten Arbeitsspeicher beharren. Da kann ja dann kein PCIe Bus dazwischen sein, CPU und GPU müssen vermutlich entsprechend eng aufeinander hocken und schon wird es schwierig mit der Kühlung.

Aber so was wie die Apple Afterburner Karte ist sicher möglich - was stecken da eigentlich für Chips drin? edit: "featuring a programmable ASIC" hm
0
piik
piik25.06.2013:38
Megaseppl
...dafür bauen wir explizite Beschleuniger für alles ein was die Mehrheit am Mac braucht. Sprich: Die Mac Pros bekommen von Haus aus in den SOC den Afterburner, bekommen fette H.26x Encoder als Hardware, und was-weiß-ich-für-Beschleuniger für Dinge wie FCP-Rendering so dass eine GPU weniger relevant wird für alles außer 3D.
pünktchen
Da kann ja dann kein PCIe Bus dazwischen sein, CPU und GPU müssen vermutlich entsprechend eng aufeinander hocken und schon wird es schwierig mit der Kühlung.

Denkbar ist das sicher alles. Aber bedenkt mal, was moderne GPU-Chips von AMD oder nVidia für einen enormen Stromverbrauch für ihre vielen Shader-Einheiten etc. und pp. haben. Wollte man sowas bzw. deren funktionales Äquivalent auch nur ansatzweise in eine CPU integrieren, dann ist die TDP dermaßen enorm, dass es unpraktikabel wird. Man kommt so locker und blitzartig weit über 100W, alleine für die Grafik, noch ganz ohne die eigentlichen Rechenkerne.
Nicht dass eine direkte Anbindung nicht denkbare Vorteile böte, aber das sind doch einige technische Hürden, die ihr übersehen habt. Die externen Grafikkarten haben eigenen Speicher eines besonderen Typs und bekommen so eine sehr hohe Datentransferrate und lettzlich Leistung. Normaler Arbeitsspeicher ist langsamer. Die gemeinsame Nutzung des Speichers von CPU und GPU ist zwar denkbar, doch mit DDR4 geht das nicht, da müsste teurer Hochleistungsspeicher her. Davon würde dann der gesamte Rechner sehr profitieren, aber was Apple für so einen Ansatz dann vom Kunden verlangen würde, könnte so gepimpte Macs schlicht unverkäuflich machen.
+1
dsTny25.06.2013:57
Vielleicht geht Apple auch über den Thunderbolt-Weg. Wer mehr Grafik braucht als Intern verfügbar, kann via eGPU weitere Leistung "dazuschalten". Würde zumindest für mich sinnvoll erschließen, weshalb Apple frühzeitig diese Möglichkeit implementiert hatte… Thunderbolt 3 wurde von Intel bereits freigegeben und soll auch in USB 4 implementiert werden. Es gibt demnach damit keine Probleme für ARM-Macs, diese können weiterhin auf Thunderbolt 3 bzw später auf USB 4 setzen.
+1
Maniacintosh
Maniacintosh25.06.2014:05
Denkbar, aber Thunderbolt 3-eGPUs haben ja auch Nachteile: Gerade, wenn es um MEHR Grafik geht. Intern kann man eine GPU mit mehr PCIe-Lanes anbinden, als über TB3 (wenn ich es richtig im Hinterkopf habe gehen da max. 4 Lanes, direkt sind gerne mal 16 Lanes üblich). Und man merkt das auch in Benchmarks, wenn man eine eGPU nutzt. Primär ist das nützlich, wenn man die GPU wirklich zur Grafikausgabe nutzen will: Dann kommt das Display an die eGPU und die Daten fließen auch nur in eine Richtung. Anwendungen, wie FinalCut oder ähnliche, die durch eine GPU beschleunigt werden können, haben das Problem, dass die Daten ja in die GPU rein, aber auch wieder raus zurück in den Mac müssen. Da bleiben dann grob pro Weg nur noch 2 Lanes...
+1
pünktchen
pünktchen25.06.2014:48
Andererseits kann "unified memory" ziemlich unterschiedliche Dinge meinen. NVidia preist das für seine Grafikkarten auch an:

Apple muss sich also nicht auf klassische integrierte GPUs beschränken!
0
Thyl25.06.2014:55
dazu müsste Apple wohl erstmal PCIe-Elektronik entwickeln. Derzeit hat Apple Silicon das ja wohl nicht, wenn ich das richtig verstehe.
+1
pünktchen
pünktchen25.06.2015:08
Müssen sie für TB doch eh. Aber theoretisch könnten sie natürlich auch auf einen anderen Bus setzen. Wie ist denn die SSD im iPad angebunden?
0
Maniacintosh
Maniacintosh25.06.2015:29
Thyl
dazu müsste Apple wohl erstmal PCIe-Elektronik entwickeln. Derzeit hat Apple Silicon das ja wohl nicht, wenn ich das richtig verstehe.

Naja Apple hat ja schon proprietäre NVME-Flash-Speicher-Module für den iMac Pro und Mac Pro gebastelt. Und dass neue ARM-Macs auf Thunderbolt verzichten kann ich mir auch nicht ganz vorstellen.
0
Thyl25.06.2015:56
pünktchen
Müssen sie für TB doch eh. Aber theoretisch könnten sie natürlich auch auf einen anderen Bus setzen. Wie ist denn die SSD im iPad angebunden?
USB 4 enthält eine Option für Thunderbolt 3. Hat intel freigegeben. Die Frage ist, ob man dann wirklich noch PCIe dazwischen braucht, oder nicht eine andere CPU <> Thunderbolt-Verbindung entwickeln kann. Die PCIe-basierten intel-Chips sind jedenfalls nicht mehr notwendig. Ich würde mich nicht wundern, wenn da Apple bei der USB4-Spezifizierung ein bisschen gedrängelt hat.

Die Frage nach der Anbindung des Flash-Speichers hatte ich mir eben (anlässlich meines ersten Kommentars) auch gestellt, konnte aber nichts herausfinden.

wir werden sehen.
0
Maniacintosh
Maniacintosh25.06.2015:59
Naja Thunderbolt basiert auf DisplayPort und PCI Express. Also Thunderbolt ohne PCI Express geht gar nicht so wirklich.
0
pünktchen
pünktchen25.06.2016:07
Ah ich dachte TB3 und damit auch USB4 müssten PCIe unterstützen.

Hier steht zu USB4 tatsächlich was von "• Optionally support PCIeTunneling"
0
Crypsis8625.06.2016:13
nja, die heutigen usb3.1 chips in pcs sind doch auch schon über pcie angebunden, von daher würde es mich doch stark wundern, wenn ein usb4 standard, der auf tb3 basiert plötzlich ohne pcie stattfinden würde. aber wenn einer das schafft, dann apple
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.