Potenzielle GPUs für zukünftige Macs: Intel arbeitet an diskreten Grafikkarten

Intel plant bis zum Jahr 2020 hauseigene diskrete Grafikkarten, die es mit leistungsstarken Produkten der aktuellen Platzhirsche Nvidia und AMD aufnehmen sollen. Dies gab Intel-CEO Brian Krzanich kürzlich auf einem Analystentreffen bekannt. Das Unternehmen hat die Meldung zudem via Twitter bestätigt.

Für Apple-Rechner könnten sich dadurch interessante, neue GPU-Alternativen ergeben. Insbesondere mobile Macs wie das MacBook oder MacBook Pro könnten von leistungsstarken und dennoch hocheffizienten Grafiklösungen profitieren.

Ehemaliger AMD-Mitarbeiter leitet das Vorhaben
Intels Grafik-Offensive vorantreiben soll Raja Koduri, der Ende 2017 von AMD zu Intel wechselte. Bei AMD kümmerte sich Koduri zuvor als Senior Vice President und Chief Architect der Radeon Technologies Group um alle Grafikbelange des Unternehmens, darunter auch diskrete GPUs.

Intel richtet sich mit der neuen Grafikstrategie sowohl an den Enterprise- als auch den Verbraucher-Markt. Geschäftskunden wie zum Beispiel große Unternehmen sollen insbesondere mit diskreten Intel-Grafikkarten für Rechenzentren erreicht werden. Aspekte wie Machine Learning und Augmented Reality stehen hier im Vordergrund.

Im Konsumenten-Geschäft möchte Intel mit Nvidia und AMD konkurrieren. Welche Maßnahmen der Chip-Riese konkret ergreifen möchte, ist nicht bekannt. Intels aktuelle Onboard-Grafiklösungen hinken den beiden Wettbewerbern leistungsmäßig zum Teil stark hinterher, da sie den Hauptspeicher des Rechners nutzen und kein dediziertes VRAM besitzen. Vor einem halben Jahr erschienen sogar Intel-CPUs mit Onboard-GPUs von AMD, um eine bessere Leistung als mit Intel-Grafikeinheiten zu ermöglichen.

Intels mittel- und langfristige Strategie dürfte darauf ausgelegt sein, die Vorteile der eigenen Onboard-Chips – wie nahtlose Zusammenarbeit mit der CPU und hohe Energieeffizienz – mit dem großen Leistungspotenzial einer diskreten GPU zu kombinieren.

Apples Mac-Strategie unklar wegen möglichem Wechsel zu ARM
Ob Intels zukünftige Grafikkarten für Apple aber überhaupt noch infrage kommen, ist derzeit nicht abzusehen. Verschiedenen Berichten zufolge erwägt Apple bei Macs für die nächsten Jahre eine schrittweise Abkehr von Intel-Prozessoren zugunsten eigener ARM-SoCs, die Nutzer schon von iDevices wie iPhone oder iPad kennen.

Das Zeitfenster für den möglichen ARM-Switch von Apple deckt sich genau mit Intels Marktstartplänen für diskrete Grafikkarten. Auch beim Unternehmen aus Cupertino soll es laut Bloomberg 2020 soweit sein. Dadurch würden gesonderte Drittanbieter-Grafikeinheiten für Apple uninteressant, da der ARM-SoC die erforderliche GPU-Einheit bereits enthält.

Kommentare

jdbryne13.06.18 17:40
Primär gehts da um den AI Markt. Da ist Nvidia Monopolist. Für die paar MacBooks und iMacs will Intel sicherlich nicht Primär GPUs bauen. Sie sind ja schon gut in den Apple Geräten vertreten. Wobei es ja als der x-te Versuch von Intel gesehen werden kann selber konkurrenzfähige GPUs zu bauen, sonderlich gut hat es bisher nicht geklappt.
Und nein Apple wird sicherlich keine eigenen ARM Chips für einen iMac oder MacBook Pro bauen weil es einfach keinen Sinn ergibt. Diese Gerüchte gab's vor Jahren schonmal und waren da genauso wenig Technisch ernst zunehmen wie heute.
Kurz, ein ARM Chip läuft so wunderbar effizient in einem Mobile Device weil ein Mobile Device nicht so viel können muss wie ein Desktop. Deswegen ist es möglich den Chip in seinen Möglichkeiten (Befehlssätzen) zu beschneiden, was in einem effizienten und nicht sehr flexiblen SoC endet. Diesen Aufzubohren um für Desktop Aufgaben fit zu machen führt das ganze Konzept in Absurdum. Wenn am ehesten noch Custom Chips mit Intel oder AMD basteln aber selbst einen ARM SoC für Desktop fit machen ist einfach eine unlogische und Sinn befreite Vorstellung.
Bitte stoppt endlich damit diesen Unfug in den weiten des Internets zu verbreiten, es disqualifiziert automatisch als Technisch ernstzunehmendes Gegenüber
+2
MarkyBoyBln13.06.18 17:42
"Discrete" heißt (in diesem Fall) auf deutsch "separat". Es ist ja wohl eher zu hoffen, dass die Grafikkarten dann nicht allzu "diskret" ihr Werk verrichten...
+9
daschmc13.06.18 17:53
0
mazun
mazun13.06.18 18:05
Gewisse Inhalte sollte man auf jeden Fall besser über „diskrete“ Grafikkarkten darstellen lassen.
+6
sahomuzi13.06.18 18:25
Wechsel zu ARM? Warum für einen stagnierenden Markt eigene Prozessoren entwickeln mit einem durchaus gegebenen Entwicklungsrisiko und einer problematischen Übergangszeit?
+2
pünktchen
pünktchen13.06.18 19:09
jdbryne
Wobei es ja als der x-te Versuch von Intel gesehen werden kann selber konkurrenzfähige GPUs zu bauen, sonderlich gut hat es bisher nicht geklappt.

Na zwischen ersten Gehversuchen und einer modernen Intel GPU liegen aber Welten. Im Bereich Laptops sind die allemal konkurrenzfähig. Nicht umsonst baut Intel deutlich mehr GPUs als NVidia und AMD zusammen. Der Bereich wo sich eine extra GPU lohnt schrumpft bei PCs.
jdbryne
Kurz, ein ARM Chip läuft so wunderbar effizient in einem Mobile Device weil ein Mobile Device nicht so viel können muss wie ein Desktop. Deswegen ist es möglich den Chip in seinen Möglichkeiten (Befehlssätzen) zu beschneiden, was in einem effizienten und nicht sehr flexiblen SoC endet.

Risc-Architekturen sind nicht entwickelt worden um Strom zu sparen sondern um schnell zu sein. Speziell im Fall ARM zunächst für Desktops, sonst auch gerne für Workstations und Server (Mips, Sparc, Power, Alpha). Hauptunterschied ist jeweils der angepeilte TDP und nicht die Grösse und Struktur des Befehlssatzes.
0
jensche13.06.18 19:14
Ich habe mich auch die ganze Zeit gefragt was nun eine diskrete Grafikkarte sein soll, besonders ruhig? besonders Stromsparend? Diskret in Schwarz gehalten?
MarkyBoyBln
"Discrete" heißt (in diesem Fall) auf deutsch "separat". Es ist ja wohl eher zu hoffen, dass die Grafikkarten dann nicht allzu "diskret" ihr Werk verrichten...
+3
Sam
Sam13.06.18 20:58
die frage ob arm oder nicht ist obsolet. apple will proprietärität auf der ganzen linie und das ist auch die EINZIGE logische erklärung für einen möglichen switch.
Kein Slogan angegeben.
0
MetallSnake
MetallSnake13.06.18 22:01
MarkyBoyBln
"Discrete" heißt (in diesem Fall) auf deutsch "separat". Es ist ja wohl eher zu hoffen, dass die Grafikkarten dann nicht allzu "diskret" ihr Werk verrichten...

Naja...
Wikipedia
In Wissenschaft und Technik versteht man unter diskret „unterscheidbar“, „trennbar“, „abzählbar“ bzw. „aus einem gestuften Wertevorrat entnommen“;

https://de.wikipedia.org/wiki/Diskret#In_Wissenschaft_und_Te chnik
Erwachsensein ist halb gestorben --Relatives Menschsein
0
daschmc13.06.18 22:45
Naja...
SYNONYME FÜR SEPARAT
Bedeutung: gesondert, alleinstehend, eigen, einen Teil betreffend, abgetrennt, apart, diskret, einsam, exklusiv, getrennt, isoliert, partikular, separat, unstetig, vereinzelt
+1
Tzunami
Tzunami14.06.18 06:05
Also ich kenne noch den Begriff "dedizierte GPU", aber weder "dediziert" noch "diskret" machen nach der Duden-Bedeutung wirklich Sinn.
0
daschmc14.06.18 07:09
Tzunami
Also ich kenne noch den Begriff "dedizierte GPU", aber weder "dediziert" noch "diskret" machen nach der Duden-Bedeutung wirklich Sinn.
Dafür gibt es ja Latein 😉

Jetzt ist aber gut mit klugscheißen 😂
+1
MetallSnake
MetallSnake14.06.18 08:28
daschmc
Naja...
SYNONYME FÜR SEPARAT
Bedeutung: gesondert, alleinstehend, eigen, einen Teil betreffend, abgetrennt, apart, diskret, einsam, exklusiv, getrennt, isoliert, partikular, separat, unstetig, vereinzelt

Ja, Diskret kann auch Separat heißen, aber in diesem Fall ist ja wohl eindeutig die technische Definition anzuwenden.
Erwachsensein ist halb gestorben --Relatives Menschsein
+1
LoCal
LoCal14.06.18 10:46
daschmc

Daran musste ich auch denken, aber die GPU ging ja eher in eine andere Richtung. Die ist eher für Miner interessant …
Ich hab zwar keine Lösung, doch ich bewundere dein Problem
+1
jdbryne14.06.18 10:46
pünktchen
Na zwischen ersten Gehversuchen und einer modernen Intel GPU liegen aber Welten. Im Bereich Laptops sind die allemal konkurrenzfähig. Nicht umsonst baut Intel deutlich mehr GPUs als NVidia und AMD zusammen. Der Bereich wo sich eine extra GPU lohnt schrumpft bei PCs.
Schon klar sind die Intel iGPU's viel vertreten, aber von Konkurenzfähig zu reden ist übertrieben. Es reicht für Bildanzeige aber sobald GPU leistung gefragt ist ist die Konkurenz voraus. Der Bereich wo eine extra GPU gefragt ist wächst extrem schnel. AI, VR, Deep Lerarning, grundsätzlich ist Compute leistung gefragt wie nie. Apple baut doch nicht für nichts Metal 2 welches sich gerade auf diese Bereiche konzentriert.
pünktchen
Risc-Architekturen sind nicht entwickelt worden um Strom zu sparen sondern um schnell zu sein. Speziell im Fall ARM zunächst für Desktops, sonst auch gerne für Workstations und Server (Mips, Sparc, Power, Alpha). Hauptunterschied ist jeweils der angepeilte TDP und nicht die Grösse und Struktur des Befehlssatzes.
AVX, AVX2, FMA3 und VT-x sind z.B. Befehlssätze welche für einen Professionellen einsatz gebraucht werden. Wie viele Beherscht ein iPad ARM? Keine.
"Risc" bedeutet ja "Reduced Instruction Set Computer" welches soviel heisst wie "Rechner mit reduziertem Befehlssatz."
0
pünktchen
pünktchen14.06.18 11:38
jdbryne
Schon klar sind die Intel iGPU's viel vertreten, aber von Konkurenzfähig zu reden ist übertrieben. Es reicht für Bildanzeige aber sobald GPU leistung gefragt ist ist die Konkurenz voraus.

Eben nicht im Bereich bis etwa 30W TDP für CPU + GPU. Für Laptops bis zur Grösse (und Lautstärke) des kleinen MBP ist es schwer etwas schnelleres zu finden. "Es reicht für Bildanzeige" wäre eine passende Polemik bei der GMA 950 gewesen aber das ist lange her.

pünktchen
AVX, AVX2, FMA3 und VT-x sind z.B. Befehlssätze welche für einen Professionellen einsatz gebraucht werden. Wie viele Beherscht ein iPad ARM? Keine.
"Risc" bedeutet ja "Reduced Instruction Set Computer" welches soviel heisst wie "Rechner mit reduziertem Befehlssatz."

Als Risc versus Cisc aktuell war (also vor ca. 30 Jahren!) gab es solche Erweiterungen noch gar nicht. Der schlankere Befehlssatz bezog sich auf die Grundfunktionen der CPU. Schon zu Zeiten von PowerPC versus Pentium hat sich der Unterschied ziemlich relativiert. Und natürlich haben auch ARM-Chips inzwischenSIMD-Einheiten und entsprechende Befehle. Also ja, das iPad beherrscht natürlich Befehle die AVX, AVX2 und FMA3 entsprechen (FMA wohl ab dem A6). Ob es etwas wie VT-x gibt weiss ich nicht, vermutlich eher bei ARM-Serverchips .
+1
pünktchen
pünktchen14.06.18 12:13
PS:
ARMv8.1-A (...)
The Virtualization Host Extensions (VHE). These enhancements improve the performance of Type 2 hypervisors by reducing the software overhead associated when transitioning between the Host and Guest operating systems. The extensions allow the Host OS to execute at EL2, as opposed to EL1, without substantial modification.


Klingt für mich wie VT-x oder?
+1
Michael Lang19.08.18 19:29
„Intel könnte entweder versuchen, den Markt mit kostengünstigen Einstiegsmodellen zu erobern oder AMD und Nvidia mit High-End-Lösung das Leben zu erschwerden. „

Warum kostengünstige Einsteigermpdelle? Das können erstens AMD und Nvidia auch und zweitens gibt es dafür doch bereits die integrierten Lösungen.

Wenn also eine separate GPU, dann doch bitte einebesonders leistungsfähige. Und ich denke das wird wieder en Vorstoß in Richtung KI, Deep learning etc.
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen