Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

AMD will Grafikchip in Prozessor integrieren

Wie ZDNet berichtet, hat AMD mit der Übernahme von ATI gestern in einer Pressemitteilung die Vereinigung von Grafikchip und Prozessor angekündigt. Durch einen einzigen Chip will AMD damit die Herstellungskosten senken. Ein erstes Produkt will man bis 2008 fertig gestellt haben. AMD räumt dabei auch ein, dass kurzfristig betrachtet, die Übernahme von ATI für 5,4 Milliarden US-Dollar kaum Vorteile für beide Unternehmen bieten wird. Langfristig werde es aber viele Argumente geben die für eine Übernahme sprechen, da die Integration von Grafikfunktionen in den Prozessor unvermeidlich seien. Als Beispiel wird hier die Prozessorintegration des mathematischen Co-Prozessor und des L2-Caches aufgeführt. Ähnliche Bemühungen um eine Integration von Grafikfunktionen gab es bereits Ende des letzte Jahrhunderts von Cyrix und Intel, die allerdings entweder eine schlechte Leistung boten oder aufgrund ihrer Einschränkung vorzeitig eingestellt wurden.

Weiterführende Links:

Kommentare

oldMACdonald
oldMACdonald25.07.06 12:54
die Integration wäre mit siicherheit für die Notebooksparte interessant, obwohl ich mir vorstellen kann das die dinger dannn sehr warm werden (oder liege ich falsch?)
Holz ist kein Leiter, kann aber als Leiter genutzt werden.
0
Dieter25.07.06 12:58
CPU 1 Lüfter, Chipsatz 1Lüfter, Graphikkarte 2 Lüfter @@ *ROAR*
0
pixler25.07.06 13:02
lol.... und anstelle einer neuen grafikkarte muss man sich dann gleich einen neuen rechner kaufen......? mann wie bescheuert ist dass denn?
0
teorema67
teorema6725.07.06 13:06
Das ist ja wie in den ersten Jahren der Macs und Personal Computers, als die CPU alles berechnete.

Keine gute Idee IMO, ich kaufe heutzutage ja auch nicht DVD und Tuner und Amplifier und TV in einem Gerät.
Wenn ich groß bin, geh ich auch auf die Büffel-Universität! (Ralph Wiggum)
0
StevesBaby25.07.06 13:07
Amiga , sag ich nur. Paula und Denise.
0
Zeeke25.07.06 13:15
Für beispielsweise Büro-PCs und Notebooks kann das doch 'ne tolle Sache sein.
0
itsnogood7125.07.06 13:17
Heute ist Dienstag !

Da gehen sicher wieder die Stores down. KREISCH..

--- GERÜCHT EIN ---

Vielleicht kommen dann ja die neuen Mac Pro mit AMD CPUs und ATI Grafikkarten (devil)

--- GERÜCHT AUS ---
0
Blaubierhund
Blaubierhund25.07.06 13:22
ich halte das für eine sehr gute idee. allein schon die speicheranbindung der grafikeinheit dürfte enorm von den kürzeren wegen und der nähe zum speichercontroller profitieren. ich kann mir vorstellen, dass zunächst nur recht leistungsschwache grafikeinheiten integriert werden (nicht spieletauglich) - in sachen energiemanagement ist das aber auf jeden fall sehr sinnvoll.

höhere integration auf einzelnen chips hat es schon immer gegeben und wird auch immer weiter fortschreiten. das ist aus platz- und kostengründen auch gar nicht anders zu realisieren.
Die Berliner sind unfreundlich und rücksichtslos, ruppig und rechthaberisch, Berlin ist abstoßend, laut, dreckig und grau, Baustellen und verstopfte Straßen, wo man geht und steht - aber mir tun alle Menschen leid, die nicht hier leben können! (Anneliese Bödecker)
0
dubstep25.07.06 13:23
Dann müssten die Stores aber jetz dann mal down gehen...(policeman)
0
cmaus@mac.com25.07.06 13:29
"...we are switching to NVIDIA chips..."
0
Rantanplan
Rantanplan25.07.06 13:32
Zeeke

Für Büro-PCs brauchst du keine ATI-Grafik, da tut's das was man in den Chipsätzen so findet - z.B. GMA950 - auch.
Wenn ich nicht hier bin, bin ich auf dem Sonnendeck
0
der_neue25.07.06 13:41
Rantanplan

Und was ist dann billiger? Natürlich die CPU samt integriertem Grafikchip.
0
brixner6631
brixner663125.07.06 14:00
Wie soll den das gehen !!?? Nicht nur das ich das nicht vorstellen kann aber vorallem wie wollen die dann noch den Speicher für die Grafikkarte unterbekommen !!?? Das kann dann doch nur heißen das es wie ein OnBoard - Grafik funktioniert !! und das heiß dann das man zwar einen "echten" Grafik-Chip hat aber keine "echten" Speicher !! Und das hat zur folge das man den Speicher vom Arbeitsspeicher nehmen muß weil wo sonst soll der Speicher herkommen !? Na das kann ja auch nicht der Weißheit letzter Schluss sein !!
0
Rantanplan
Rantanplan25.07.06 14:14
der_neue

Wie, was? Was hat das mit dem Preis zu tun? Was ich damit sagen wollte: um einen Grafikchip für Büro-PCs irgendwo zu integrieren braucht man ATI nicht aufkaufen, das ist wie Kanonen auf Spatzen. Büro-PCs haben üblicherweise nicht mal eine aktuelle 3D-GPU drin. In meinem hier zum Bleistift ist eine SiS Mirage. Du verstehen?

Ob man die GPU in den Chipsatz einbaut - wie Intel und NVidia es tun - oder in die CPU bleibt sich preislich Jacke wie Hose.
Wenn ich nicht hier bin, bin ich auf dem Sonnendeck
0
TT030
TT03025.07.06 15:08
Brixner: nu sei doch mal ein bissel kreativ und stelle dir 64-128Mb Grafikspeicher auf einem Prozessorlayer vor. Davon kann man dann bequem z.B. Anteile für beliebig großen Prozessorcache spendieren.
Die Integration des gesamten Rechners in immer kleinere Einheiten ist Ziel der Mobilindustrie. Wir sollen nicht mehr Kisten hinstellen und endlos auf-und umrüsten, sondern viele kleine spezialisierte Rechner kaufen, als Kühlschrank, als Mikrowelle, als Fernsehrecorderemailer, als Uhrtelefonfernsehradiorecorder etc.
Zweifellos ein Wachstumsmarkt. Und für kleinste Displays braucht man auch keinen Riesengrafikspeicher.
0
Stefan Lühr
Stefan Lühr25.07.06 15:27
Pixler

es gibt etliche Rechner, die schon heute nicht aufgeruestet werden. Dazu gehoeren mit Sicherheit Notebooks oder auch Rechner fuer den Bueroeinsatz.

Ich kann mir vorstellen, dass ein in den Prozessor integrierter Graphik-Chipsatz letztendlich Vorteile bei Strom- und Platzverbrauch bringt. Kostentechnisch duerfte sich das langfristig auch guenstig auswirken...

Die Argumentation bezueglich der bereits vor Jahren erfolgten Integration des Mathematischen Co-Prozessors und des L2 Cache fand ich auch interessant.

Und waehrend die Aufruestfreaks heute eine Graphikkarte UND den Prozessor austauschen, wird es zukuenftig eben nur ein Modul sein..
Koennte mir vorstellen, dass das auch letztendlich guenstiger wird.

Und einen habe ich noch Da Graphik-Prozessoren heute schon leistungsstaerker als die eigentlichen CPUs sind, ergibt das neue Anwendungsbereiche, wenn man die GPU fuer CPU-Aufgaben "missbrauchen" kann.

Interessant.. mal sehen, was daraus wird...

mfg


Stefan
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.