Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Inoffizielle Benchmarks zu AMD/ATIs R600-Grafikchip

Wie Golem berichtet, sind auf der relativ unbekannten Webseite Level505 inoffizielle Benchmark-Ergebnisse zu einem Testmuster von AMD/ATIs kommenden Grafikchip R600 erschienen. Das Testmuster ist überraschenderweise nicht wie die jetzt bereits erhältliche Radeon 1950 XTX mit GDDR4-Speicher ausgestattet, sondern noch mit GDDR3. Eine Variante mit GDDR4 soll angeblich erst zwei Monate nach Markteinführung erscheinen. Die Benchmark-Ergebnisse zeigen allerdings, dass auch mit GDDR3-Speicher der R600-Grafikchip schneller als zwei Radeon 1950 XTX bzw. eine GeForce 8800 GTX ist. Weiterhin soll der R600-Grafikchip Clustering beherrschen und die Zusammenschaltung von 2, 4 oder 8 Grafikchips beherrschen. Hierbei könnte aber der Stromverbrauch und die damit einhergehende Wärmeabgabe ein Strich durch die Rechnung machen. Demnach soll eine R600-Grafikkarte allein bereits 230 Watt benötigen. Erste Grafikkarten mit dem R600-Grafikchip werden für Februar erwartet.

Weiterführende Links:

Kommentare

cmaus@mac.com03.01.07 12:21
Boom!
0
l3roc03.01.07 12:33
230 watt, lol. an die stromrechnung denkt keiner.
0
MacRabbitPro03.01.07 12:39
230W nur die Grafikkarte? Sorry aber die haben den Arsch auf! (sick)
0
iMike
iMike03.01.07 12:43
Also bei mir in der Wohnung wird noch mit einer herkömmlichen Zentralheizung der Raum temperiert
0
DJ Base03.01.07 12:51
Heftig, stolze 230 Watt nur für die Grafikkarte - das ist fast 4mal mehr als mein Computer insgesamt. Da weiß ich ja, was bei mir nicht auf die Wunschliste kommt.
0
Darkv
Darkv03.01.07 13:00
was bei dem Stromverbrauch für eine Zusammenschaltung von 8 dieser Dinger zusammenkommt... (sick)
0
pixler03.01.07 13:17
mehr als 50 Watt darf eine GPU nicht saufen, ich finde das schon zu viel. 230 W ist absolut inakzeptabel.
0
karlimann
karlimann03.01.07 13:50
So, jetzt muß die Karte nur noch für den MacPro kommen, und schon hab ich sie bestellt"
0
Michael Lang03.01.07 13:59
Was regt Ihr Euch über blöde Wattzahlen auf??

Wer nen Ferarri, McLarren oder sonstwas mit über 600PS fährt, fragt doch auch nicht nach der Tankrechnung !!

Hauptsache das Teil rockt und man kann auf nem 50" Screen in voller Auflösung noch mit min. 150fps spielen....(fear)
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0
Megahulk03.01.07 14:18
230W? Das Ding können die behalten. Wird Zeit, dass endlich die "Centrino"-GPU kommt. Viel Leistung - geringer Stromverbrauch. Intel hat es bei den CPUs vorgemacht. NVidia und ATi leben noch im Pentium 4-Zeitalter.
0
Megahulk03.01.07 14:19
karlimann

Für welches Mac-Spiel brauchst Du die bitte?
0
P*mac03.01.07 14:20
naja wenn man ne GTS8800 im SLI Verbund einsetzt sollte man besser auch ein Kilowatt-Netzteil haben... ^^

Find das allerdings absolut lächerlich, jetzt wo die CPU's so um die 60 - 100 Watt saufen, holen sich die GPU's das drei- bis fünffache (sick)
Kein Wunder baut Apple nur solchen alten, lahmen Schrott ein, denn die neuen Chips würden glatt das Gehäuse verglühen ( z.b. im iMac, im MBP läuft der Ati Chip ja auch kastriert auf niedriger Taktzahl. )
0
Jamie79
Jamie7903.01.07 14:20
HAHA, da spricht jemand wahre Worte. Ein Ottonormal Verbraucher wird diese Rechenpower h nicht benoetigen und so sich das Ding auch nicht kaufen.

Bei aller Liebe zur Rechenpower, aber ausser Hardcore-zocker und Raytracer wird Keiner derartige Power brauchen.

Die Leute die Grafik mit Ps, ProApps (FinalCut,Aperture), dazu zaehle ich mich, wird eine derartige GraKa kaum benoetigen, da reicht alles ab 7600gs bzw. alles was 256 MB und zwei Dual-DVI Anschluesse hat um 2*30" bei voller Aufloesung zu betreiben .

Have an eye for the Detail. It's not the technology it is the person behind.
0
Jamie79
Jamie7903.01.07 14:23
Ich stelle mir gerade vor, wie so ein voll Metall-Gehaeuse so roetlich anfaengt zu gluehen, weil die Komponenten darin alles so aufwaerem, das der Rechenr selbst zur Herd-Platte bzw. Heizkoerper wird. (Duck weg, falls jetzt Schlaege kommen)

HAHA, auf der anderen Seite hat es auch was praktisches, kochen direkt auf dem Rechner, wer ist auf die geniale Idee gekommen. Muss dann nicht mal mehr zur Kueche rennen
Have an eye for the Detail. It's not the technology it is the person behind.
0
Jamie79
Jamie7903.01.07 14:27
Ich stelle mir gerade vor, wie so ein voll Metall-Gehaeuse so roetlich anfaengt zu gluehen, weil die Komponenten darin alles so aufwaerem, das der Rechenr selbst zur Herd-Platte bzw. Heizkoerper wird. (Duck weg, falls jetzt Schlaege kommen)

HAHA, auf der anderen Seite hat es auch was praktisches, kochen direkt auf dem Rechner, wer ist auf die geniale Idee gekommen. Muss dann nicht mal mehr zur Kueche rennen
Have an eye for the Detail. It's not the technology it is the person behind.
0
halebopp
halebopp03.01.07 14:27
Ich heize nur noch mit Grafikkarten.
Das war ich nicht - das war schon vorher kaputt!
0
Tip
Tip03.01.07 14:50
Sollgte unbedingt in Laptops eingebaut werden.
Dann haben amerikanische Rechtsanwälte was zu tun und die Akkulaufzeit misst sich nach Minuten.
0
dan@mac
dan@mac03.01.07 14:59
Ihr habt so die Macke mit eurem Watt. Das ist noch eine Vorabversion, die verbrauchen immer so viel. Das wird erst zum Schluss optimiert.
0
Jamie79
Jamie7903.01.07 15:35
dan@mac: man versteh doch mal etwas Spass , wenn man das Leben immer so ernst nimmt, dann wuerdenn alle nur noch so rumlaufen.
Have an eye for the Detail. It's not the technology it is the person behind.
0
dan@mac
dan@mac03.01.07 16:47
Jamie79: Wenn man sich so wegen der 230 Watt bekackt klingt das doch schon ernsthaft. Ansonsten wäre es rein gar nicht witzig...
0
kallekatze03.01.07 17:27
Hmm, naja, kein großer Aufreger:

Die 8800 von nVidia setzt auch wieder auf GDDR3 und frisst ebensoviel Strom aus der Leitung wenn sie unter Last steht...

Wetten: Grafikkarten werden bald über einen speziellen Bus als externe Varianten eingeführt um mit eigenem Gehäuse,eigener Kühlung und egenem Netzteil aufzuwarten.
0
ma-ka03.01.07 18:00
alle denen es nicht stört dass die chips 230w fressen, bezahlen wahrscheinlich nie eine stromrechnung, das wirkt sich aufs jahr schon recht deutlich aus..
mein verbrauch ging beim wechsel von einem desktop zum notebook schon recht stark zurück..
0
Hannes Gnad
Hannes Gnad04.01.07 06:32
Versteht Ihr *nun*, warum Intel-Chipsets mit integrierten GPUs, die ein paar Watt ziehen, immer beliebter werden, auch wenn Spieleentwickler und High-End-Gamer noch so sehr maulen?

:macosx:
0
karlimann
karlimann04.01.07 07:02
- Megahulk:

Brauchen? Für gar keines. Ich will's aber haben, das ist der Punkt.
0
karlimann
karlimann04.01.07 07:04
- ma-ka:

Du redest aber sagen wir mal von ca. 20-30EUR im Jahr für die GraKa alleine. Jetzt gehen wir mal davon aus, daß man mindestens einen MacPro braucht um die Karte sinnvoll nutzen zu können. Macpro kostet ca. 2500 EUR. Who cares about 30 EUR?
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.