Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Nvidia stellt kommende GPU-Architektur Fermi vor

Mit Fermi hat Nvidia seine kommende GPU-Architektur vorgestellt, die vor allem im Bereich der GPU-beschleunigten Berechnungen mit Leistung glänzen soll. Die Fermi-Architektur wird allerdings nicht nur in den Quadro- und Tesla-Produkten zum Einsatz kommen, sondern auch in den normalen GeForce-Grafikkarten. Über bis zu 512 CUDA-Kerne sollen die Chips verfügen. Gegenüber der bisherigen Architektur soll bei Fermi die Geschwindigkeit bei Fließkomma-Berechnungen mit doppelter Genauigkeit um das bis zu 8-fache gestiegen sein. Als Programmierschnittstellen werden dafür C, C++, Fortran, Java, Python, DirectComputer und natürlich OpenCL unterstützt. Ebenfalls neu ist die Unterstützung von ECC (Error Correcting Code), wodurch sich Fermi auch für die Beschleunigung von Daten-kritischen Systemen, wie Datenbank-Servern oder Super-Computern eignet. Ein neues Cache-System namens Parallel DataCache soll bei Physik-Berechnungen und Raytracing für Beschleunigung sorgen, während mit dem neuen GigaThread sich zudem unterschiedliche Teile einer Anwendung die GPU-Berechnungen teilen können, was beispielsweise bei Physik-Berechnungen von Bedeutung ist. Wann erste Chips mit der Fermi-Architektur erscheinen werden, ist nicht bekannt. Ein erster Super-Computer auf Basis von Fermi wurde aber bereits angekündigt. Er soll ungefähr 10-mal schneller als der aktuell leistungsfähigste Super-Computer werden.

Weiterführende Links:

Kommentare

LordLasch01.10.09 10:28
C++ auf der Graka ausführen is schon heavy. Wenn das Monster hält was es verspricht, dann reicht ab sofort ein lahmer DualCore im MacPro und dazu 4 von den Karten ^^
0
M.G.Equinox01.10.09 10:28
Hat jemand eine Ahnung warum die erste Fermi Grafikarte, gerade an einem Dienstag erscheinen soll (laut Huang zitat bei heise)?
Alter Spruch finde ihn aber trotzdem Klasse: Windows Nutzer Wissen nicht, warum es nicht funktioniert. Linux Nutzer wollen Wissen, warum es nicht funktioniert. Mac Nutzer wollen nicht Wissen, warum es funktioniert.
0
Request
Request01.10.09 10:45
Nur für die welche denken dass da nun ein Grafikmonster vor einem steht...wird sie nicht sein...von den 3. Mio Transistoren gehen viele für L1 und L2 drauf so wie für die 6GB VRam...die Grafikleistung wird nicht extrem viel höher liegen als bei einer GTX295...nVidia scheint sich neu zu orientieren und nicht mehr gegen ATI sondern gegen Intel (Larambree oder wie auch immer der genannt wird) ankämpfen...und so nebenbei heisst "Fermi" anscheinen Stillstand oder stehen
1984 - Think different - Macintosh - iPhone / iPad - Think nothing - 2014
0
Michael Lang01.10.09 11:09
...die Grafikleistung wird nicht extrem viel höher liegen als bei einer GTX295...

Na wetten das doch!!??
Wo nimmst Du die Weisheit her, dass da nicht viel mehr Grafikperformance rauskommt als bei jetzigen Karten?
Es sind viel mehr Shadereinheiten vorhanden und die Datentransferraten liegen auch deutlich höher. Nvidia klotzt da richtig rein. Wobei der Schwerpunkt tasächlich beim HP-Computing zu liegen scheint...
O.K. habe gerade gesehen dass Du die GTX295 erwähntest. Diese Dual-GPU-Karte wird wohl in der Tat nur leicht übertroffen werden, aber von einer Single-GPU-Karte auf Basis von Fermi!! Aber es mag ja durchaus auch eine Dual-GPU-karte der neuen Generation geben....

Die neuen GPU-generationen scheinen aber sehr interessant zu werden...

ATI hat aber einen leichten Vorsprung zZt. mit Ihrer 58er serie, da die Nvida-karten der neuen Generation erst nächstes Jahr erscheinen werden. Ich hoffe dass ATI das nutzen kann und auch mal gescheite OpenCL-Treiber liefern wird. ATI hat ja auch vor eine offene Physikengine an OCL anzubinden. Hoffe es gelingt...das könnte für ATI ein Pluspunkt werden! Fragt sich nur wie schnell ATI dies umsetzen kann und ob die Treiberqualität in Ordnung ist..
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0
arekhon
arekhon01.10.09 11:19
Außerdem sind da ein paar Zahlenfehler.

Es sind 3 Milliarden Transistoren, nicht 3 Millionen. Und für das GDDR5 DRAM werden davon keine verwendet, lediglich für die vielen kleinen Caches.
An Cache befinden sich 16x 64 KB shared Memory, 16x 64KB L1 und 16x 768 KB L2 auf dem Chip.

Am besten mal das Whitepaper ansehen wenn man mehr erfahren möchte: http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiComputeArchitectureWhitepaper.pdf
0
smuehli
smuehli01.10.09 11:22
Und wer kühlt das ganze?

NVidia ist ja in der Vergangenheit nicht unbedingt mit kühlen, verbrauchsarmen Grafikkarten aufgefallen (in diesem Segment)?
0
lehn01.10.09 11:45
LordLasch
C++ auf der Graka ausführen is schon heavy.

C++ wird ja nicht "auf der Karte" ausgeführt. Der C++ Code wird (wie der C oder Fortran Code) compiliert, also in Maschinen-Code übersetzt. Und dieser Maschinen-Code wird dann auf der Graka ausgeführt.
0
markus201.10.09 12:28
Wer ne Nvidia hat, die OpenCL (Cuda) unterstütz kann gerne mal die neue Version von[b] Galaxies V2 32K oder 8K ausprobieren.
Link weiter unten, siehe Screenshoot
Snow Leo[/b] nötig, da OpenCL App.
PS: OpenCL untertützt OS X 10.6 zwar, jedoch wird NICHT automatisch Code auf den OpenCL fähigen GPU ausgeführt.
Hier wird das oft etwas mißverstanden. Es muss der OpenCL Code extra programmiert werden und der App zur Verfügung stehen. Automatisch (ohne OpenCL Code hinzufügen) geht nix - das ist wie bei CoreImage .
Galaxies V2 32K und 8K



Unterschied 8K/32K: 32K bei sehr schnellen GPUs sinnvoller (8800GT aufwärts). 8K bei langsamen CPUs und Mobile Nvidias.
8800GT erreicht um 170 GigaFlop, GTX 285 > 440 GigaFlops
C2D CPUs bis 30 GigaFlops
0
Request
Request01.10.09 12:48
ATI HD5870: 2.7 TFlops...der Witz? Alles nur Papierwerte...
1984 - Think different - Macintosh - iPhone / iPad - Think nothing - 2014
0
Michael Lang01.10.09 15:00
Leut ersten Benchmarks (Spieletests) sieht die 5870 sehr gut aus. Und braucht für diese Leistung vor allem relativ wenig Strom.

Was OpenCL angeht, muß man erstmal abwarten, was von der "Papierleistung" tatsächlich übrig bleibt. ich hoffe aber, dass ATI da wieder aufholt und vor allem auf dem Mac wieder präsenter wird...
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0
ts
ts01.10.09 16:26
Wenn ATI auf dem Mac präsenter sein soll, dann müssen sie im Rückstand sein - würde ich mir nicht wünschen.

Im MP kann man zumindest oft eine der besten Grafikkarten von gestern verwenden. Leider gibt es aber viele verschiedene (Fokus auf Preis/Leistung, Fokus auf Leistung, Fokus auf Stromsparen usw.) Grafikkarten.
0
markus201.10.09 20:12
"ATI HD5870: 2.7 TFlops...der Witz? Alles nur Papierwerte..."
Ja, ist bei allen CPU/GPU Werten immer so. Nur im Idealfall , kaum in Realen Apps zu ist dieser zu erreichen.
Doch natürlich ist speziell die Shader + OpenCL(ATI Steam) Speed überproportinal schneller als bei der 4870 !!!
Shaderbench:
0
ts
ts02.10.09 10:35
Mit Programmen wie Furmark wäre ich vorsichtig. Die 5870 taktet dabei in Hardware herunter, die 4870 mittels Treiber. Aus diesem Grund sind die gelieferten Zahlen falsch und auch nicht im richtigen relativen Abstand zueinander (verzerrte Statistik).
0
Michael Lang02.10.09 10:54
Nichtsdestotrotz kann man die Leistungsfähigkeit der neuen Kartengeneration sehr wohl erkennen. Ob das im realen Leben +/-10 fps sind ist doch egal....

Die 5870 rockt wirklich! Und das bei zeitgemäßem Leistungsbedarf im Leerlauf (das die bei Vollast ordentlich was zieht ist klar. Liegt aber auch nicht viel höher als bei der 4890 zB.)
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.