Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Nvidia stellt Grafikchips für Personal Supercomputing vor

Mit dem Tesla-System will Nvidia ein neues Einsatzgebiet für seine Grafikchips erschließen. Diese eignen sich bekanntlich schon seit längerem nicht nur für aufwendige 3D-Grafik, sondern auch für schnelle mathematische Berechnungen. Den "Personal Supercomputing"-Markt will man nun mit dem Tesla-System erobern. Im Bereich der Forschung und Entwicklung, aber auch in der Industrie, beispielsweise bei der Geophysikalischen Analyse, sollen die Tesla-System genügend Rechenpower von bis zu 518 Giga-Flops (Floating point operations per second) je Prozessor liefern. Diese soll in drei Varianten als einzelnes Board mit NVIDIA Tesla GPU Computing Processor und 1,5 GB RAM, als externer NVIDIA Tesla Deskside Supercomputer mit 2 Prozessoren, 3 GB RAM und PCIe-Anschluss sowie als 1U NVIDIA Tesla GPU Computing Server für bis zu 4 Prozessoren mit 6 GB RAM erhältlich sein. Um die Rechenpower nutzen zu können, müssen Anwender auf die mitgelieferte C-basiert CUDA-Entiwcklungsumgebung zurückgreifen. Als Systeme werden offiziell Red Hat Enterprise Linux, SUSE Linux und Windows XP unterstützt. Preise für die Systeme wurden nicht genannt.

Weiterführende Links:

Kommentare

DonQ
DonQ21.06.07 12:42
blue gene "little" ist nicht mal doppelt so groß und hat min die 16x Leistung, wenigstens kommt so bewegung in den markt und mtn könnte ruhig wieder öfter hw meldungen machen.

thx.
an apple a day, keeps the rats away…
0
valcoholic
valcoholic21.06.07 13:29
und weniger gerüchte
0
thomas scherer
thomas scherer21.06.07 13:30
auch wenn so mehr oder weniger unbekannte begriffe einzug halten, welche nach hintergrundinformationen schreit

nun gut, ist meine persönliche meinung, denn ich fand Tesla (Nikola Tesla) schon immer viel bedeutender als zum beispiel Thomas A. Edison ...

und ja, natürlich ist hier die hardware und nicht die namensgebung von interesse...:-y
0
Gerhard Uhlhorn21.06.07 14:09
Supercomputing und Windows?!? Ich denke Windows unterstützt nur bis max. 4 Kerne?
0
Laphroaig
Laphroaig21.06.07 14:13
Ein alter Hut... die Karten hab ich doch schon lange in meinem Mac Mini!

0
SchaubFD21.06.07 14:20
DQ, hast du einen Link? und eine Frage die sich so indirekt stellt, warum brauchen diese 128 Kerne maximal weniger Strom als ein Intel 4Core mit 2,66 GHz(Komplettsystem)? und eine weitere Frage, bei dem ganzen Ganzzahl Operationen heutiger Programme, wann wird sowas mal sinnvoll einsetzbar für normale und nicht wissenschaftliche Aufgaben. Wenn man es z.B. bei Apple auch nicht geschafft hat den Cell zu verbauen.

Denke da an die Zeit zurück, wo von Transputer, National Semiconductor, DEC Alpha Boards für den PC mit UNIX als Einschub geredet wurde. Keine der Lösungen hat sich lange halten können. Wie seht ihr das?

0
strife21.06.07 14:33
SchaubHome

Ich vermute, dass jeder der nVidia Kerne wesentlich einfacher gestrickt ist, als ein aktueller Intel Core (ala Cell). Das System ist auf Vektorrechnung optimiert, als General - Purpose CPU aber unbrauchbar.

Deshalb wird Apple wahrscheinlich auch nicht einmal versucht haben, den Cell zu integrieren.
Webrowsen und E-mail schreiben ist schon was anderes, als Wetter vorhersagen oder 3-D Landschaften zu berechnen.

Ich denke, auch diese Entwicklung wird früher oder später in den Mainstream Einzug halten. Ist ja mit den FPUs (mußte ich für meinen Mac LC nach dazukaufen) und Altivec/SSE auch passiert.
0
SchaubFD21.06.07 16:07
strife, ich sehe das auch so, nur stellt sich die Frage, sind wir mit der aktuellen Programmierung in einer Sackgasse?

WEIL:

1) entweder, der Compiler ist in der Lage Code automatisch zu parallelisieren, was schlecht machbar ist.

2) der Programmcode selbst schon parallelisiert werden müßte. Nur wer macht das wirklich richtig?

3) sich die Frage stellt, ob die heutige Programmierung und Datenmodelle dazu wirklich sinnvoll sind.

So schön auch Parallelität ist, der Flaschenhals ist immer die Kommunikation sprich der Datenaustausch. Für die Transputer war dies der Untergang.
0
pixler21.06.07 16:11
Gerhard Uhlho

tja...mein 8kern macpro läuft neben osx auch mit winxp pro und das problemos mit 8 kernen.

ich denke du denkst falsch
0
strife21.06.07 17:11
SchaubHome

Sackgasse? Ich denke nicht. Ich glaube, du hast hier ein grundlegendes Verständnisproblem. Das Teil ist nur für Spezialanwendungen gedacht. Also lass das Verallgemeinern mal.

Man wird bei System wie dem Tesla auf allen Kernen wahrscheinlich die gleiche Software fahren und nur Daten durchpumpen. Das Verteilen der Programme und der Daten nehmen Dir Compiler bzw. Runtime ab, du hast hier also gar nicht die Probleme einer klassischen CPU. Ich gehe davon aus, das zu jedem Zeitpunkt klar ist, welcher Task und welche Daten auf welchem Kern sind. Um die Rechenzeit konkurrierende Programme gibt es wahrscheinlich auch nicht, Parallelisierung ist hier von Haus aus kein Problem. Also nicht Äpfel mit Birnen vergleichen.
0
Der Lügner
Der Lügner21.06.07 19:52
strife: eben, keine Verallgemeinerungen, denn die stimmen nie!
0
Thomas21.06.07 20:38
Programmabläufe zu parallelisieren lernt man als Informatiker an jeder guten Uni. So wie auch viele andere Dinge, die heutige Software trotzdem nicht hat. Deswegen frage ich mich schon seit Jahren warum es trotzdem so viel Softwaremüll auf dem Markt gibt.
Eigentlich wäre es auch nicht so das Problem gut programmierte Software innerhalb kurzer Zeit an eine spezielle Hardware anzupassen. Aber erstens gibt es nicht besonders viel gut programmierte Software und zweitens würde es Geld kosten was sich die Chefs lieber sparen.
0
Michael Lang21.06.07 22:22
Ich glaube einige sehen das hier etwas falsch. Es geht nicht um neue CPUs oder Rechnerarchitekturen oder so, sondern darum die GPU etwas universeller zu nutzen, als nur für Grafikberechnungen.

Nvidia will die vorhandene Rechenpower Ihrer GPUs für eher allgemeine Rechenzwecke nutzen, da die neuen Einheiten frei programmierbar sind. So kann man eben statt nur Grafik auch Supercomputing betreiben! Die Recheneinheiten der GPUs sind ja schon ziemlich fix!!

Das Auslagern der Berechnungen auf die GPU werden wohl spezielle Compiler bzw. die angesprochene CUDA-Entwicklungsumgebung übernehmen.
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.