Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Intel kündigt HPC-Chip auf Basis des Larrabee-Grafikchip an

Aufgrund zahlreicher Verzögerungen in der Entwicklung war schon vor einigen Jahren absehbar, dass Larrabee wohl nicht als Grafikchip auf den Markt kommen wird. Vor rund einem Jahr hatte Intel dann Larrabee offiziell beerdigt und zugleich angekündigt, die Entwicklung für den Bereich HPC (High Performance Computing) fortzusetzen. In diesem Markt ist vor allem Nvidia mit seinem Tesla-System erfolgreich, welches ebenfalls aus der Entwicklung von Grafikchips hervorging. Nun hat Intel ein erstes HPC-Produkt auf Basis von Larrabee angekündigt. Es handelt sich um den 50-Kern-Coprozessor "Knights Corner" für Intels MIC-Architektur (Many Integrated Core), die auf Xeon-Prozessoren aufbaut wie sie auch im Mac Pro zu finden sind. Der in 22 Nanometer gefertigte "Knights Corner" soll bereits über die effektiveren 3D-Tri-Gate-Transistoren verfügen, was zusätzliche Rechenleistung verspricht. Dank der Xeon-Basis und der damit einhergehenden x86-Kompatibilität soll die Portierung von Software auf die MIC-Architektur Intel zufolge relativ einfach sein. Mit dem regulären Vertrieb von "Knights Corner"-Systemen will Intel im kommenden Jahr beginnen.

Weiterführende Links:

Kommentare

Navier-Stokes
Navier-Stokes22.06.11 14:09
Wow, das klingt spannend! Zig Cores bedienen ohne umständliches Programming model wie etwa CUDA oder OpenCL.

Der Kreis schließt sich langsam wieder:

Damals:
CPU arbeitet Userprogramme ab UND rechnet Grafik, Grafikkarte malt nur auf den Schirm
Performance: rechnen grottig, grafik grottig

Vor einigen Jahren:
CPU arbeitet Userprogramme ab, GPU rechnet Grafik
Performance: rechnen gut, Grafik gut

Heute:
CPU arbeitet Userprogramme ab, GPU arbeitet Userprogramme ab UND rechnet Grafik
Performance: rechnen hervorragend, Grafik gut

Morgen:
CPU arbeitet Userprogramme ab, GPU rechnet Grafik
Performance: rechnen hervorragend, Grafik hervorragend

Dieses ganze Rechnen auf GPU also GPGPU ist zwar schön und gut, aber vom Konzept her offensichtlich auch nur eine Übergangslösung. Nun geht man konsequenter Weise hin und will die Vorteile der GPU (viieeele parallele threads) ohne deren Nachteile (dedizierte Hardware) nutzbar machen.

Ich freu mich drauf.
Computer Science is no more about computers than astronomy is about telescopes. (Edsger W. Dijkstra)
0
itsnogood7122.06.11 14:22
Grad heut einen Datenbankserver mit zwei XEON 6-Core und 32GB RAM installiert. Das in Kombination mit einem RAID 10 (16 x 146GB 15k SAS 6G) ist schon pfeilschnell.

Alleine das RAID schreibt 390MB/s und liest 700MB/s.


Müssen ja Wahnsinnsaufgaben sein die so ein HPC rechnen muss. Klimaberechnungen?

Hat jemand eine Ahnung wo man solche Systeme einsetzt?
0
Christoph_M
Christoph_M22.06.11 14:23
navier, hast du bei "morgen" GPU statt CPU gemeint?
0
maximday
maximday22.06.11 14:26
0
Navier-Stokes
Navier-Stokes22.06.11 15:30
Christoph_M
Nein, ich meinte tatsächlich CPU. Die Eigenschaft des massiv parallelen Multithreadings verschiebt sich ja nun von der GPU zur CPU, wie Intel das in ersten Schritten nun versucht.
Computer Science is no more about computers than astronomy is about telescopes. (Edsger W. Dijkstra)
0
sierkb22.06.11 15:52
itsnogood71:
Hat jemand eine Ahnung wo man solche Systeme einsetzt?

Mal einen Blick hierhin werfen:

TOP500 Supercomputing Sites

Da erfährst Du eigentlich regelmäßig, welche Superboliden und -Cluster da wo und von wem und für welchen Zweck eingesetzt werden (und auch welches Betriebssystem dort jeweils zum Einsatz kommt).

Oder auch z.B. in dieser News-Rubrik von The Register:

The Register: HPC
0
itsnogood7122.06.11 16:00
sierkb

Danke.

Kein Windows oder OS X weit und breit
Zumindest die ersten 10 laufen unter Linux.

Beruhigt mich.
0
sierkb22.06.11 16:12
itsnogood71:
Kein Windows oder OS X weit und breit.
Zumindest die ersten 10 laufen unter Linux.

Die ersten 10? Wohl mehr.

TOP500:

Operating system Family share for 06/2011 :

OS
Family | Count | Share %
------------------------------
Linux | 455 | 91.00 %
Windows| 6 | 1.20 %
Unix | 23 | 4.60 %
BSD Based| 1 | 0.20 %
Mixed | 15 | 3.00 %
------------------------------
Totals | 500 | 100%

Detail-Aufschlüsselung bzgl. OS:
Operating System share for 06/2011

(davon 6-mal Windows HPC 2008 und 0-mal MacOSX)

Vendors share for 06/2011

Segments share for 06/2011

Application Area share for 06/2011

Letztere Tabelle ist mal ganz interessant, weil da schön aufgeschlüsselt ist, für welche Zwecke diese Dinger so eingesetzt werden.
0
gfhfkgfhfk22.06.11 18:57
Typische HPC Clustern Anwendungen sind technischwissenschaftliche Programme, die Lösungen von Differentialgleichungen approximieren. Konkreter sind das meist Programme aus der Quantenchemie, Festkörperphysik, Hochenergiephysik, Klimaforschung, ... und vieles mehr.

Meistens wird die Software sogar selbst geschrieben, da es für vieles keine fertigen Programme gibt. Aber mal eine kleine Auswahl an typischer Software: Molpro http://www.molpro.net/, Gaussian http://www.gaussian.com/, Wien2k http://www.wien2k.at/, VASP (noch ein DFT Programm), Fluent (Strömungssimulation) ...
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.