Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Intels Larrabee-Chip mit 32 Kernen soll erst 2010 erscheinen

Auf einer Veranstaltung des Intel Visual Computing Institute in Saarbrücken äußerte sich Joseph Schultz auch zu Intels Larrabee-Projekt. Larrabee ist seit Ende 2006 ein Begriff, damals hatte Intel die Larrabee Development Group gegründet, um den Grafikprozessor in den Hauptprozessor zu integrieren. Seitdem hat sich einiges getan und Intel konnte schon mehrfach konkretere Angaben zum fertigen Produkt machen. Der ursprüngliche Plan, Larrabee bereits 2009 auf den Markt bringen zu können, ist allerdings nicht mehr haltbar. Joseph Schultz deutete an, man müsse sich wohl noch länger gedulden, erst in der ersten Jahreshälfe 2010 soll es so weit sein. Gründe für diese Verschiebung nannte er jedoch nicht. Auf der Präsentation sprach Intel über das Design mit 32 Prozessorkernen, jeder Kern verfügt über eine zusätzliche Vektoreinheit. Ein Vorteil ist dabei, dass jeder Kern den x86-Befehlssatz beherrscht und Fließkomma-Berechnungen mit doppelter Genauigkeit durchführen kann. Die Besonderheit von Larabee ist die Anbindung der bis zu 64 Kerne in einem Ringbus mit einer Breite von insgesamt 1024 Bit. Intel verspricht sich hiervon eine sehr schnelle Kommunikation zwischen den Kernen.

Weiterführende Links:

Kommentare

Bernd
Bernd15.05.09 09:15
OK … sehe ich das richtig, die CPUs werden nicht mehr schneller, sondern die Hersteller versuchen nun möglichst viel KERNE in einen Chip zu packen.

Es wird dann in Zukunft keine QuadCore 5Ghz geben, sondern eher einen 32-Core mit 1 Ghz?
0
Waldi
Waldi15.05.09 09:16
Perry Rhodans Positronengehirn auf dem Mond ist nicht mehr fern.
vanna laus amoris, pax drux bisgoris
0
Duffman
Duffman15.05.09 09:19
Och Menno, erst 2010.
Und ich hatte doch ganz fest damit gerechnet, dass Apple ein Macbook Superpro mit Larrabee zur WWDC vorstellen würde.
A life without walls needs no Windows!
0
maybeapreacher
maybeapreacher15.05.09 09:32
Bernd: Das siehst Du völlig richtig, da es mehrere Probleme gibt, die schlimmer werden, je höher die Taktfrequenz geht. Man kann dem entgegenkommen, indem man die Strukturgröße verkleinert, allerdings kommt man auch damit an die Grenzen der physikalischen Gesetze. Auf einmal gelten neue Gesetzmäßigkeiten und man muss versuchen, das in den Griff zu kriegen.

Da ist es wesentlich einfacher, die Kern-Zahl zu erhöhen!

Apropos: Larrabee war für Grafik gedacht, nicht als CPU, allerdings als Grafik-Einheit auf Basis von x86, weshalb die Verschmelzung wohl sehr viel Sinn macht.

Man hat dann vielleicht einen QuadCore-CPU mit zusätzlich 32 Kernen für die Grafikberechnung, die sich aber gegenseitig unter die Arme greifen. Also das Betriebssystem würde dann verteilen, ähnlich wie GrandCentral es machen wird, wie NVidia mit CUDA oder Microsoft mit DirectX 11 es vorhat.
0
ultrapaine15.05.09 12:53
Trotz Larrabee sollen die Cores auch an sich schneller werden, da sich nicht alles Paralelisieren lässt.

Desweiteren war Larrabee nicht primär für die gemeine Rastergrafik wie sie NVidia und ATi anbietet gedacht, sondern damit will Intel das Zeitalter des RayTracing einläuten.
0
bjbo15.05.09 13:09
...nur leider fehlen ein paar Informationen:

So hat ein Intel-Sprecher durchschimmern lassen, dass Larrabee bei weitem nicht so sparsam sein soll, wie ursprünglich gedacht und auch die Performance im Moment noch nicht das hält, was man mal angekündigt hat und deswegen der Release verschoben werden musste.

Nachzulesen unter anderem bei heise-online vom gestrigen Tag.
0
Duffman
Duffman15.05.09 14:38
ultrapaine
Du meinst wohl das Zeitalter des Echtzeit-Raytracing auf Standardhardware.
Oder das Zeitalter des photorealistic realtime rendering für 3D Games.
A life without walls needs no Windows!
0
ultrapaine15.05.09 15:30
Alles andere würde auch kein Sinn machen, wobei von Echtzeitphotorealismus sind wir auch mit Raytracing noch ein ganzes stück entfernt.

Raytracer sind praktisch nur für Spiegelungen, Beleuchtungen, Transparenzen und Schatten wirklich gut, wobei auch dort jeglicher Effekt mit erheblichen Performanceeinbusen verknüpft ist.

Wenn man sich mal die ganzen großen Programme anschaut, die photorealistische Bilder aus ein paar Polygonen und Texturen zaubern können, merkt man, das Raytracing nur ein Teil der Renderingpipeline ist.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.