Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Intels experimenteller Prozessor mit 80 Kernen erreicht 2 Teraflop

Auf dem Intel Developer Forum in Peking hat Intel seinen experimentellen Prozessor mit 80 Kernen erneut vorgeführt, der im Vergleich zu einer Präsentation im Februar dieses mal seine Rechenleistung mit 2 Teraflop verdoppelt und den Stromverbrauch senken konnte. Insgesamt gab es drei Vorführungen. Bei einem Verbrauch von 46 Watt erreichte der Prozessor zunächst 1 Teraflop, in einem zweiten Durchlauf bei rund 94 Watt 1,5 Teraflop und schließlich im letzten Durchlauf bei einem Verbrauch von rund 192 Watt beachtliche 2 Teraflop. Der Prozessor dient Intel als Forschungsobjekt für die Terascale- und Multi-Core-Technik.

Weiterführende Links:

Kommentare

-MacNuke-17.04.07 13:46
Vllt. solltet ihr noch in die News schreiben, dass das wirklich nur ein Forschungsobjekt ist und Intel daraus kein Produkt plant.

Zu lesen auf golem.de
0
Kraftbuch
Kraftbuch17.04.07 13:48
Wann kommt der ins Macbook Pro??!!!(?)(?)(?)


Sorry, der musste jetzt einfach sein.
0
tilootto17.04.07 13:53
"Sorry, der musste jetzt einfach sein."

Ist das bei dir zwanghaft oder wie?
0
sgn400
sgn40017.04.07 13:55
-MacNuke-
Finde das recht deutlich, aus der Nachricht zu erlesen, dass es sich um ein Forschungsprojekt handelt und nicht als nächster commerzieller Prozessor.

Mfg
T.J.
Fällt der Apfel vom Baum, hatte Newton recht
0
JuergenB
JuergenB17.04.07 14:00
>200 Watt Akkus wären auf Dauer auch etwas schwer
0
jonny91
jonny9117.04.07 14:08
Was nützen 80 Kerne, wenn (fast) alle Programme nur einen Kern benutzen? Man kann mit Benchmarks angeben, aber sonst?
How much wood would a woodchuck chuck if a woodchuck could chuck wood?
0
Wolfgang Duenkler17.04.07 14:09
Hoffentlich kein Flop.
Aber OS X 20 unterstuetzt
ja locker 200 Kerne!
0
macmax17.04.07 14:10
boah den brauch ich als upgrade für mein macbook!! für textverarbeitung doch unerlässlich
0
MacRabbitPro17.04.07 14:10
jonny91

öffne mal die Aktivitätsanzeige und schau dir mal an was da alles so läuft.
0
Kraftbuch
Kraftbuch17.04.07 14:15
tilootto
"Ist das bei dir zwanghaft oder wie?"

Na schau da her, Mister Beissreflex gibt mir die Ehre.
Mit Zwängen scheinst du dich ja gut auszukennen.
0
Namedrop17.04.07 14:17
fast so schnell wie der Cell.
Nicht schlecht was Intel da in einigen Jahren in petto haben wird.
0
DonQ
DonQ17.04.07 14:29
hab letztens gesehen wo sie stehen, als jemand von 6Ghz prozessoeren sprach…

ein gutes hatte es,

sag nur 18nm

an apple a day, keeps the rats away…
0
-MacNuke-17.04.07 14:31
@Namedrop

Fast so schnell wie CELL? Wie kommst du denn darauf? CELL hat eine Single (32bit)-Leistung von rund 200 GFLOP theoretisch (!!!). Effektiv weit darunter.

Die Double(64bit)-Leistung beträgt ca. 20 GLFOP.

Nicht viel, wenn man es gegen einen 8 Kern-Mac stellt.
0
tilootto17.04.07 14:38
Namedrop, du beleidigst einfach weiter vor dich hin, was? Du bist wirklich fertig.
0
tilootto17.04.07 14:50
arrg sorry, Kraftbuch meinte ich
0
pünktchen
pünktchen17.04.07 14:59
namedrop: du verwechselst die forschungsmodelle von ibm mit dem jetzt produzierten prozessor.

ibm hatte während der entwicklung auch ein modell mit 4 ppc-kernen und 32 apus, die mit 4 ghz liefen und je 32 gflops leisten sollten: macht 1024 gflops maximum.

2010 will ibm einen entsprechenden prozessor (allerdings mit 2 ppcs) tatsächlich auf den markt bringen:
0
tilootto17.04.07 15:03
Namedrop, wikipedia

"Die Gesamtleistung sämtlicher Cores beträgt theoretisch ca. 130,4 GFLOPS (single precision) bzw. 93,6 GFLOPS (double precision)."

130 gflops CELL vs 2.000 gflops Intel bei single precision, wenn ichs richtig gelesen habe, ist nicht wirklich das gleiche.
0
Mecki
Mecki17.04.07 15:12
Wie gut ist das im Vgl. zu einer Grafikkarte? Könnte diese 2 TF CPU OpenGL in Software so schnell laufen lassen, wie eine Grafikkarte es in Hardware kann?
0
SchaubFD17.04.07 15:31
Habt ihr euch mal die Frage gestellt, wo man mit 2 Billionen Gleitkommazahlen pro sekunde hin will ? Selbst wenn es nur 4 Byte Zahlen wären sind es 8 Billiarden Byte pro Sekunde. Die Datenmenge entspricht grob 4000 Full HD Videos gleichzeitig. Wer braucht sowas im privat PC? ... wenn sowas möglich wäre. Geschweige von ca. 80000 Festplatten mit 15000 RPM die man im Raid 0 betreiben müßte. Der Lärm dürfte in etwa einem startenden Jumbo entsprechen ... usw. usw.
0
noi$ia17.04.07 15:41
schaubhome:
geh und schau fern in schwarz weiss...(policeman)
0
SchaubFD17.04.07 15:47
noi$ia, sag mir wie du die Daten speichern möchtest oder wie du die Daten übermittelst, wenn du Farbseher so viel weiter in der Technik zu seien scheinst! Bin ganz gespannt!
0
Jehova17.04.07 15:49
SchraubHome
Was genau sagt mir Dein Zahlenspiel? Das Dein Rechner alle Rechenoperationen protokolliert?

Also ich find Echtzeitraytracing ja toll. Auch wenn diese cpu da noch lang nicht ausreicht.
0
Jehova17.04.07 15:50
SchraubHome
Was genau sagt mir Dein Zahlenspiel? Das Dein Rechner alle Rechenoperationen protokolliert?

Also ich find Echtzeitraytracing ja toll. Auch wenn diese cpu da noch lang nicht ausreicht.
0
SchaubFD17.04.07 16:05
Was wurde den aus solchen Entwicklungen? Mir helfen 80 Kerne nichts, wenn ich nur 20 Einzeltasks nutze. Eine weitere Frage ist doch, habe ich den die 2 Billionen Ergebnisse auch über Schnittstellen verfügbar? Das Ding liefert weit mehr als das 200 fache an Information, als ein Prozessor heute im Level 1 Cache speichern kann und was will man da mit heutigen Bussystemen, die gerade mal ein tausendstel der Leistung in der Bandbreite haben.

Wir hatten in den Ende-Achzigern schon das Thema Transputer und die Firma hat diese Technik eingestellt. Desto mehr Kerne rechnen desto mehr Bandbreite braucht man. Es kommt folglich ab einer gewissen Größenordnung von Kernen zu einem Kommunikationsflaschenhals und der ist unvermeidbar. Mir ist keine Technik bekannt, die eine lineare Steigerung hätte.
0
noi$ia17.04.07 16:16
schraubhome:
was weiss ich denn!?!?
manoman. wüsste ich wie man in 20 jahren daten speichert wäre ich wohl schon längst miliardär.
aber um zu wissen, dass es keine herkömmlichen festplatten sind wie wir sie heute haben kann sich aber jeder vorstellen.
ergo: wenn dieser prozessor einmal rauskommt haben wir festplatten (mainboards etc) mit einem datendurchsatz der ein tausendfaches höher ist als heute.


0
dualcore_seven
dualcore_seven17.04.07 16:19
SchaubHome

vieleicht so?

0
dualcore_seven
dualcore_seven17.04.07 16:19
... und bis es soweit ist haben intel und ibm eh fusioniert...
0
RocketBooster17.04.07 16:27
Was zum Geier ist ein Teraflop...
0
Jehova17.04.07 16:37
Schaubhome

Normale Programme produzieren nicht lauter Daten die man dann weiterbenutzt. Üblicherweise errechnet man doch aus wenig Inputdaten mit sehr vielen Rechnenschritten wenig Outputdaten. Die Bandbreite der Anbindung ist dementsprechend also nur bedingt wichtig.

Deine Rechnung ist halt soon bisschen sinnlos. Für aktuelle Rechner käme man immer noch auf ein paar hundert Festplatten...

0
Johloemoe
Johloemoe17.04.07 16:41
billionen fliesskomma-rechenoperationen-pro-sekunde
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.