Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Die nächsten Intel-Architekturen

Über Intels nächsten großen Schritt, den Prozessor mit Codenamen "Nehalem" und Produktbezeichnung Core i7, sind schon viele Informationen bekannt. Auf dem nächsten Developer Forum will Intel allerdings schon einen Ausblick auf zukünftige Architekturen geben. Einige Schnipsel sind bereits im Vorfeld der Präsentation durchgesickert. Nach der erfolgreichen Umstellung von Nehalem auf 32-nm-Bauweise, steht die nächste Verkleinerung der Strukturbreite an. Im übernächsten Jahr erscheint das neue Design "Sandy Bridge", vormals als "Gesher" bezeichnet. Zuerst in 32-nm-Bauweise gefertigt, steht gemäß Intels Vorgehen, die Strukturbreite eines Produktes zu verkleinern, dann mit der verkleinerten Strukturbreite eine neue Architektur einzuführen, ein Jahr später schon eine 22-nm-Version bereit. Bereits 2011 möchte Intel den Umstieg vollziehen, 2012 bringt dann das nächste Design "Haswell", über das bis vor kurzem noch nichts bekannt war. Haswell wird über acht Kerne auf einem Die verfügen. Genaue Informationen zum Cache sickerten noch nicht durch, nur für Sandy Bridge weiß man bereits, dass alle acht Kerne je 512 KB L2-Cache und satte 16 MB L3-Cache zur Seite gestellt bekommen. In der nächsten Woche gibt Intel die Pläne offiziell preis, spätestens dann sind also auch diese Details bekannt. In den vergangenen drei Jahren hielt Intel die Roadmaps sehr genau ein, daher dürften diese Prognosen auch sehr realistisch sein.

Weiterführende Links:

Kommentare

global.player
global.player14.08.08 17:48
irgendwann spricht man nicht mehr vorrangig über die anzahl der hertz, sondern nur noch über die anzahl der kerne
0
StarPeak
StarPeak14.08.08 18:08
So wie es aussieht, gibt es zumindest mit aktueller Technik schlicht und einfach ein Problem, dass Prozessoren über 3 - 3,5 GHz verhindert - die Verlustleistung. Intel hat den Fehler bereits begangen diese Grenze mit aller Macht durchbrechen zu wollen. Die Pentium 4 Chips waren aber (wenn auch nicht ausschließlich) wegen ihrer Taktraten besser einfach viel zu heiß. Zum Glück hat Intel seine Hausaufgaben gemacht und geht jetzt lieber in die Breite als die (Takt-)Höhe.

Zum momentanen Zeitpunkt ist allerdings auch hier eine gewisse Grenze gesteckt. Aktuelle Betriebsysteme und Software machen noch nicht genügend Gebrauch von den vielen Kernen. Über 8 Kerne im Desktop ergeben also zur Zeit noch wenig Sinn. Allerdings haben einige Betriebsystemanbieter bereits angekündigt, in diese Richtung entwickeln zu wollen. Snow Leopard heißt dieses Kind bei Apple. Wirklich nutzen tun diese vielen Kerne aber auch erst, wenn Programme von z.B. Adobe davon Gebrauch machen werden.
0
MacRabbitPro14.08.08 18:12
StarPeak

schön dass du es noch einmal zusammengefasst hast!
0
Schäfchen im Trockenen!14.08.08 18:25
StarPeak
Allerdings haben einige Betriebsystemanbieter bereits angekündigt, in diese Richtung entwickeln zu wollen. Snow Leopard heißt dieses Kind bei Apple.
Einige ?? Wohl doch bis jetzt nur ein Einziger, oder irre ich mich?
0
maybeapreacher
maybeapreacher14.08.08 18:36
hmm... das liegt unter anderem daran, dass Unix-Basierte Systeme
in der Regel, zumindest von ihrer Geschichte her, in der Server-Welt
großgeworden sind, und ihnen daher SMP (Symmetric MultiProcessing)
nicht fremd ist. Auf dem Desktop hat man das aber wieder aus den
Augen verloren (Linux, MacOS), wobei Linux in diesem einen Fall MacOS
voraus ist.

Wie dem auch sei, für mich lohnen sich diese Kerne schon allein
fürs DVD-Mastering, Blender (3D-Software mit raytracing) und
SPiele, die demnächst rauskommen werden

Das sind mir Gründe genug, auch wenn mein Mail oder mein Safari quasi
nicht davon profitieren wird

Gruß
0
Swentech14.08.08 20:00
Kleinere Strukturen bedeuten mehr Leistung bei kleineren Geräten.
Ein sehr kleines Gerät kennen wir ja schon, das iPhone. Das nächst grössere wäre der MacMini oder die Laptops.
Bin mal gespannt, was sich da alles noch entwickeln lässt.

SpeicherChips Prototypen gibt es bereits mit 15nm Strukturen.
All das macht mir aber ein wenig Angst. Sind diese Chips auch noch so Stabil und Robust?
Sie haben ja überhaupt keine Masse mehr. Sind lediglich Anhäufungen von Atomen.
Können Atome so schnell schwingen? (Ghz) oder werden sie bei gewissen Belastungen aus ihrer Bahn geschleudert?

Irgendwann geht es dann vielleicht wieder Richtung grössere Strukturen, wenn wir alle diese Produkte gekauft haben und ihre Haltbarkeit an uns Kunden getestet wurde - nicht erfüllt wurden.



0
HiandreasW
HiandreasW14.08.08 20:31
Swentech
Denke so klein werden sie schon bleiben, aber viel kleiner werden sie auch nicht werden, da die Wellenlänge des Lichtes beim Belichten des Wafers die Grenze setzt.
Mirkowelle kann noch mit Kristallglas Linsen Abgelenkt werden, ab dann muß was ganz neues her, zZ wird soweit ich weiß UV Licht verwendet, dabei ist die Optik schon einige Meter hoch mit riesigen Linsen.

Ob diese auch aus Kristallen hergestellt werden könne (bezahlbar) ist mir nicht bekannt.
Ist mir auch egal, ob nu 4x3Ghz oder 12Ghz
Malus domestica ;-)
0
MacRabbitPro14.08.08 23:58
maybeapreacher

Es geht dabei aber mitnichten um SMP!

Da OS X ein klassisches Unix ist (dank BSD Userland), hat man da gar nix aus den Augen verloren was SMP angeht. Auch einen Vorteil von Linux gibt es da nicht. (Oder habe ich was übersehen - wenn ja, kläre mich bitte auf.)
Bei den Bestrebungen neuen APIs zu entwickeln für die Nutzung mehrerer Cores, geht es auch mitnichten um Multiprocessing. Dies beherrscht OS X, genau wie Linux oder andere SMP Systeme, sowieso - es geht viel mehr darum, die mehreren Cores EINEM Prozess nutzbar zu machen - und zwar OHNE dass der Entwickler seine Anwendung selbst - Bewusst - in mehrere Prozesse oder zumindest Threads aufteilen muss, was mitunter bei der Programmierung sehr kompliziert ist bzw., je nach Problem, fast unmöglich ist. Genau da kommen Initiativen wie Grand Central ins Spiel.
Daher gibt es, was dies angeht, bei anderen SMP Systemen (zu denen z.B. auch Windows zählt) gegenüber OS X keinen Vorteil.
Das ganze gilt übrigens auch für Server-Umgebungen. Das beste High-Performance Server OS auf einer Mutli-CPU Kiste nutzt Dir nix, wenn dein Programm nur aus einen Prozess besteht, der zur Berechnung keine Threads etabliert. Kein OS dieser Welt mit egal wie viel CPUs wird diesen Prozess durch SMP beschleunigen können.

0
smuehli
smuehli15.08.08 11:28
Diese ganze Multiproessing ist aber auch eine Sackgasse! Wegen mir sind 2 oder 4 Kerne beim Desktop und File-Server noch auslastbar. Aber welches Programm kann denn (von Raytracing mal abgesehen) davon noch Profitieren?

Beim MP3 umwandeln oder Video-Konvertieren kann ich die Daten nicht soweit aufdröseln das alle Cores davon profitieren und soviel nebenher macht man während dieser Vorgänge auch nicht.
0
MacRabbitPro15.08.08 11:43
smuehli

Klar kannst du beim Video Encodieren und Rendern alle Kerne benutzen. Final Cut Studio ist sogar Clusterfähig. Gleiches gibt auch z.B. beim Software Build - da können auch alle CPU Kerne voll mit reinhauen.

Und im Serverbereich bekommst Du spielend fast beliebig viele Kerne ausgelastet.
Egal, ob Mail, Datenbank, Web oder Application Server.

0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.