Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Entwicklung des 32-Nanometer-Fertigungsprozesses bei Intel abgeschlossen

Wie Golem berichtet, hat Intel die Entwicklung des 32-Nanometer-Fertigungsprozesses abgeschlossen. Somit kann Intel mit dem Aufbau entsprechender Produktionsanlagen beginnen, um dann im vierten Quartal 2009 mit dem Core i7 "Westmere" den ersten Prozessor in 32-Nanometer-Strukturbreite herzustellen. Mit Verkleinerung der aktuell bei 45 Nanometer liegenden Strukturbreite lassen sich mehr Chips auf einem Wafer produzieren, die Energie-Effizenz der Chips erhöhen oder die Leistungsfähigkeit durch mehr sowie schnellere Transistoren ausbauen. Details zum neuen Fertigungsprozess will Intel kommende Woche auf dem International Electron Devices Meeting in San Francisco bekannt geben. Dort will man auch ein neues Stromsparsystem vorstellen, mit dem 45-Nanometer-Prozessoren leistungsfähiger sein können. Weiterhin soll es laut Golem auch schon einen Ausblick auf den 22-Nanometer-Fertigungsprozess geben.

Weiterführende Links:

Kommentare

Schildie
Schildie10.12.08 11:59
Wenn ich mich erinnere, was es damals für ein Hickhack war, um irgendwie auf 90 nm zu kommen
0
MetallSnake
MetallSnake10.12.08 12:05
Der Hickack kommt dann sicher wieder wenns auf die 9 nm geht.
Das Schöne an der KI ist, dass wir endlich einen Weg gefunden haben, wie die Wirtschaft weiter wachsen kann, nachdem sie jeden Einzelnen von uns getötet hat.
0
antipod
antipod10.12.08 12:35
was waren eigentlich die vorteile von 45nm zu 65nm ?
0
bluefisch20010.12.08 12:41
antipod
Wie bei jeder Verkleinerung der Strukturbreite kommt das selbe dabei raus, weniger hoher TDP(sollte zumindest) und somit mögliche höhere Taktungen + schnelleres "schieben" von Daten zwischen den Komponenten in den CPUs...

MetallSnake
Da die heutige Technology nicht mehr als 15nm zulässt, werden wir 9nm nie erreichen, zuerst wird die Optische CPU(Licht) kommen...
0
sierkb10.12.08 13:03
antipod:
was waren eigentlich die vorteile von 45nm zu 65nm?

Der Vorteil, der immer zu Tragen kommt, wenn die Dinge kleiner gefertigt werden können: bei gleicher Wafer- bzw. Die-Größe können mehr Chips untergebracht werden. Dadurch ist der Output bei der Produktion größer, was sich sicher auf auf die Preise niederschlägt. Gleichzeitig wachsen aber auch die Probleme: man stößt bei solchen kleinen Strukturen inzwischen an allen Ecken und Kanten an die physikalischen und elektrischen Grundgesetze, manchmal sind bestimmte Leiterbahnen auf einem Chip nur noch wenige Atome (oder sogar nur ein Atom) dünn bzw. liegen manchmal nur wenige Atome weit auseinander. Und das Licht, mit dem die Strukturen in das Silizium gebracht werden, hat ja auch nur eine bestimmte und begrenzte Wellenlänge und Dicke. Von klassischen Licht-Lasern ist man deswegen jetzt sogar schon bei Röntgen-Lasern angelangt, um noch feinere Strukturen belichten zu können.

Man hat auf den Chips regelmäßiger mit dem sog. Tunneleffekt und elektrischen Übersprech-Phänomen zu kämpfen, die dann häufiger und manchmal unvorhersagbar kommen, und letztendlich stößt man an die Grenzen der optischen Lithografie, denn so kleine Strukturen müssen ja irgendwie auch auf den Chip gelangen bzw. photografisch und chemisch herausgearbeitet werden. Auf diesem Gebiet existiert Nano-Forschung und werden neue Geräte erfunden und gebaut, die in immer neue Bereiche vorstoßen, die wir uns bisher nur schwer vorstellen konnten. Hier ist die Grundlagenforschung sehr hoch und arbeitet sehr eng mit Universitäten und namhaften Forschungseinrichtungen wie der FHG, MPI und vielen anderen zusammen, um immer neue Wege zu finden, noch kleinere Strukturen produzieren zu können und die Natur bis zum letzten Quant auszureizen. Mit dem bisherigen Material Silizium und den mehr oder weniger optischen Verfahren, um hier Masken auf- und wegzutragen -- und das Ganze dann im Zusammenspiel mit Strom -- stößt man jedenfalls immer häufiger auf die Grenzen des Machbaren. Die Physik und letztendlich die Quantenmechanik im atomaren Bereich zeigen da inzwischen spürbare Grenzen auf, so dass sich die Forschung neue Wege und neue Möglichkeiten ausdenken muss.
Auch hier liegt ein Grund, warum die Prozessor-Schmieden irgendwann angefangen haben, über den bisher eingeschlagenen Weg nachzudenken und sich z.B. Multicore-Designs und Parallel-Verarbeitung zuzuwenden, statt alles klassisch einem einzigen Single-Core-Prozessor zu überlassen. Das geht irgendwann zu sehr an die Grenze des mit bisherigen Mitteln Machbaren und bringt eine Menge unangenehmer und nicht mehr tolerabler (physikalischer und quantenmechanischer) Seiteneffekte, die den beabsichtigten Gesamtnutzen irgendwann übersteigen.
Dieses ganze Feld ist hochkomplex, und immer wieder werden neue Durchbrüche erreicht, die der Natur erneut ein Stück Land abgewinnen konnten. Gleichzeitig steigt damit aber auch der Aufwand und die damit die Kosten. Und das kann nur durch Menge wieder reingeholt werden.
Derlei Technologien sind Schlüsseltechnologien, weshalb sich da auch kein Staat der Welt heraushält bzw. heraushalten kann, was die Grundlagenforschung angeht. Auch deshalb geht's da häufig nicht ohne Subventionen, wie man beispielhaft am Fall AMD sehen kann. Da hängt viel dran an und ab von so einer Schlüsselindustrie.
0
MACUSER8710.12.08 13:26
@sierkb

Deine Kommentare sind ja immer hoch interessant (wirklich!), aber immer nen Tick zu lang , zumindest für ein "Kommentar".
I Wer immer tut, was er schon kann, bleibt immer das, was er schon ist I
0
Schildie
Schildie10.12.08 13:28
macuser87
Wenn der Kommentar interessant und sachlich richtig ist, spricht eigentlich nix gegen eine Länge, in der man auch ordentlich Information unterbringen kann, finde ich
0
pogo3
pogo310.12.08 13:38
Und, was hat mein iMac davon? Die reine Leistungsfähigkeit scheint mir schon lange nicht mehr von den Prozessoren sondern vom Betriebssystem abzuhängen. Und mein neuer iMac mit 4GB Ram zickt zuweilen rum als hätte ich noch mein PowerBook G3 von 1998. Die reine Beachballschleuder. Ich hoffe ja schon schwer auf Snow Leopard.
Ich schmeiss alles hin und werd Prinzessin.
0
antipod
antipod10.12.08 13:45
also könnte man damit sagen, dass sich für den endverbraucher keine deutlichen vorteile zeigen?

Ich meine aus reiner Performance-Sicht. Na gut, dass mit der TDP ist schon wichtig, um nicht zu sagen unumgänglich, wenn man die Taktraten erhöhen möchte.

Intressant ist auch, dass somit nun mehrere Kerne auf dem gleichen Platz untergebracht werden, den früher ein Pentium 4 gebraucht hätte.

Trotzdem kommt es mir momentan so vor, als würde die Chip-Industrie auf der Stelle treten. Die Performance-Zuwächse der letzten paar Intel-Generationen waren doch eher knapp... bis auf den neuen i7. Mal schaun wie es bei den mobilen Prozessoren weiter geht.
0
sierkb10.12.08 14:07
pogo3,
antipod:

Stichworte sind Multi-Core und Parallelisierung. Also in die Breite gehen, die Aufgaben verteilen, auslagern, intelligent zusammenführen und verknüpfen. Cluster-Bildung, wie man es aus dem High-Perfomance-Computing kennt, wo mehrere (bis hin zu tausenden Rechnern zu einem Verbund zusammengezogen werden) also im Kleinen.
Da findet derzeit doch sehr viel statt. Zumindest hardwaretechnisch: Core2, Core2Duo, Core4, Core8, Core16, Core32, OpenCL etc.
Die Software, die drauf laufen soll, hinkt derzeit in diesem Punkt teilweise eklatant hinterher und ist auf diese Auf- und Verteilung der zu bestehenden Aufgaben entweder schlecht oder nicht vorbereitet. Das heißt, sie kann vorhandene Ressourcen der Hardware (allem voran CPU und GPU bzw. jeweils mehrere davon) bisher nicht oder nicht optimal nutzen. In diese Richtung zielt u.a. SnowLeopard, zielt u.a. auch OpenGL. Multi-Core-Unterstützung im Allgemeinen und im Speziellen ist bei den kommerziellen Betriebssystem-Herstellern bisher eher am Rande mitgelaufen bzw. nur oberflächlich angepackt worden. Mit Multi-Core und der Parallelverarbeitung, bei der sich meinetwegen CPU und GPU die Tasks aufteilen, sind teilweise ganz neue Programmier-Mechanismen notwendig, die Betriebssysteme müssen darauf vorbereitet werden bzw. sein. Und die ganzen (vor allem kommerziellen) Anwendungsprogramme erst recht. Und genau da ist enormer Nachholbdearf, da reichen vielfach keine einfachen Compiler-Schalter aus, die im Fall von MultiCore gesetzt werden müssen, da muss Software in manchen Teilen komplett umgeschrieben und optimiert werden. Das ist ein Feld, was vor allem die Software-Industrie in den letzten Jahren arg vernachlässigt hat, und das meiste, was an Software existiert, ist lediglich für einen einzigen Prozessor geschrieben.

Verteiltes Rechnen und Cluster-Bildung ist im High-Performance-Computing (HPC), sprich: Supercomputern schon seit mehreren Jahren hoch im Kurs. So langsam kommt dieses Denken und Handeln auch auf dem einzelnen Rechner des normalen Nutzers an bzw. wird ankommen. Da passiert viel im Moment, von "auf der Stelle treten" nehme ich da weniger wahr, sondern eher das Gegenteil. Das gibt demnächst nochmal einen immensen Schub, wenn diese Raketen zünden und die Software sich der Hardware angepasst hat bzw. diese optimal zu nutzen weiß. Bisher nutzt die Software nur einen Bruchteil dessen, was sie bei intelligenter Ausnutzung der Hardware nutzen könnte, weil sie einfach dafür noch nicht ausreichend vorbereitet ist.
0
antipod
antipod10.12.08 14:38
was bitteschön ist core4 und core8?
Davon hab ich noch nie was gehört.

In Zukunft wird es nur noch die iX serien geben (zB. i7)
Multicore gibts es jetzt doch schon einige Jahre und ich frage mich langsam, wann es endlich soweit sein soll, dass der endverbraucher was vom performance-zuwachs durch den zweiten, dritten oder sogar vierten core merkt.

klar, bei rechenintensiven anwendungen funktioniert das mittlerweile relativ gut, aber da musste sich auch was tun.

verteiltes rechnen usw... ja gut, aber was hat das mit dem consumer zu tun. der will seinen computer nicht hergeben für verteiltes rechnen (seti), der wir nur leistung bzw. dass alles problemlos läuft und die wartezeiten minimiert werden.

was ich eher bemerkt habe, ist das software sich zwar für multicore auslegt, auf singlecore systemen nur noch schlecht läuft und auf multicore nicht unbedingt besser als früher auf singlecore, dafür bietet es neue performance hungrige funktionen.

gleiches gilt auch bei den games.
0
sierkb10.12.08 14:58
antipod:
was bitteschön ist core4 und core8?

Ich zielte mit der Aussage weniger auf irgendwelche konkreten Produkt- bzw. Markennamen, sondern auf die Tatsache als solches, also Prozessoren mit 4 Cores, 8 Cores, 16, Cores, 32 Cores oder/und auch die Zusammenschaltung mehrerer Multi-Core-Prozessoren, meinetwegen 4 mal 4-Core-Prozessoren zu einer Einheit von unterm Strich 16 Cores. Die Zahlen sind ersetzbar und nach oben hin offen. Ich meinte es also eher grundsätzlich. Wie die einzelnen Prozessoren dann aus Marketinggründen tatsächlich heißen, ist hier uninteressant.
verteiltes rechnen usw... ja gut, aber was hat das mit dem consumer zu tun. der will seinen computer nicht hergeben für verteiltes rechnen (seti), der wir nur leistung bzw. dass alles problemlos läuft und die wartezeiten minimiert werden.

Du hast nicht verstanden, was ich geschrieben habe -- ich schrieb: im Kleinen, also innerhalb eines einzelnen Desktop-Rechners wird sich verteiltes Rechnen so etablieren, wie es bzgl. verteiltem Rechnen im Großen (also im Rechner-Verbund, Clusterbildung) schon seit Jahren üblich ist. Innerhalb Deines Desktop-Rechners fallen ja verschiedene Aufgaben an. Und die werden eben intelligent verteilt statt sie eben nur allein durch eine einzelne CPU ausführen und verwalten zu lassen. Innerhalb Deines Rechners. Für die nur auf diesem Rechner stattfindenden Aufgaben. Die GPU wird mehr Aufgaben übernehmen als bisher, um z.B. bestimmte rechenintensive Aufgaben besser und schneller lösen zu können als die CPU bisher, einfach deswegen, weil die GPUs inzwischen die besseren Mathematiker geworden sind und bestimmte Rechenoperationen besser vollziehen können als die CPU, die sich währenddessen besser um andere Aufgaben kümmern kann. Und diese Auslagerung und Parallelisierung findet dann nicht nur im Grafikbereich statt, sondern in allen Bereichen, die irgendwie auf bestimmte Weise sehr rechenintensiv sind bzw. wo die logischen und mathematischen Recheneinheiten einer GPU besser zum Zuge kommen können als ihre Kollegen der CPU. Und wenn diese beiden CPUs dann auch noch mehrere Kerne haben und ihrerseits wiederum parallel rechnen und arbeiten können, wird ein ganz anderes Arbeiten draus als bisher. Und zu dem Ganzen kommt dann auch noch als weitere denkbare Möglichkeit die externe Komponente des verteilten und vernetzten Rechnens, die Du bisher schon kennst.
0
ghostdex10.12.08 21:03
Nach dem Mooreschen Gesetz sind wir ja up to date xD
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.