Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Berichte über Dual-Core Atom-Prozessor von Intel

Intels nächster Prozessor für den Markt ultramobiler Geräte trägt den Namen "Atom". Schon vor Wochen kamen Gerüchte auf, Apple könnte sehr interessiert am neuen Prozessor sein. Einem aktuellen Bericht zufolge, konnte nun angeblich auch ein Dual-Core Atom bestätigt werden. Mit 1,6 GHz und Hyperthreading (vereinfacht ausgedrückt: Ein Prozessor gaukelt dem Betriebssystem vor, dass zwei Prozessoren verbaut sind) soll der Stromverbrauch dennoch acht Watt nicht überschreiten. Für Geräte wie das iPhone wären acht Watt zu viel, für sehr kompakte Notebooks aber ein hervorragender Wert. Man rufe sich an dieser Stelle noch einmal die Gerüchte in den Hinterkopf, wonach Apple an einem Tablet-Mac arbeitet, der schon in diesem Jahr auf den Markt kommen könnte. Bisherigen Einschätzungen zufolge ist die Einführung des dann schnellsten Atoms für diesen Sommer geplant. Mit den bisherigen Modellen sorgte Intel bereits für sehr hohe Nachfrage, da zahlreiche Hersteller Interesse anmeldeten. Man geht davon aus, dass die Nachfrage nach den Atom-Prozessoren noch einige Wochen lang das Angebot übersteigen wird.

Weiterführende Links:

Kommentare

gentux
gentux26.05.08 15:16
Was am Prozessor gespart wird gibt das Display wieder ab. Umso mehr erstaunt mich, dass das MBP im Leerlauf nur 14 Watt braucht. Atom alleine bringt nichts, aber Apple könnte mit hochwertigen Komponenten ein teures Gerät vermarkten und damit so richtig absahnen. Andere Anbieter haben wegen dem Eee PC kaum Erfolg mit teuren Subnotebooks.

Aber dieser Sektor gehört ja schon dem MacBook Air
0
Johloemoe
Johloemoe26.05.08 15:30
klar bringt der Atom Vorteile.... "Normale" Notebook-Prozessoren verbrauchen zwischen 20 und 35 Watt, da sind 8 Watt maximal nen sehr guter Wert.. Nen Stromsparendes (LED?) Display dazu, und man hätte endlich mal nen Notebook mit schöner Akkulaufzeit..

Zur Meldung: Hyperthreading hat aber nix mit DualCore zu tun, ne!? Habt ihr ja selber auch im Text geschrieben, dass der Przessor dem Betriebssystem im Prinzip vorgaukelt, dass zwei Prozessoren da wären. Macht der aber bloss um seine internen Recheneinheiten besser auszunutzen, wenn die eh alle belegt sind, bringt HyperThreading auch 0 Punkte.
0
Fenvarien
Fenvarien26.05.08 15:35
Johloemoe Ja, da sind es aber zwei Kerne und noch Hyperthreading!
Ey up me duck!
0
MacRaul26.05.08 16:10
Es gibt mit dem MacBook Air jetzt schon ein sehr kompaktes Notebook von Apple, und dessen Core Duo spielt in einer komplett anderen Leistungsliga wie Intels Atom Prozessor. Apple hat mit der nächsten Generation die Wahl, ob sie die Taktzahl beibehalten wird und dafür stromsparendere Chips ( 17 statt 25 Watt TDP) verwendet oder den selben Stromverbrauch in Kauf nimmt und dafür Taktraten von 2,26 bis 2,4 Ghz anbieten kann. Ein Atom Prozessor in einem Mac Book air würde jeden User frustrieren, der nur einmal mit der aktuellen Version gearbeitet hat und warum sollte man von dem ominösen "13 Zoll Tablett Notebook mit voller MacOS Unterstützung" weniger Leistung erwarten??

Apple wird Intel´s Atom Prozessor in einem Produkt verbauen, allerdings wird dieses Gerät weniger einem leistungsmässig kastrierten Notebook entsprechen, sondern vielmehr an ein auffrisierten iphone / ipod Touch mit größerem Display / Interface erinnern.
Und dazu wird nicht einmal ein Dual Core Atom nötig sein, zumal dieser die Kosten unnötig nach oben treiben würde, bzw durch Lüfter etc ein schlankes Design unmöglich machen würde. Un der wahrscheinlichste Formfaktor ist ein 7 bis 9 Zoll großes Display mit dem Design und der Dicke eines iphones.
0
Rosember26.05.08 16:18
MacRaul und gentux
Das sehe ich auch so. Ich warte schon ein ganzes Weilchen auf so was wie Eee PC goes Mac/iPhone.
0
Brandy
Brandy26.05.08 17:43
Könnte Intel sein Gehyptes-Threading nicht mal endlich auf den Müllhaufen der Geschichte werfen? Das gab doch nur Probleme mit exorbitant langen Pipelines, die schneller leerlaufen, als sie nachgefüllt werden können, sollte beim heiteren "Was brauchen wir als nächstes?-Raten" falsch gefüllt worden sein.
0
Knork27.05.08 00:12
Brandy:

Was genau meinst Du?

Core 2 Duo: 14 decoder stages
Atom Dual Core: 16 decoder stages


Dennoch ist die Atom-CPU nix für aktuelle "echte" Computer. 1,6 GHz Atom entspricht ca. 1 GHz P3.

Mit dem Atom Dual Core hat man dann zwar virtuell "fast" vier P3@ 1 GHz, aber wozu soll das gut sein?

Für Settop-Boxen: Super. Video-decoding ist genau die Stärke für Multicore.

Als Arbeitsrechner macht man sowas aber zu selten, bzw. wenn, dann wäre man mit einem "echten" Core 2 Duo oder auch Quad wohl besser und schneller dran.

Fürs Handy ist die CPU wiederrum zu stark, 8 Watt im Handy - da ist der Akku binnen Minuten leer.

Bleiben also nur Geräte zwischen Handy und Notebook, wie gesagt als Settop-Box o.ä.
0
SchaubFD27.05.08 08:13
Es wäre mal Zeit so etwas wie RISC in den Achzigern bei der Hardware mit der Software durchzuführen. Überflüssige Programmteile entfernen und die Software mal durchzusehen wo sie besser und kompakter programmiert werden kann. Wenn man noch die Performance von ehemaligen Homecomputern wie z.B. dem Acorn Risc PC kennt, dann müsste auch ein solcher Prozessor sehr schnell sein.

Desto kleiner die Software, desto schneller das Programm (so in etwa).
0
cpx27.05.08 09:42
Ich wette der Mac Mini bekommt den Dual Atom.
0
Knork27.05.08 12:05
SchaubHome:

Natürlich ist kompakterer Code meistens schneller als umfangreicher Code.

Aber heutzutage werden Programme anders programmiert als zu Zeiten der Homecomputer.

Versuche doch einfach einmal, eine Software wie Pages oder Numbers in x86-Assembler und PPC-Assembler zu erstellen (ja, und, nicht oder. Es soll ja ein Universal-Binary herauskommen).

Die Entwicklungszeiten, die früher für kleine Anwendungen zur Verfügung standen, stehen heute nichtmal für die Entwicklung wesentlich umfangreicherer Anwendungen zur Verfügung.

Software wäre wesentlich teuerer und die Entwicklungszyklen länger.
0
SchaubFD27.05.08 16:43
Knork, teilweise verstehe ich deine Aussage. Nur kommt es mir heute eher so vor, das man sich um Code und Geschwindigkeit kaum noch Gedanken macht.

Was mich stört ist, 10% Mehr Funktionen 30% mehr Code und wenn möglich einen 50% schnelleren Prozessor zum Ausführen. Ich denke da (verzeiht es mir) an die Software Framework II (PC Software) zurück. In 670KB eine Textverarbeitung, Tabellenkalkulation, kleine Datenbank und ich glaube eine Terminplanung all das inkl. einer graphischen Oberfläche ähnlich der Xerox Sache. Module wurden teils nachgeladen. Da musste alles drinnen untergebracht sein, also auch Druckertreiber, Maustreiber, Bildschirmtreiber usw. neben dem DOS unten drunter.

Heute braucht ein simples Programm schon so viel Speicher alleine.

Ich warte bis der Erste kommt und 2GB RAM für seine Textverarbeitung inkl. OS braucht. Nur zur Info, alle Telefonbücher von ehemals Westdeutschland passen in 470MB Speicher und das waren so um die 5 Meter Telefonbücher! Bei 10 Zeichen pro Sekunde und 8 Stunden am Tag, braucht jemand um 1GB Text zu schreiben über 17 Jahre.

Ich habe in 1986 eine elektronische Landkarte programmiert in weniger als 248KB Speicher (Daten extern). Auch dort mussten alle Funktionen im Programm untergebracht werden (Graphikansteuerung). Heute hat man Graphikkarten die einem das abnehmen und trotzdem wird die Software größer.

Wo liegt den deiner Meinung nach derzeit das Problem? Würde mich interessieren, Danke!
0
Knork28.05.08 01:32
Wie ich schon schrieb:

Zeit ist Geld.

Wenn "heutzutage" eine rechenintensive Anwendung etwas zu langsam ist, dann kann man sich (als Entwickler) sicher sein, daß die Anwendung auf dem Durchschnitts-Rechner des nächsten Jahres halbwegs schnell genug ist. (Moores Law)

Die Verkäufer schreien ständig nach "neue Features" "mach das schneller als der Wettbewerber". Und das gleiche bekommt der Entwickler beim Wettbewerber um die Ohren gehauen.

<Schulterzuck>

Du erwähntest die "alten Zeiten". Ja, kann mich noch gut erinnern. Damals, als man noch den Programmcode auf möglichst klein trimmte, und gleichzeitig mit Tabellen die Takte der CPU-Befehle auszählte und optimierte. Hab das selber Tage/Nächtelang gemacht. <träum>


Zu 8/16bit-Zeiten passten auf eine 90KB-Diskette Textverarbeitung (wordperfect), Tabellenkalkulation (visicalc) und Datenbank (dbase & co) nebst den Dokumenten.

Heutzutage braucht man bereits mehrere Gigabyte allein für das Betriebssystem.

Wobei: Für den Preis einer Diskette von "damals" bekommt man heute auch gleich 20 Gigabyte Plattenplatz. Der Preis ist also konstant geblieben.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.