Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Microsoft: Software-Industrie unzureichend auf Multi-Core vorbereitet

Herb Sutter, Software-Architekt bei Microsoft, warnte auf dem In-Stat/MDR Prozessor-Forum die Hardware-Designer, dass die Software-Industrie nur unzureichend auf die Multi-Core-Prozessoren vorbereitet sei. Die Zeit sei vorbei, in denen Software-Entwickler leistungshungrige Programme schreiben und dann auf schnellere Prozessoren warten können, so Sutter. Denn nun kommen nicht mehr schnellere, sondern mehrere Prozessorkerne, und die Aufgabe für Software-Entwickler besteht zukünftig darin, ein Programm in mehrere Prozesse auszuteilen, um die Leistung der neuen Multi-Core-Prozessoren zu nutzen. So will Microsoft beispielsweise mit dem Concur Projekt den Software-Entwicklern helfen, durch abstrakte Bibliotheken den Umgang mit mehreren Prozessen zu erleichtern.

Weiterführende Links:

Kommentare

axl
axl28.10.05 09:52
Wie sieht denn das bei OS X aus. Das die optimale Performance nur durch Optimierung wie z.B. bei Cinema4D zu erreichen ist ist mir klar, aber die restliche Software profitiert doch auch, ohne extra für Multicore geschrieben worden zu sein. Ist doch auch ne Sache des Betriebssystems. Hat Apple da einen so grossen Vorsprung gegenüber M$?
isch 'abe gar keinen slogan
0
Murdock28.10.05 09:58
axl
Naja, groß ist der Vorsprung nicht, aber Mac OS X profitiert im Allgemeinen schon seit der ersten Version von mehreren Prozessoren. Jedoch wird man auch auf dem Mac nicht drum herum kommen, als Entwickler verstärkt die eigenen leistungshungrigen Programme umzustrukturieren.
0
Garibaldi28.10.05 09:59
Die Software profitiert indirekt. Mac OS X teilt die Tasks sinnvoll auf die Prozessoren (Kerne) auf und sorgt so dafür, das z.B. eine Leistungshungrige Single Core Applikation einen Kern alleine benutzen kann, während mac OS X und andere Tasks auf einem anderen laufen. Diese Form der "Optimierung" hat natürlich ihrge Grenzen, da nicht alle Kerne optimal ausgelastet werden.
0
JustDoIt
JustDoIt28.10.05 10:01
Im Original heißt es:
"...he hardware industry did not realize how unprepared most developers were for the brave new world of writing multithreaded, parallelized software."

Das hat erst mal nichts mit mehreren CPU Kernen zu tun.

Die SW-Entwickler verteilen nicht die SW auf mehrere CPU's, sondern sie müssen die SW derart schreiben, daß das Betriebssystem die SW auf mehrere CPU's, oder mehrere quasi parallel auf einer CPU Threads, verteilen kann.

Das ist ein immenser Unterschied und deswegen ist die MTN Übersetzung wohl etwas zu locker.
0
JustDoIt
JustDoIt28.10.05 10:03
Parallelisierte Software hat nicht zwangsläufig mit einer Ausführung auf mehreren CPU's oder CPU-Kernen zu tun, genau so wenig wie "Realtime" nichts mit Geschwindigkeit zu tun hat.

Beides Dinge die oft fehl interpretiert werden.
0
DASKAjA
DASKAjA28.10.05 10:03
Das sollte inzwischen jedes halbwegs aktuelle Prozesssheduling machen. Selbst Windows macht es ja mittlerweile - dort isses ja auch mittlerweile möglich einen Prozess an eine CPU/Kern zu binden.

Für die Threads ist man aber doch noch selberverantwortlich. Wer ausser dem Entwickler solls besser wissen? BeOS war m.M. das einzigste System was Multi-Threading wirklich gefördert/gefordert hat. Aber die MS-Person hat recht wenn sie mehr Unterstützung in Form von Tools und Libs erwartet, denn auch wenn Threadprogrammierung nicht zu den schwersten Sachen gehört, ist eine effektive Programmierung etwas, was viel Erfahrung in diesem Bereich verlangt.
0
MacMark
MacMark28.10.05 10:17
Bei einem multithreaded Programm ist der Zugriff auf gemeinsame Resourcen (Variablen, Dateien, etc.) zu berücksichtigen. Korrekte Threadprogrammierung ist eine der schwierigsten Aufgaben.

Damit ein Programm von mehreren CPUs profitiert, muß es multithreaded sein.
@macmark_de
0
JustDoIt
JustDoIt28.10.05 10:18
Ich kann 10 Threads auf einer CPU laufen lassen oder auf 5 oder 10 oder 20 etc.

die MTN Übersetzung der News Meldung ist schlicht falsch, weil die SW-Entwickler eben nicht verantwortlich für die Verteilung der SW auf mehrere Prozessoren sind.

0
Murdock28.10.05 10:20
JustDoIt
Ich habe es doch korrigiert! Du brauchst also nicht mehr fett werden...
0
Dieter28.10.05 10:26
Ist wohl nicht weit her mit Window's Multitasing, aber das merkt man ja auch, wenn man es benutzt. Programme und Dialoge blokieren teilweise den Programmwechsel. Sch*** Konzept besch*** System.

Die SW-Entwickler sind nicht verantwortlich für die Verteilung der SW auf mehrere Prozessoren. Eigentlich ist es Sache des OS. Nur wenn Programme für sich selbst davon profitieren wollen ...
0
MacMark
MacMark28.10.05 10:31
Das Betriebssystem kann ein Programm nur dann auf mehrere CPUs verteilen, wenn es multithreaded ist. Und dafür ist der Entwickler verantwortlich.

Das Betriebssystem kann jedoch jederzeit verschiedene (komplette) Programme auf jeweils andere CPUs verteilen. Dafür ist der Entwickler nicht gefordert.
@macmark_de
0
axl
axl28.10.05 11:17
Aha. Danke für die Aufklärung. Wieder was gelernt.
isch 'abe gar keinen slogan
0
neo28.10.05 12:08
Garibaldi
Ne das macht Drawin leider nicht immer Optimal, ein beispiel wo es schön Sichtbar ist, ist die Application Quake3 auf dem Mac die Langsammer ist wenn zwei Prozessoren an sind und Darwin versucht die Last zuverteilen Auf einem Single Prozessor läuft es 10% schneller. Das Problem dürfte in der Abhänigkeit zwischen den einzelen Threads liegen und das unter Umständen das Scheduling durch einander kommt.

Gruss neo
0
JustDoIt
JustDoIt28.10.05 12:25
Murdock:
Sorry, lange kein Reload gemacht und Danke für die Korrektur. Nur fett bin ich deswegen trotzdem, weil es wird langsam Winter und da braucht man Winterspeck.
0
Murdock28.10.05 12:30
JustDoIt
Da geht es dir nicht alleine so.
0
iMad28.10.05 13:03
Murdock & JustDoIt:

:-[:-X
0
Garibaldi28.10.05 13:45
neo

Das wußte ich noch nicht. Danke.
0
rmac28.10.05 18:19
(sick) ja!!!
und microsoft geht mit gutem beispiel voraus, und schreibt Longhorn für so leistungsfähige PCs, wies noch nicht gibt;-)
0
pique31.10.05 10:11
ist doch sowieso ratsam.

in den anfangstagen der homecomputer/pcs hat man unglaubliche dinge aus den verfügbaren resourcen herausgeholt.

dann fing man nur noch an zu verschwenden. (arbeitspeicher, festplatten, mhz,...)
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.