Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Intel stellt fest: Grafikchip rechnet schneller als Prozessor

Intels Forscher haben in der Studie "Debunking the 100x GPU vs CPU Myth" bewiesen, dass Grafikchips fast immer schneller als Prozessoren sind. Hierbei hat Intel eine Nvidia GeForce GTX 280 gegen einen Intel Core i7-960 antreten lassen. Nvidias GeForce war dabei im Durchschnitt 2,5 Mal schneller als der Core i7, wobei der Grafikchip in einigen Aufgaben sogar 15 Mal schneller die Berechnungen durchführen konnte. Überrascht von diesem Ergebnis zeigte sich Nvidia, da Intel damit zwar den Mythos scheinbar widerlegen konnte, aber auch Nvidias Vorsprung bei der Rechenleistung bestätigt hat. Jedoch ist unklar, inwieweit Intel bei der Studie überhaupt optimierte Benchmarks verwendet hat, so dass Nvidias Vorsprung in Wirklichkeit durchaus höher ausfallen kann. Vor allem bei parallelen Berechnungen können die Grafikchips gegenüber Prozessoren auftrumpfen. Komplexe Berechnungen mit vielen unbekannten Werten profitieren dagegen stärker von herkömmlichen Prozessoren. Insofern dürfte sich auch nach der Intels neuer Studie nichts an der grundlegenden Situation geändert haben, dass sowohl Prozessoren als auch Grafikchips im Computer ihre Daseinsberechtigung haben. Welche Lösung zu einem schnelleren Ergebnis führt hängt dabei auch entscheidend von den durchgeführten Optimierungen ab. So meldet Nvidia beispielsweise, dass mit Grafikchips in bestimmten Fällen sogar eine 300-fache Beschleunigung gegenüber herkömmlichen Prozessoren möglich ist. Mac-Anwendern kann dies nur recht sein, da Mac OS X seit Version 10.6 über die grundlegenden Techniken verfügt, um sowohl die verfügbare Rechenkapazität des Prozessors als auch des Grafikchips nutzen zu können.

Weiterführende Links:

Kommentare

Gammarus_Pulex
Gammarus_Pulex25.06.10 14:11
Also wenn ich am Quad Core Nehalem Photoshop CS5 auf die Grafikkarte auslagern lasse, ruckelts wie blöd...
0
Black0ut25.06.10 14:15
@Gammarus_Pulex: Das liegt daran weil all die Software nicht für diese Technik abgestimmt ist... Noch.

Sehr interessant, wusste zwar das Grafikchips im
Vergleich zu normalen prozessoren einiges draufhaben, aber wenn ein so dermaßen hoher wert im ptsktischen bereich auch erreicht werden könnte, dann bin ich eht platt !
0
ALUser25.06.10 14:22
Na dann hoffe ich doch SEHR auf mehr software mit der Möglichkeit vieles auf der Grafikkarte berechnen zu lassen
0
seek25.06.10 14:48
Gib es im Moment überhaupt eine Software die der normale Anwender nutzt, die GPU rechenzeit nutzt zur nicht grafikprozessauslagerung
0
lasergans25.06.10 15:15
seek, ich denke der "normale" Anwender benötigt so eine immense Rechenleistung nicht.
0
Request
Request25.06.10 15:25
Der Titel ist göttlich...so wie ein kleines Kind das bemerkt dass eine angedrehte Herd doch heiss ist...
1984 - Think different - Macintosh - iPhone / iPad - Think nothing - 2014
0
Granini25.06.10 15:56
Naja, klar sind GPUs schneller. Deswegen gibt es sie ja. Und die CPUs gibts weil GPUs nur bestimmte Sachen können. CPUs können alles.
0
Jani25.06.10 16:37
ausser parallel rechnen...
0
MarkyBoyBln25.06.10 16:58
Request
Nee, das war "Baby isst Kellerassel: schmeckt interessant"

Tja, wäre aber mal schön, wenn denn die Entwickler die Möglichkeit, die GPU für Berechnungen mitheranzuziehen, nutzen würden.

Ein Paradebeispiel für nichtausgereifte Software in jeglicher Hinsicht ist auf jeden Fall Photoshop CS5. Ich kann gar nicht aufhören, mich auzuregen! Das ist mein Arbeitsmittel und ich habe viel Geld bezahlt für eine frühe Alpha, die da an die KUNDEN ausgeliefert wird.... WAAAAHHH!
Was sind Adobe-Mitarbeiter eigentlich von Beruf?
0
TechID25.06.10 17:58
schnelligkeit ist keine leistung
0
snowman-x25.06.10 18:13
alter...ist intel langsam?!?! ich hab schon vor einem jahr einen artikel gelesen das forscher feststellen mussten dasa ihre rechner schlechter rechnen als high-end grafikkarten zum zoggn -.-
0
ultrapaine25.06.10 23:21
GPUs sind schneller weil es spezialisierte Chips sind! Die können eine bestimmte Sache, eine Sache die gut Parallelisierbar ist verdammt schnell, mehr aber nicht!
0
jaggy26.06.10 00:23
die zukunft ist meiner meinung nach:
cpu + gpu + ram auf einem chip
0
PeteramMeter26.06.10 01:00
Leider hat Apple dies verschlafen. Unter Win7 kriegt man bei GPU based Renderings und Berechnungen erheblich bessere Resultate. Vor kurzem wurd auch hier auf einige Tests hingewiesen. Zwischen 30% und 170% Geschwindigkeitsunterschied. Da hat Apple noch einiges aufzuholen.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.