Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>Das stimmt einen doch nachdenklich...

Das stimmt einen doch nachdenklich...

sonorman
sonorman12.06.0422:04
Meldung der c't zur ATI Radeon 9800 Pro für den G5:


Es könnte tatsächlich für Apple zu einem Problem werden, wenn wichtige Hardware-Lieferanten das Interesse daran verlieren, Apple schnellstmöglich mit ihren neuesten Technologien zu beliefern.

Wie lange werden wir wohl auf die X800-Generation warten müssen? Bis Ende 2005??
0

Kommentare

Maveric12.06.0422:20
Also ich brauch diese Grafikkarte für Spieler nicht unbedingt. Ne gescheite Workstationgraka wie es beispielsweise die Fire GL oder Nvidia Quattro sind wären hingegen nicht schlecht.

Vor allem ist die alte Ati Radeon 9000 in meinem G4 nicht viel langsamer als die 9600er eines Kumpels der eine 3Ghz Boliden hat. Irgendwann bringen in den Spielen dreißig Frames bei so und so fachem Antialising nix mehr und kaum ein Clan spielt sein Spiel in voller Auflösung mit allen Details und wirklich nur die Hardcore Gamer oder die die sich dafür halten haben auch die High-End Grafikkarten wie die XT 800.

0
Rantanplan
Rantanplan12.06.0422:31
Warum das für Apple ein Problem werden sollte, das verstehe ich auch nicht ganz. Ich verstehe aber genausowenig, warum man mit einer Grafikkarte (tlw. mehr als) 100W verbraten muß. Ich habe mir vor einem halben Jahr die ATI 9000 gekauft und zwar, weil die noch passiv gekühlt wird. Kein Lüfter macht weniger Geräusch als ein Lüfter, ein Kühlkörper geht nicht kaputt und weniger Energie verbrauche ich auch noch. Mit der Grafikleistung bin ich sehr zufrieden.

Von ein paar Spezialanwendungen mal abgesehen - die mit einer professionellen Grafikkarte besser bedient wären - sind diese hochgerüsteten Grafik-Boliden imho nur für die Spielerfraktion interessant. Und das ist doch sowieso nicht die typische Klientel von Apple. Also was soll's? Ich hätte in Zukunft lieber passiv gekühlte Grafikkarten und keine kraftstrotzenden Grafikkarten, die mehr Energie verballern als die zwei 970fx-Prozessoren zusammen.
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
sonorman
sonorman12.06.0422:43
Ist diese X800 eher für Spieler?

Na, wie auch immer. Unabhängig davon, könnte es von Nachteil sein, wenn ein Zulieferer neue und leistungsstarke Hardware über einen längeren Zeitraum dem PC-Markt vorbehält. Das ist es, worauf ich hinaus wollte. Egal, ob der Leistungszuwachs zunächst nur für Gamer von Vorteil ist.

Ich selbst bräuchte ohnehin eher eine Graka, die mir bei meiner Arbeit die maximale Performance bietet. Weniger zum daddeln. Obwohl ich auch gerne mal grafikintensive First-Person-Shooter spiele.
0
Rantanplan
Rantanplan12.06.0422:48
sonorman
Ist diese X800 eher für Spieler?

Keine Ahnung, X800 sagt mir überhaupt nichts. Kommt ja alle Naselang eine neue Grafikkarten-Generation heraus

Du bräuchtest eine Grafikkarte, die dir bei deiner Arbeit die maximale Performance bietet. Jo, geht mir genauso. Ich weiß ja nun nicht was du machst, aber ist da eine ATI 9000 nicht ausreichend? Datteln mag ich nicht, die Kerne bleiben in den Zahnzwischenräumen hängen...

PS:
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
Rantanplan
Rantanplan12.06.0422:49
Ach ne, das sind Feigen... hm?!
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
sonorman
sonorman12.06.0423:07
Ach Herr Rantanplan mal wieder mit schlauen Kommentaren, was?

Ne ernsthaft; Für meine Foto-Bearbeitung (sehr große TIFF, RAW und EPS Dateien) und Layout-Arbeiten brauche ich ohnehin erstmal ne andere Kiste. (Im Moment PB 17", 1GHz). Und dann ist in erster Linie wohl eine gute Kombination aus der Geschwindigkeit der Festplatte, des Hauptprozessors und erst dann der Grafikkarte gefragt. Schade, dass der Dual 3GHz noch auf sich warten lässt. Vor dem werde ich nicht zuschlagen.

Dennoch; ein Hersteller, der mit dem Slogan "schnellster PC der Welt" wirbt, sollte sich nicht zu sehr in Abhängigkeit von Zulieferern stehen, die ihn mit "veralteter" Technik beliefern.
0
Rantanplan
Rantanplan12.06.0423:25
*göcks* Du bist etwas zu nah an die Kamera gegangen

Achja, mit dem Muselman-Gemüse kenne ich mich nicht aus Datteln haben große Kerne? Naja, als Stadtkind bekommt man das nicht mit, die Datteln aus der Tüte sind alle kernfrei Ich meinte aber tatsächlich Feigen, die haben so kleine fiese Kernchen, die so beim Kauen knispeln *örks*

Zurück zum Thema: naja, für Bildbearbeitung zählt ja wohl eher die 2D-Performance, Speicherdurchsatz und sowas. Ob die 3D-Boliden hier mehr bieten als die gesetztere Grafikkartengeneration... fraglich. Im 3D-Bereich natürlich, aber im 2D-Bereich?

Der Slogan ist so verkehrt ja nicht. Sie sagen ja nicht: die schnellste Grafikworkstation der Welt Egal, mich bedrückt der stetig steigende Energieverbrauch mehr wie eine etwas rückständige Grafikleistung.
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
sonorman
sonorman12.06.0423:50
Verstehe.

Die Sache mit dem steigenden Energieverbrauch ist natürlich ein stetig wachsendes Problem. Siehe Intel und die Pentium-Sackgasse. Lüfter auf dem Grafikkartenprozessor habe ich aber auch schon vor ca. 8 Jahren auf einer Elsa Schiessmichtot Graka in einem Pentium-II mit 380MHz gehabt.
Das ist halt so ein Kreislauf: Die neuesten, und am höchsten getakteten Prozessoren sind schon immer echte Brenner gewesen. Darum gibt's ja auch noch keine G5 Powerbooks. Mit der Zeit werden deren Verlustleistungen optimiert werden, und so die Verwendung im PB ermöglicht. Bis dahin gibt es dann aber vielleicht schon den G6 mit 5GHz und 300W Leistungsaufnahme. Wer weiß?

Egal. Davon abgesehen; auch die 2D-Leistung darf von mir aus gerne noch um einiges steigen.
0
sonorman
sonorman12.06.0423:53
Ne, sorry. Das war ein AMD-Rechner. Und den P-II gab's glaub ich gar nicht bis 380MHz, glaub ich.

Scheiss Altzheimer...
0
Rantanplan
Rantanplan13.06.0400:03
Öh... keine Ahnung, ist schon zu lange her. Und PII hatte ich nie einen, nur davor einen 286 10 MHz, 486 mit 33 MHz, 486DX2 mit 40 MHz, dann nen P90 (Dual mit EISA-Bus), dann AMD K6 233 und 350, dann Athlon 800 und dann... Mac
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
sonorman
sonorman13.06.0400:19
Don Quijote

Si, hombre. Der war übertaktet.

Ich hatte nicht so viele PC's. Um genau zu sein, eigentlich nur 2 (wenn man mein Ex-Vaio Notebook nicht mitrechnet). Aber zumindest das zweite PC-Gehäuse hat etwa vier Mainboards, 6 Prozessoren, 3 Grafikkarten, div. Speichermodule, 5 Festplatten (inkl. der ersten "Cheetah" mit 12000upm und anschließend extra besorgtem Zusatzgehäuse zur Lärmbedämpfung), 2 Netzteile, 2 Netzwerkkarten, 3 Soundkarten und eine Unzahl an Peripheriegeräten überlebt.

Eine Zeitlang hat mir das sogar Spass gemacht, aber als ich dann quasi nur noch mit Treiber-Basteln, DLL-Putzen und sonstigen Konfigurations- und Administrationsaufgaben beschäftigt war, verließ mich der Spass irgendwann. Dann 2 Jahre das Vaio, dann Mac. Aber erst als OS X rauskam. Sorry, aber OS 9 halte ich noch heute für den letzten Müll. Zwischendurch hatte ich aber auch schon immer mal meine Finger an dem einen oder anderen Mac. Angefangen mit Lisa!
0
sonorman
sonorman13.06.0400:44
Ich hatte eine Zeitlang nebenher im Beruf mit OS 7 (glaube das war 7) zu tun gehabt. Das war o.k.
Dann 'ne ganze Zeit lang keinen Kontakt mit Mac's gehabt. War ein richtiger PC-Freak. (Na ja, in den 70er Jahren hat man ja auch ziemlich peinliche Klamotten getragen )
Dann musste ich mich beruflich bedingt ab und zu wieder mit dem Mac beschäftigen, als OS 9 hip war. Das Teil ist mir öfter abgeschmiert und hat sich öfter aufgehängt als mein schlimmster PC zu schlimmsten Win95 Zeiten. Von da her meine Abneigung. Als dann jedoch OS X rauskam, war das für mich DER große Hoffnungsschimmer. Und von wenigen Anfangsschwierigkeiten abgesehen, war es dann auch die erhoffte Rettung. Und mein persönliches "Brainwash" für den Umstieg zum echten Macianer.
0
sonorman
sonorman13.06.0400:57
Oh! Löten habe ich am C64 gelernt!

Da gab es, nach etlichen Modifikationen mit "Super-Reset" Boards etc. einen Chip der 2x pro Woche Abgeraucht ist. War aber nicht teuer. Also hab' ich mir 'nen Vorrat von 20 Stück gekauft und fleißig das Brateisen geschwungen.
Das Teil war noch so richtig Robust (abgesehen davon, dass er im Betrieb immer geschmort wurde). Ein versehentlich abgebrochenes Beinchen habe ich einfach durch ein zuvor aus einem Chip-Sockel rausgebrannten Pin ersetzt. Hat geklappt.

Haaach, DASS waren noch Zeiten! *melancholischwerd*
0
MacMark
MacMark13.06.0401:18
256 MB Videospeicher hat die Karte. Wer braucht soviel?
„@macmark_de“
0
sonorman
sonorman13.06.0401:25
MacMark

Ich kann mir durchaus Vorstellen, dass meine Anwendungen (mit bis über 100MB großen TIFF's) von 256 MB Videospeicher profitieren könnten. Unter Umständen reichen 256MB da immer noch nicht.
0
Rantanplan
Rantanplan13.06.0401:34
sonorman

Für 2D-Anwendungen kannst du soviel Video-RAM imho vergessen. In diesem Modus braucht die Grafikkarte (mehr oder weniger) soviel RAM, wie für die Darstellung der auf dem Monitor sichtbaren Dinge nötig ist. Dein 100 MB Bild lagert im Arbeitsspeicher, nicht im Video-RAM. Zugegeben, Apple krempelt hier den 2D-Bereich langsam etwas um, da seit Quartz Extreme auch die 2D-Darstellung eigentlich eine 3D-Szenerie mit flächigen Elementen und Texturen darstellt. Trotzdem möchte ich mal den educated guess wagen, daß auch bei QE der übergroße Teil des Video-RAMs mit 256 MB schlichtweg unbenutzt bleibt. Bei 3D-Sachen wird der große Speicher für die immer detailierteren Texturen benötigt. Also für Ballerspiele nötig, für 2D unnütz wie ein Kropf, Quartz Extreme läuft laut Spec mit deutlich weniger Video-RAM bereits.
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
sonorman
sonorman13.06.0401:47
Aha. Gut zu wissen.

Aber wenn ich das richtig verstehe, scheint mir das eine ziemliche Recourcenverschwendung zu sein. Da der Videospeicher ohnehin um einiges schneller mit Grafikdaten aller Art umzugehen vermag (insbesondere was den Austausch mit dem Graka-Prozessor angeht), wäre es doch viel sinnvoller, auch 2D Grafiken dort hinzupacken. Wenn beispielsweise eine Grafik mit riesengrosser Auflösung schnell und ruckelfrei auf dem Monitor abgebildet und bewegt werden soll, wäre die Kombination Grafikprozessor+Videospeicher doch die logische Annahme zur Verarbeitung, oder?
Ich erinnere mich da an alte Atari-Zeiten, als ein gewisser "Blitter" DAS Grafik-Ding war. Da ging es schon um die gleiche Thematik.

Warum diese Verschwendung?
0
Rantanplan
Rantanplan13.06.0402:12
sonorman
Aber wenn ich das richtig verstehe, scheint mir das eine ziemliche Recourcenverschwendung zu sein. Da der Videospeicher ohnehin um einiges schneller mit Grafikdaten aller Art umzugehen vermag (insbesondere was den Austausch mit dem Graka-Prozessor angeht), wäre es doch viel sinnvoller, auch 2D Grafiken dort hinzupacken.

Das würde aber nur in absoluten Spezialfällen funktionieren. Im Allgemeinen sieht die Sache aber so aus: der Fensterinhalt setzt sich aus vielen Elementen zusammen. Dieses "Compositing" übernimmt nach wie vor die CPU. Das resultierende Bitmap wird als Textur in das RAM der GPU gepumpt und dort von der GPU in der richtigen Tiefensortierung und Transparenz (u.a. Schatteneffekte) zu einem Bild des Desktops verschmolzen. Die Daten der Anwendungsprogramme - z.B. dein 100 MB Bild - bleiben nach wie vor im Arbeitsspeicher, denn dein Programm möchte ja auch mit dem Bild arbeiten können (Filter anwenden etc.)
Ich erinnere mich da an alte Atari-Zeiten, als ein gewisser "Blitter" DAS Grafik-Ding war. Da ging es schon um die gleiche Thematik. Warum diese Verschwendung?

Der Blitter - ich hatte nie einen Atari ST - war meines Wissens nur zur logischen Verknüpfung von Bitmaps und Sprites da. Das übernimmt in diesem Fall ja die GPU, der Urururenkel des Blitters sozusagen. Verschwendung ist das keine, die Daten des kompletten Bildes haben im Videospeicher einfach nix verloren, dort gehört das rein, was sichtbar ist. Übrigens sind die Texturen doppelt vorhanden: im Speicher der Grafikkarte und im Arbeitsspeicher, denn dort werden sie für das Compositing benötigt. Das ist u.a. ein Grund, warum OS X deutlich mehr Speicher frißt als z.B. Windows XP, denn dort sind keine solchen window buffers vorhanden, die fehlenden Fensterinhalte werden dynamisch aufgefrischt. Mit dem bekannten Nebeneffekt, daß man einen sichtbaren Redraw beim Verschieben hat und der Fensterinhalt leer bleibt, wenn die Applikation gerade nicht ansprechbar ist. Die window buffers von längere Zeit nicht mehr aktivierten Fenstern werden übrigens ohne weiteres Zutun komprimiert.
„Wenn ich nicht hier bin, bin ich auf dem Sonnendeck“
0
Maxefaxe13.06.0402:30
Pentium II gab es bis ca 450 MHz
0
djapple2
djapple213.06.0406:04
ja, ich hab irgendwo im Keller noch einen PII mit 450MHz. Was kann ich mit dem noch machen? (außer abfackeln natürlich)
0
sonorman
sonorman13.06.0413:12
THX Rantanplan. Sehr aufschlussreich.

Nur eines ist damit noch nicht ganz geklärt: Bringen mir, als Anwender mit Priorität 2D, die neuesten und schnellsten Grafikkarten denn ÜBERHAUPT KEINEN Vorteil? Kann ich davon ausgehen, dass z. B. beim aktuellen Top-Modell Dual 2,5 der Aufpreis von 330,- Euro für die Radeon 9800XT 256 mir rein gar keinen Vorteil bringt? Ausser vielleicht, wenn ich mal 'ne runde Halo spiele?

Wenn Das der Fall ist; Prima! Kann ich das Geld lieber in mehr Hauptspeicher investieren, oder?

Ach ja: Moin, moin erstmal.
0
Durandal
Durandal13.06.0414:14
sonorman Genau so ist es! Evtl. würden zukünftige Versionen von MacOS, oder andere System mit 3D Features, etwas davon haben. Aber ist wohl eher unwahrscheinlich. Da diese Gimmicks eigentlich kaum Performance brauchen.

Und der Speicher der Karten wird wegen der ganzen Effekte immer höher, z.B. für Anti Aliasing und die Shader. Diese Berechnungen werden von der Karte im eigenen Speicher abgelegt. Das Auslagern auf den Systemspeicher ist dafür zu langsam. Und da wird meiner Meinung auch PCI Express x16 nix ändern.

Ach ja und Guten Morgen oder so:-)
0
Rotfuxx13.06.0413:50
Richtige Profi-Karten wie die Fire GL oder Quadro sind viel wichtiger für den Mac, da hierdrauf die professionellen 3D-Gestalter angewiesen sind ... von einer X800 würden die zwar auch profitieren, aber für mich ist das Ding eher eine auf Spieler zugeschnittende Grafikkarte.
0
Don Quijote12.06.0423:55
380 MHz gab es sowieso nur mit übertackten…
0
Don Quijote13.06.0400:13
Meine letzte "Intel" war 433 auf 507 mhz stabil, der Ram hätte 150 FSB hergegeben, die Karten leider nicht.
<br>
<br>Das waren noch Zeiten, oh wie ich sie gar nicht vermisse
0
Don Quijote13.06.0400:30
Hatte einen 386 mit 387 coproz Servergehäuse benutzt umgebaut und über DX2 sogar mit VLB, zu AMD K2 450 der einfach nur Müll war auf Intel zurück und hoch damit, aber Mac ist halt doch etwas anderes…auch wenn mein iMac ein Montagsgerät war.
<br>
<br>OS 9 muss man glaub ich, von Anfang an erlebt haben um es wirklich zu mögen und schätzen zu können.
<br>
<br>Aber das war schon sehr HC die ganzen Apps die es dafür gab…
<br>
<br>
0
Don Quijote13.06.0400:49
Ich erinnere mich gerade an mein allerstes Computer Buch, Assembler für EDV, da waren auch Lochkarten beschrieben, zuvor hatte ich aber die Platte eins 8086er eines Profs gelöscht, mit f:, war das glaube ich…war ich 10-11.
<br>Das dies nicht wieder passiert fingen die KleinComputer an, aber ein ZX 80, 81 wäre besser gewesen, könnte ich jetzt besser löten
0
Don Quijote13.06.0401:05
C64, ruhige Hand vorausgesetzt, konnte ein Reset mit einer kleinen Büroklammer gemacht werden, ich glaube sogar am User wie auch am Seriellen Port……das war auch die Zeit, in der Microsoft an die Börse ging, $1,50 die Aktie…ein Triumph Adler schon schnell und ein Apple für den kleinen Teenager unbezahlbar war und Mädels interessanter als Computer wurden, mittlerweile sind sie ja gleichberechtigt
0
Don Quijote13.06.0401:19
30" TFT wo bist du ?
0
Don Quijote13.06.0401:52
Ich vermute stark, das es in größere TFT, höhere Auflösung geht, wäre auch nur logisch.
0
Don Quijote13.06.0406:18
Mein Celeron bleibt im Keller, als Mahnung…der PIV wurde ja ausgelagert, hatte ich schon vergessen.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.