Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>Apple sperrt sich gegen 10-Bit-Farbwiedergabe

Apple sperrt sich gegen 10-Bit-Farbwiedergabe

Mactogo20.04.1523:20

Hat das mal jemand hier getestet?
0

Kommentare

stefan20.04.1523:23
Ist es wirklich nötig, den Blödsinn von Heise hier auch zu posten?
0
breaker
breaker20.04.1523:26
stefan
Ist es wirklich nötig, den Blödsinn von Heise hier auch zu posten?
und was ist daran nun Blödsinn?
0
deus-ex
deus-ex20.04.1523:30
Weil weltweit Millionen Inhalte (Bilder, Videos) täglich am Mac erstellt werden und plötzlich ein Heise-Studierter-Medienwissenschafler sich über fehlende 10 Bit Unterstützung ausheult.

Mag ja sein das dafür 2 Anwendungsfälle im Jahr gibt... Aber gleich das Ende Apple zu erklären ist doch Käse.
0
breaker
breaker20.04.1523:34
Dass sicher. Aber schau dir mal an, wo Macs gerne mal stehen – eben gerne bei Grafikern, Fotografen, Repro-Studios und Co – wenn da nun eben so ein Auftrag reinkommt, der sowas erfordert. Joar, dumm gelaufen.
0
sonorman
sonorman20.04.1523:37
… That said, it is not without glitches in practice - Photoshop will, when using some tools like 'clone' for example, render a small part of the working area in 8 bit around your pointer. Also, Windows 7 will lose the Aero transparency features with ATI video cards. So while it works, it is not without glitches and while it may be useful in some circumstances, the performances of these screens with 8 bit input is already so good it's debatable whether the glitches are worth it on a day to day basis right now.

A lot of people think they're getting 10 bit output because their video card or monitor ostensibly support it - however until very recently, almost no one has actually had 10 bit output working in reality.



Ich glaube, wenn das alles mal problemlos durch die gesamte Verarbeitungskette funktioniert, wird Apple das auch unterstützen. Bis dahin sind Apple Computer aber nicht gleich ungeeignet für Bildbearbeitung.
0
Mactogo20.04.1523:42
Danke sonorman
0
iMonoMan
iMonoMan21.04.1500:42
Ah, die übliche Argumentationslinie der Apple-Indoktrinierten: was Apple nicht kann oder anbietet, braucht man eh nicht.

Braucht man auch keine AdobeRGB-Fähigkeit? Warum nutzt man fröhlich 12/14bit Kamera-Rohdaten, wenn es der Bildschirm nicht darstellen kann? Kann nicht Photoshop seit CS5(!) 10bit?
Naja, egal. Solange alleine der MacPro entsprechend taugliche GPUs verwendet, wird sich Apple die Mühe kaum machen, zumal Apple und Grafiktreiber eh wie Hund & Katze, oder Feuer & Wasser etc. sind.
0
bublik
bublik21.04.1501:50
gerade Mal zwei Monitore die es darstellen können und alle Apple Geräte es können müssen, ansonsten geht Apple runter.

bei SlashCam hat man versucht 10 Bit Video Abspielen können.
0
Weia
Weia21.04.1502:47
deus-ex
Weil weltweit Millionen Inhalte (Bilder, Videos) täglich am Mac erstellt werden und plötzlich ein Heise-Studierter-Medienwissenschafler sich über fehlende 10 Bit Unterstützung ausheult.
Nix plötzlich. Wer sich mit Farbwiedergabe näher beschäftigt, den nervt das seit Jahren. Schau mal in Apples ColorSync-Mailingliste; da ist die Klage darüber seit 2005 ein Thema.
Mag ja sein das dafür 2 Anwendungsfälle im Jahr gibt...
Nein, Ignoranz ist immer noch keine Tugend …
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
deus-ex
deus-ex21.04.1507:31
Dann stell sich die Frage nach dem Warum. Das dürfte weder technisch noch organisatorisch ein Akt sein.
0
vincentmac21.04.1507:42
Mein Macbook Pro Retina hatte von Werk aus einen sehr tiefen Schwarzwert, der verschiedene Grautöne völlig schluckte. Nachdem ich ein kalibriertes Profil im Internet gefunden habe, kann es jetzt auch Grauverläufe richtig darstellen. Der Nachteil ist jedoch, das die Schrift nicht mehr ganz so scharf und schwarz ist. Das Display ist von Samsung. Ist dieses Problem auch auf die 10 bit Problematik zurückzuführen?
0
deus-ex
deus-ex21.04.1507:44
iMonoMan
Ah, die übliche Argumentationslinie der Apple-Indoktrinierten: was Apple nicht kann oder anbietet, braucht man eh nicht.


Du weißt wie man jede sachliche Diskussion im Keim erstickt.

Wenn 10 Bit seit 2005 vermisst wird, kann es ja nicht so schlimm sein, denn Macs verkaufen sich seit 2005 jedes Jahr mehr.

Und woran liegt es? Jobs und Apples Idee war der Computer für Jedermann. Das war bei der Gründung von Apple so und ist heute noch so. Das da dann "Spezial Features" fehlen ist schade aber nun mal so.

Dann kauft man halt Hard- und Software die das kann. Dann muss man halt auch mit den unzulänglichkeiten dieses Systems leben. Ganz einfach.
0
deus-ex
deus-ex21.04.1507:48
vincentmac
Mein Macbook Pro Retina hatte von Werk aus einen sehr tiefen Schwarzwert, der verschiedene Grautöne völlig schluckte. Nachdem ich ein kalibriertes Profil im Internet gefunden habe, kann es jetzt auch Grauverläufe richtig darstellen. Der Nachteil ist jedoch, das die Schrift nicht mehr ganz so scharf und schwarz ist. Das Display ist von Samsung. Ist dieses Problem auch auf die 10 bit Problematik zurückzuführen?

Glaub ich kaum. Selbst Windows (Linux sowie so nie) stellt 10 Bit nicht von Haus aus da.

Die Schrift ist ja Einfarbig. Somit haben weder 10 noch 8 Bit Einfluss auf die Schärfe der Schrift.
0
vincentmac21.04.1508:25
Ich habe die Profile gerade noch mal verglichen. Im original Profil ist das Weiss weisser, deshalb ist der Kontrast stärker. Im kalibrierte Profil ist das Weiss wärmer, deshalb geht der Kontrast etwas verloren.

Bei voller Helligkeit kann ich im kalibrierten Profil in diesen Testbild bei der Nummer 4 schon etwas wahrnehmen.

Im original Profil erst bei Nummer 6. Dürstere Filme versinken dadurch vollkommen im Schwarz. Sobald man die Helligkeit zurücknimmt, wird es noch schlimmer.
0
sierkb21.04.1509:19
deus-ex
Dann stell sich die Frage nach dem Warum. Das dürfte weder technisch noch organisatorisch ein Akt sein.

heise (20.04.2015): Kommentar zu Apple: Goldene Smartwatches statt ordentlicher Workstations
Apple ist zu einer Möchtegern-Luxusmarke verkommen, die sich nicht mehr um die Wünsche der Profi-Kunden schert, kommentiert Martin Fischer.
0
sonorman
sonorman21.04.1509:31
iMonoMan
Ah, die übliche Argumentationslinie der Apple-Indoktrinierten: was Apple nicht kann oder anbietet, braucht man eh nicht.
Ja klar. Jeder, der Apple nicht ständig auf den Kopf haut, ist ein Jünger oder Fanboy.

Ich habe nicht behauptet, dass 10 Bit keinen Sinn machen. Ich sage nur, dass es komplizierter ist, als die "Prospektdatenjünger" sich in ihrer beschränkten Sichtweise vorstellen können.

Wenn alles in einem reibungslosen Verarbeitungsprozess durch die gesamte Hard- und Softwarekette hindurch funktioniert, dann wird Apple es auch unterstützen. Bis dahin ist das vielleicht für ein paar Leute ein ärgerlicher Nachteil, aber wohl nur für diejenigen, die sich gerne Graukeile ansehen.
0
hakken
hakken21.04.1509:33
Wenn 10 Bit seit 2005 vermisst wird, kann es ja nicht so schlimm sein, denn Macs verkaufen sich seit 2005 jedes Jahr mehr.


Genial. So einfach muss man erstmal denken!
0
penumbra21.04.1509:51
Ich bin Radiologe. Wir arbeiten mit Graustufenbildern, die in der großen Mehrzahl 10 bittig aufgelöst sind, selten mal 8 Bit oder bis zu 12 Bit. Diese Graustufen werden aber nie alle gleichzeitig auf dem Monitor dargestellt, sondern immer nur ein Ausschnitt (ein sog. "Fenster"), das beim Befunden nach Bedarf verschoben wird.

Seit Jahren werben Monitorhersteller in unserem Marktsegment mit 10 Bit Monitoren, vor ein paar Jahren war das ein regelrechter Hype. Dass die meisten verwendeten Computer und insbesondere die verwendeten Applikationen gar keine 10 Bit unterstützen, haben einem die Hersteller natürlich nicht erzählt.
Die so angepriesenen Spezialmonitore für die Radiologie sind natürlich um ein Vielfaches teurer als der Monitor für den normalen Anwender (und auch teurer als die meisten Profi Monitore im Grafiksegment).

Ein Kollege und ich haben uns darüber sehr geärgert und haben (damals noch an der Uni) eine kleine Studie durchgeführt, bei der wir 2 dieser Spezialmonitore an einer kalibrierten Darstellungskette mit 11 Bit nebeneinandergestellt haben. In der Software konnte man zwischen 8 Bit und 11 Bit umschalten (ohne das Bild neu zu öffnen).
Wir haben dann ca. 20 Kolleginnen und Kollegen (zum Teil sehr erfahren, zum Teil noch recht frisch in der Ausbildung) gebeten, ausgewählte typische Bilder bezüglich bestimmter Kriterien wie Schärfe und Kontrast der Darstellung, Erkennbarkeit feiner Details usw. zu beurteilen.
Dabei wurden immer 2 gleiche Bilder nebeneinander auf den beiden Monitoren dargestellt, einmal mit 8 Bit und einmal mit 11 Bit Graustufenauflösung.
Die Befragten wussten dabei nicht, welcher Monitor was darstellt und es war ihnen nicht einmal bekannt, welchen technischen Unterschied ist zwischen den beiden Aufbauten gab.

Im Ergebnis kann man sagen, dass fast kein Unterschied wahrgenommen wurde, es gab sogar eine Tendenz in Richtung 8 Bit (wurde als minimal schärfer eingeschätzt, was für den Anwender natürlich angenehmer sein kann).

Ich war selbst überrascht, wie wenig man diesen fundamentalen Unterschied auf den Bildern erkennen kann. Selbst wenn man weiß, worauf man achten muss, und dann direkt umschaltet, sieht man eigentlich keinen Unterschied.
Nur bei flächenhaften Regionen mit sehr wenigen Graustufen-Unterschieden (z.B. die Haut bei Röntgenaufnahmen des Bauchs) kann man sehen, dass bei 8 Bit die typischen Sprünge im Graustufenverlauf entstehen. Dort sind aber keine diagnostisch relevanten Strukturen, die in ihrer Darstellung beeinträchtigt werden würden.

Unterm Strich muss ich sagen, dass ich für den medizinischen Bereich die ganze 10 Bit Diskussion für irrelevant halte. Wir befunden ja Bilder von Menschen, keine Graukeile.

Interessant ist übrigens, dass auch bei Mammographieaufnahmen (bei denen die Verwendung von 10 Bit Technik vorgeschrieben ist) keine Unterschiede zu sehen waren.

Im DTP-Bereich o.ä. kann das natürlich anders aussehen, weil dort homogene Farbverläufe sehr wohl wichtig sind.

Problematisch fand ich allerdings, dass Apple bei einigen Notebooks nicht mehr von Millionen Farben sondern nur noch von tausenden Farben gesprochen hat, dort also die Farbauflösung zum Teil wohl auf weniger als 8 Bit beschnitten wurde (in einem Gespräch mit einem Apple Mitarbeiter wurde mir mal 6 Bit genannt).
Das ist für mich allerdings nicht wirklich relevant gewesen und ich habe das daher auch nicht weiter verfolgt.
„enjoy life in full trains“
0
hakken
hakken21.04.1510:19
Sonorman
Ich sage nur, dass es komplizierter ist, als die "Prospektdatenjünger" sich in ihrer beschränkten Sichtweise vorstellen können.

Deine Bescheidenheit ist legendär.

Erkläre doch bitte was an 14 Bit Cam - > 10 Bit-PS 10Bit Monitor = bessere Darstellung so schwer vorzustellen ist.

Warum setzt Apple hier kein Zeichen und zieht zumindest zu Win gleich?
OpenCL wird doch auch in großen Stil beworben obwohl es kaum Software dafür gibt.

Meiner Meinung nach macht sich Apple im Pro-Bereich zunehmend lächerlich.


@sierkb

Da hat der Gute wohl leider Recht...!

(Unsere Monitore unterstützen 10-Bit und ich wäre nicht traurig wenn es einfach gehen würde)
0
sonorman
sonorman21.04.1510:42
hakken
Sonorman
Ich sage nur, dass es komplizierter ist, als die "Prospektdatenjünger" sich in ihrer beschränkten Sichtweise vorstellen können.

Deine Bescheidenheit ist legendär.
Das war nur ein Echo auf iMonoMan. Darum die Anführungszeichen.
Erkläre doch bitte was an 14 Bit Cam - > 10 Bit-PS 10Bit Monitor = bessere Darstellung so schwer vorzustellen ist.
Hatte ich nicht gerade geschrieben, dass es durchaus Sinn macht?
Aber eben nur dann, wenn alles in der Kette entsprechend ausgelegt ist.

Noch mal zur Wiederholung:
A lot of people think they're getting 10 bit output because their video card or monitor ostensibly support it - however until very recently, almost no one has actually had 10 bit output working in reality.

Und selbst wenn es funktioniert sind die Unterschiede gering, wie auch penumbra gerade schrieb. Darum bin ich der Meinung, dass hier nur mal wieder eine Sau durchs Dorf getrieben wird, um ein wenig Staub aufzuwirbeln.

Irgendwann wird die Unterstützung in OS X kommen und wahrscheinlich wird es dann niemandem auffallen. Außer jemand findet zufällig den gut versteckten Hinweis in einem von Apples Support-Dokumenten.
0
firstofnine21.04.1510:54
@penumbra: Danke, ein guter Bericht und zeigt, wie sich manch ein "Feature" in der Praxis auswirkt.

Neben dem reinen Posing "(Waaaas? Du hast nur 8 bit? So kann man doch nicht arbeiten!!!"), frage ich mich, ob auch nur ein Bild oder eine Grafik in einem durchgängigen 10bit Workflow besser aussieht.
Hier stellt sich schon die Frage, was "besser" überhaupt ist....

Irgendwie erinnert mich das an die sRGB / Adobe RGB Diskussion oder ob es Kabelklang überhaupt gibt.
„Wann man nichts ändert, dann ändert sich nichts!“
0
iMonoMan
iMonoMan21.04.1511:12
bublik
gerade Mal zwei Monitore die es darstellen können …
sieht igrendwie nicht nach zwei aus.
0
iMonoMan
iMonoMan21.04.1511:16
sonorman
Und selbst wenn es funktioniert sind die Unterschiede gering, wie auch penumbra gerade schrieb. Darum bin ich der Meinung, dass hier nur mal wieder eine Sau durchs Dorf getrieben wird, um ein wenig Staub aufzuwirbeln.
Von jemandem der regelmäßig >16Bit Audio propagiert klingen solche Aussagen irgendwie … Ach, was solls, Vorurteile wollen bestätigt sein, danke dafür.
0
sonorman
sonorman21.04.1511:29
iMonoMan
Von jemandem der regelmäßig >16Bit Audio propagiert …
Lieber iMonoMan, darf ich auch Dich noch mal freundlich darauf hinweisen, dass ich NIRGENDWO geschrieben habe, die 10-Bit-Sache wäre unnötig, oder überflüssig?

Aber gut, dass Du das Beispiel Audio bringst, denn das kann ich auch prima als Gegenargument verwenden: Einerseits zu behaupten, bei der Bit-Auflösung im Audiobereich gibt es sowieso keine Klangunterschiede, und anderseits darauf zu bestehen, dass 10-Bit-Farbwiedergabe nun den großen Unterschied machen würde, ist ziemlich… ähhh… inkonsequent.

Noch mal zum Mitschreiben: Die 10-Bit-Unterstützung bei Apple WIRD KOMMEN. Aber es ist kein Weltuntergang, dass Apple sich damit mehr Zeit lässt, als andere.
0
breaker
breaker21.04.1511:33
Guter Punkte, warum überhaupt Lossless Audio, wo doch wahrscheinlich 95% der Leute mit einer 160 kbit/s MP3 zufrieden wären und den Unterschied nicht hören?
0
Peter Eckel21.04.1512:23
vincentmac
Mein Macbook Pro Retina hatte von Werk aus einen sehr tiefen Schwarzwert, der verschiedene Grautöne völlig schluckte. Nachdem ich ein kalibriertes Profil im Internet gefunden habe, kann es jetzt auch Grauverläufe richtig darstellen. Der Nachteil ist jedoch, das die Schrift nicht mehr ganz so scharf und schwarz ist. Das Display ist von Samsung. Ist dieses Problem auch auf die 10 bit Problematik zurückzuführen?
Das ist an so vielen Stellen falsch, daß ich gar nicht weiß, wo ich anfangen soll.

Die Profile, mit denen die Rechner ausgeliefert werden, sind meist eher nicht so toll. Hast Du ja gemerkt.

So etwas wie ein 'kalibriertes Profil' gibt es nicht. Schon gar nicht im Internet. Kalibrieren mußt Du Deinen Monitor. Das heißt, der Monitor wird auf Normwerte für Helligkeit und Gamma eingestellt, in manchen Fällen noch mehr.

Danach mußt Du von Deinem so kalibrierten Monitor ein Profil erstellen. Das ist nur in Zusammenhang mit genau diesem Monitor und der vorangegangenen Kalibrierung verwendbar. Ein Profil aus dem Internet kann nicht auf genau Deinen Monitor und Deine Einstellungen passen.

Es gibt sehr preisgünstige Meßgeräte, mit denen Du diese Schritte (Kalibrierung und Profilerstellung) vornehmen kannst. Meiner Erfahrung nach lohnt sich das sogar dann, wenn man keine Bildbearbeitung machen will.
„Ceterum censeo librum facierum esse delendum.“
0
vincentmac21.04.1512:42
@ Peter Eckel

ist mir schon klar, das dies nur eine Notlösung ist. Trotzalledem bin ich mit dem Internetprofil(auch von einem Macbook pro retina 15) sehr zufrieden, den es ist wärmer und eine bessere Graudarstellung. Wenn ich mal wieder an einen Spyder komme, kalibriere ich den Monitor noch mal richtig. Eine Frage zu dem Spyder habe ich, Referenzprofile haben soweit ich weis eine bestimmte Helligkeit. Das nützt mir aber nichts, da ich den Raum nicht abdunkeln will. Ich brauche ein Profil welches bei voller Helligkeit das Maximale rausholt und auch beim zurücknehmen der Helligkeit konstant auf hohen Niveau bleibt.
0
penumbra21.04.1512:46
Die Ziel-Helligkeit kannst Du kalibrieren (auch "Max").
Eigentlich sollte man an den Monitor-Einstellungen danach aber nicht mehr drehen, also auch keine Helligkeit ändern. Sonst ist die Kalibrierung ja nicht mehr gültig. Wobei das bei geringen Abweichungen der Heligkeit wohl vertretbar wäre
„enjoy life in full trains“
0
jogoto21.04.1513:19
Peter Eckel
Danach mußt Du von Deinem so kalibrierten Monitor ein Profil erstellen. Das ist nur in Zusammenhang mit genau diesem Monitor und ...
... der Umgebung möchte ich noch hinzufügen. Deswegen macht es ME bei einem Laptop wenig Sinn.
0
Tirabo21.04.1513:19
iMonoMan
sonorman
Und selbst wenn es funktioniert sind die Unterschiede gering, wie auch penumbra gerade schrieb. Darum bin ich der Meinung, dass hier nur mal wieder eine Sau durchs Dorf getrieben wird, um ein wenig Staub aufzuwirbeln.
Von jemandem der regelmäßig >16Bit Audio propagiert klingen solche Aussagen irgendwie … Ach, was solls, Vorurteile wollen bestätigt sein, danke dafür.

@iMonoMan
Nur zur Aufklärung:

Im Tonstudiobereich hat ein Unterschied zwischen 16 zu 24 Bit massive Auswirkungen:

1. haben 16 Bit nur 96 db Dynamikumfang im Gegensatz zu 144 db bei 24 db. Das bedeutet, dass korrekte Arbeit mit 16 Bit Wortbreite nur eingeschränkt möglich ist.

2. Viel größer ist das Problem aber mit Rundungsfehlern. Wenn Signale mit 16 Bit Wortbreite DAW-Intern durch verschiedene Effekte wie Kompressoren, Hall usw. bearbeitet werden, müssen die Nachkommastellen gerundet werden, da ja auch nur 16 dieser zur Verfügung stehen. Bei größeren Projekten hast Du dann so viele Rundungsfehler, dass dabei eine nicht mehr kontrollierbarer und tollerierbarer Klangunterschied entsteht.

3. Intern arbeiten alle gängigen DAW-Engines bereits mit 32 Bit Float (Auch Logic). Das hat den Vorteil einer noch flexibleren Berechnung der Binärzahlen. Allerdings wird der Dynamikumfang hier nicht noch mehr erhöht, er kann aber von der Engine flexibler genutzt werden.

Übrigens gilt das nur für die interne Verarbeitung der Audio-Engine. Es gibt zahlreiche PlugIns, die mit noch höherer Wortbreite rechnen können. Die meisten externen Signale (Micro und co.) werden aber Extern durch Wandler mit max 24 Bit aufgenommen, weil die für eine Aufnahme ausreichen.

Man könnte also - um es mit Deinem Vergleich in der Musik zu beschreiben - eine Diskussion über die Unnötigkeit von 32 Bit Float bei der Aufnahme diskutieren, oder über völlig unnötig Speicherhungrige und Ressourcefressende 192 KHZ Samplingrate.

Mehr ist nicht unbedingt immer besser, gerade im Studioworkflow.
0
Megaseppl21.04.1513:44
@Tirabo: Dein Vergleich hinkt.
Denn auch du kannst 24bittige Audiodaten bearbeiten ohne diese zwingend auf 24bittigen Lautsprechern ausgeben zu müssen. An dem grundsätzlich besseren Dynamikumfang vor allem für Arbeitsdaten zweifelt ja auch niemand; weder bei Audio-, noch bei der Grafikbearbeitung.
Genauso geht es ja auch bei Photoshop. Auch dort macht es natürlich Sinn bestimmte Bildtypen in 16bit/Kanal zu bearbeiten. Dafür ist aber ebenfalls keine 10bit-fähige Ausgabe notwendig.

Die Möglichkeit einer 10bit-Ausgabe ist grundsätzlich natürlich nicht schlecht, ist aber aktuell ein absolutes Randthema für einen winzigen Nutzerkreis innerhalb einer Randgruppe und mir fallen unendlich viele wichtigere Themen ein. Bei den meisten Nutzern (z.B. alle die Grafiken für den Einsatz auf Monitoren erstellen) wären 10bit aktuell vermutlich sogar kontraproduktiv da sie Probleme mit Verläufen nicht in der Bearbeitung sondern erst nach der 8bit-Wandlung der Ausgabe sehen würden. Verlaufsprobleme erfordern aber in Photoshop oftmals eine ebenenbasierte Bearbeitung (Dithering, Rausch-/Störungsüberlagerung o.ä.), nicht erst beim Export über das gesamte Ergebnis.
Das sieht natürlich anders aus wenn 10bit-Bildschirme auch bei Endanwendern verbreitet wären. Davon sind wir aber noch weit weit entfernt.
0
abonino21.04.1513:53
Also 'früher hiess es, bei den 256 Grautönen könne das Auge nur deren 64 Töne unterscheiden.
Also kann mir jemand die Auswirkungen dabei von 8Bit auf 10Bit erklären?

Gruss, Arthur
0
Megaseppl21.04.1514:04
abonino
Also 'früher hiess es, bei den 256 Grautönen könne das Auge nur deren 64 Töne unterscheiden.
Also kann mir jemand die Auswirkungen dabei von 8Bit auf 10Bit erklären?
Das stimmt natürlich nicht.
Mach Dir einen Grauverlauf in 8 bit (256 Graustufen) von schwarz auf weiß und du wirst auf einem vernünftig-kalibrierten Monitor jeden Grauwert deutlich voneinander differenzieren können da sie direkt nebeneinander liegen. Wenn zwei Farben in abgetrennten Bereichen entfernt voneinander auf dem Bildschirm dargestellt werden ist es natürlich weitaus schwerer die Farben differenzieren zu können.
Es gibt aber Möglichkeiten Bilder mit Verlaufsproblemen so aufzubereiten dass diese Stufen nicht mehr sichtbar sind (Dithering, Rauschüberlagerung z.B). Das sollte man immer machen wenn die Bilder z.B. zur Verwendung im Web vorgesehen sind. Dafür muss man sich das Bild natürlich in 8bit anschauen, ansonsten ist es schwer Problembereiche zu erkennen.
0
Tirabo21.04.1514:06
Megaseppl
@Tirabo: Dein Vergleich hinkt.
Denn auch du kannst 24bittige Audiodaten bearbeiten ohne diese zwingend auf 24bittigen Lautsprechern ausgeben zu müssen. An dem grundsätzlich besseren Dynamikumfang vor allem für Arbeitsdaten zweifelt ja auch niemand; weder bei Audio-, noch bei der Grafikbearbeitung.
Genauso geht es ja auch bei Photoshop. Auch dort macht es natürlich Sinn bestimmte Bildtypen in 16bit/Kanal zu bearbeiten. Dafür ist aber ebenfalls keine 10bit-fähige Ausgabe notwendig.

Sorry, wenn ein Vergleich hinkt, dann ist es Deiner:

Es gibt erst mal gar keine 24 bittige Lautsprecher. Dafür ist einzig allein der DA-Wandler da.

Es geht um die Kette:

- Eingang 24 Bit Fix AD

- Interne Verarbeitung 32 Bit Float

- Ausgang 24 Bit Fix DA

Alles andere ist nicht erwünscht.

Zweitens, wie auch für die Aufnahme ist für die Wiedergabe ebenso eine Erhöhung von 24 Bit Fix auf 32 Bit Float nicht notwendig, da wir diese gar nicht benötigen, weil es an der Dynamik nichts ändert. 32 Bit Float ist nur für interne Rechnerei sinnvoll, nicht aber für Wandlung!

Drittens, es muss für die Ausgabe dabei noch nicht einmal auf 16 Bit gedithert werden. Ein guter Wandler wandelt direkt 24 Bit direkt in Analog. Ein Abhören mit 32 Bit Float ist also völliger Nonsens, weil bei der Ausgabe zum Hören am Monitor kein Fließkomma benötigt wird und Rundungsfehler entstehen dort auch nicht mehr, so daß 24 Bit ausreichen.
0
Megaseppl21.04.1514:15
Tirabo
Es gibt erst mal gar keine 24 bittige Lautsprecher. Dafür ist einzig allein der DA-Wandler da.
Es ging mir natürlich um die verwendeten D/A-Wandler. Ich wollte nur die Analogie zum Monitor herstellen, und auch dort sind es ja mehrere Komponenten.
Zweitens, wie auch für die Aufnahme ist für die Wiedergabe ebenso eine Erhöhung von 24 Bit Fix auf 32 Bit Float nicht notwendig
Mein Kommentar bezog sich ausschließlich auf 24bit vs. 16bit, nicht auf 32bit.
0
Tirabo21.04.1514:23
Megaseppl

Mein Kommentar bezog sich ausschließlich auf 24bit vs. 16bit, nicht auf 32bit.

Da bin ich ganz bei Dir.

Das darf man auch nicht machen. Also wenn die AD Wandlung in 24 Bit erfolgte, darf man die zum Abhören auf keinen Fall in 16 Bit Rückwandeln, weil die fehlenden 8 Bit dann einfach abgeschnitten werden. (Den Vorgang nennt man Truncation)

Erst beim Dithern auf 16 Bit für beispielsweise eine Audio-CD werden die fehlenden 8 Bit eingerechnet, mithilfe von Ditherrauschen.

PS:

Um nochmal meine Analogie darzustellen:

Der Unterschied 16 Bit und 24 Bit ist in Audio meiner Meinung nach gewaltig.

In 32 Bit braucht man nicht abzuhören oder aufzunehmen.

Braucht man aber wirklich einen 10 Bit Monitor? Ist der Unterschied wirklich so gewaltig?

Ich finde, unser User Penumbra hat da ein ziemlich klares und beeindruckendes Ergebnis vorgetragen.
0
hakken
hakken21.04.1514:28
8-Bit vs. 10-Bit
0
firstofnine21.04.1514:35
Ich sehe schon Phil Schiller in der nächsten Keynote den revolutionären 10 bit Mac vorstellen: "Can't innovate anymore, my ass"....amazing.
„Wann man nichts ändert, dann ändert sich nichts!“
0
bublik
bublik21.04.1514:38
iMonoMan
bublik
gerade Mal zwei Monitore die es darstellen können …
sieht igrendwie nicht nach zwei aus.

Stimmt, ich hätte ein Paar schreiben müssen.
sierkb
... kommentiert Martin Fischer.[/i]

"Der Witz ist ja, dass die 10-Bit-Darstellung eine zentrale Funktion von Profi-Grafikkarten ist" -
Schrieb Martin Fisher.

Es gibt nur zwei szenario wo dieser Punkt relevant ist: Bildbearbeitung und Videobearbeitung.
Im oben von mir verlinkten test von Slashcam haben die nicht hingekriegt, dass Photoshop mehr als 8 bit darstellt. So einfach und nötig ist es scheinbar nicht.

Zweites Szenario ist Videobearbeitung, aber da verwendet man nie den Graphikkartenausgang als Vorschau, dafür gibt es Videokarten. Problem existiert dort nicht.
Daher über eine zentrale Funktion zu schreiben, die nicht mal von Haus aus aktiviert ist, finde ich zu extrem.
Der Artikel von Martin Fischer ist doof und nur populistisch negativ geschrieben.

Klar es kommt 10 Bit und mehr Wiedergabe und wird auch irgend wann standard sein, aber tragish ist es zur Zeit nicht wirklich. "Apple sperrt sich seit Jahren gegen 10-Bit-Darstellung"
Apple findet es nicht nötig das als Main Requirements anzubieten - wäre vielleicht realistischer gewesen. Warten wir ab und nach dem schlechte Presse von Apple und 10 Bit werden die es unterstützen müssen.
0
Weia
Weia21.04.1514:53
Tirabo
Um nochmal meine Analogie darzustellen:

Der Unterschied 16 Bit und 24 Bit ist in Audio meiner Meinung nach gewaltig.

[…]

Braucht man aber wirklich einen 10 Bit Monitor? Ist der Unterschied wirklich so gewaltig?
Ja, ist er. Es ist genau dieselbe Situation. Der Unterschied ist offenbar nur, dass Du dich bei Audio gut auskennst und bei Video nicht so sehr.

In beiden Fällen reicht die geringere Bitzahl für ein optimal aufbereitetes Consumer-Medium (optimal ausgesteuertes Audio, farblich optimal aufbereitetes Bild) gerade so aus. In beiden Fällen reicht es nicht aus für die Produktion, wo ich einen Spielraum als Reserve benötige, bevor ich das Endergebnis optimal austariere.

Was hier permanent außer Acht gelassen wird, ist, dass man, was die ernsthafte Bildbearbeitung betrifft, auf Farbmanagement angewiesen ist. Farbmanagement „schluckt“ aber Bits, ähnlich z.B. einer zunächst zu schwach ausgesteuerten Audio-Aufnahme. 8 Bit pro Farbkanal mögen gerade noch vertretbar sein, sobald aber durch Farbraumumwandlung dieser Wert noch weiter reduziert wird, wird es indiskutabel.
Ich finde, unser User Penumbra hat da ein ziemlich klares und beeindruckendes Ergebnis vorgetragen.
Ganz im Gegenteil. Er redet erstens von Graustufenbildern, und da ist das in der Tat nicht ganz so kritisch. Und dann sagt er ja selber, dass in seinem Anwendungsfeld stufige Verläufe nicht so stören. Wobei – für Mammographieaufnahmen sind 10 Bit nach seiner Aussage ja vorgeschrieben – vielleicht doch nicht ganz grundlos?
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
sonorman
sonorman21.04.1515:12
Weia
… In beiden Fällen reicht es nicht aus für die Produktion, wo ich einen Spielraum als Reserve benötige, bevor ich das Endergebnis optimal austariere.
Darf ich dann mal fragen, wie Du als Apple-User bislang Deine Produktionsarbeit gemacht hast? Soll das etwa bedeuten, Du hast bisher nur minderwertige Produktionen abgeliefert?

Im Ernst: Hier wird mal wieder eine Mücke zu einem Elefanten gemacht.
0
Tirabo21.04.1515:12
Weia

Ja, ist er. Es ist genau dieselbe Situation. Der Unterschied ist offenbar nur, dass Du dich bei Audio gut auskennst und bei Video nicht so sehr.

Das stimmt. Daher habe ich ja auch bewußt Fragen gestellt. Die Antworten sollen mir daher andere liefern, weil ich es eben nicht weiß

Und die 2 zusätzlichen Bits als Reserve lösen damit nun die Probleme ? Wie gesagt, ich frage nur.
In Audio sind 2 Bit 12 db Pegelunterschied. Die wären dort jetzt nicht Heilsbringer, daher Erweiterung um 8 Bit (48 db) auf 24 Bit, um ausreichende Dynamik zu erhalten und um schwächere Signalen mehr Genauigkeit in der Abbildung zu geben.
0
Weia
Weia21.04.1516:06
sonorman
Weia
… In beiden Fällen reicht es nicht aus für die Produktion, wo ich einen Spielraum als Reserve benötige, bevor ich das Endergebnis optimal austariere.
Darf ich dann mal fragen, wie Du als Apple-User bislang Deine Produktionsarbeit gemacht hast?
Ich? Ich mache keine „Produktionsarbeiten“ am Mac; ich bin Wissenschaftler.
Soll das etwa bedeuten, Du hast bisher nur minderwertige Produktionen abgeliefert?
Das schaffst Du einfach nicht, unpolemisch gegenüber Leuten zu bleiben, die Deine Einschätzungen nicht teilen, oder?

Um auf Deine Frage zu antworten: Ein großer Teil der Medienproduktion ist unter Gesichtspunkten der Farbwiedergabe minderwertig, in der Tat. Schau Dir einfach Reproduktionen von Bildern an. Das ist schon eher Glück, wenn Du zwei Reproduktionen desselben Bildes findest, bei denen die Farben 100% übereinstimmen.

Das liegt unter anderem daran, dass ein korrekter Umgang mit Farbmanagement den Anwendern unnötig schwer gemacht wird. Und das liegt wiederum unter anderem daran, dass die 10-Bit-Reserve fehlt, um fehlertolerantere Technologien anbieten zu können.
Im Ernst: Hier wird mal wieder eine Mücke zu einem Elefanten gemacht.
Ich würde meine offensichtlichen Wissenslücken nicht so plakativ zur Schau stellen …

Fällt Dir nicht langsam selbst mal auf, in welch absurdem Ausmaß Du alles, was Apple bieten kann, großredest, und alles, was Apple nicht bieten kann, kleinredest? Der neue Mac Pro ist gaaaaanz toll, aber dass OS X seine 10-Bit-Grafikkarten gar nicht ausnutzen kann, ist üüüüüüberhaupt kein Problem. Oh Mann …
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
Weia
Weia21.04.1516:37
Tirabo
Und die 2 zusätzlichen Bits als Reserve lösen damit nun die Probleme?
Ja, die sind in der Tat der alles entscheidende Unterschied.

Im worst case hast Du einen Farbverlauf in einer reinen Primärfarbe (also z.B. Rot, bei RGB wären dann G = B = 0, und es bliebe nur die R-Komponente zur Darstellung des Verlaufs). Ganz grob (ich habe jetzt die genauen Zahlen nicht im Kopf) kann man sagen, dass geschulte Beobachter so um die 500 Abstufungen in einem Farbverlauf unterscheiden können (d.h. unter 500 Stufen fangen sie an, die Abstufungen zu sehen), Laien entsprechend weniger.

Jetzt nimm einen (leider immer noch) Standardfall, nämlich einen Monitor, der nicht hardware-kalibrierbar ist (gilt für alle Apple-Monitore). Das bedeutet, dass jede für die Kalibration erforderliche Farbverschiebung durch veränderte RGB-Werte umgesetzt werden muss (dem hardware-kalibrierten Monitor kannst Du sagen, er soll intern die Farbe in eine bestimmte Richtung verschieben, ohne dass die RGB-Werte geändert werden müssten). Ein deutlicher, aber klassischer und keineswegs extremer Fall wäre, dass Du den Weißpunkt Deines Monitors auf 5000 K kalibrieren willst (so üblich in der Druckindustrie, aber auch sinnvoll, weil ICC-Farbprofile intern 5000 K als Referenzpunkt haben, und somit geringstmögliche Umrechnungsfehler entstehen). Der „native“ Weißpunkt von Monitoren (also der, den sie ohne jede Korrektur von sich aus haben – ist abhängig von der Lichtfarbe der LCD-Hintergrundbeleuchtung) liegt aber eher zwischen 6500 K und 7000 K. Also musst Du von 6500 K auf 5000 K „chromatisch adaptieren“, wie das so schön heißt. D.h., Weiß ist jetzt nicht mehr RGB = (100%, 100%, 100%), sondern muss ins Gelbliche (5000 K ist relativ zu 6500 K gelblich) verschoben werden, in etwa zu RGB = (80%, 87%, 100%). Bei 8 Bit hast Du dann für Rot noch 80% x 256 = 205 mögliche Abstufungen. Das ist auch für Laien definitiv zu grob. Bei 10 Bit hättest Du hingegen 80% x 1024 = 819 Abstufungen – auch für scharfsichtigste Profis mehr als genug, also inklusive „Reserve“.

Es ist wirklich der Unterschied ums Ganze.
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
sonorman
sonorman21.04.1516:43
Weia
…Ein großer Teil der Medienproduktion ist unter Gesichtspunkten der Farbwiedergabe minderwertig, in der Tat. Schau Dir einfach Reproduktionen von Bildern an. Das ist schon eher Glück, wenn Du zwei Reproduktionen desselben Bildes findest, bei denen die Farben 100% übereinstimmen.
Und Du glaubst also, das wird allein dadurch besser, wenn Apple ab morgen 10-Bit unterstützt?
Das liegt unter anderem daran, dass ein korrekter Umgang mit Farbmanagement den Anwendern unnötig schwer gemacht wird. Und das liegt wiederum unter anderem daran, dass die 10-Bit-Reserve fehlt, um fehlertolerantere Technologien anbieten zu können.
Genau da liegt doch der Hase im Pfeffer: Der 10-Bit-Pfad ist derzeit noch extrem fehlerträchtig und selbst für Profis kaum zu gewährleisten. Vermutlich verzichtet Apple genau deshalb auf diese Unterstützung, weil da noch viel zu viel falsch laufen kann. Und im Ergebnis kann sowieso kaum ein Kunde erkennen, ob das nun in einer 8- oder 10-Bit-Farbkette erzeugt wurde. (Lies doch mal, was penumbra dazu geschrieben hat.) Erst wenn sichergestellt ist, dass sämtliche Hard- und Software lückenlos und ohne technisches Know-How eine ungebrochene Produktionskette mit besagter Farbtiefe bietet – ohne Fallstricke – dann wird Apple das vermutlich auch integrieren. Bis dahin läuft alles wie bisher und funktioniert so gut wie eh und je.
0
Weia
Weia21.04.1517:00
sonorman
Weia
…Ein großer Teil der Medienproduktion ist unter Gesichtspunkten der Farbwiedergabe minderwertig, in der Tat. Schau Dir einfach Reproduktionen von Bildern an. Das ist schon eher Glück, wenn Du zwei Reproduktionen desselben Bildes findest, bei denen die Farben 100% übereinstimmen.
Und Du glaubst also, das wird allein dadurch besser, wenn Apple ab morgen 10-Bit unterstützt?
Nö, allein nicht, aber es trägt dazu bei, weil dadurch die Farbkalibration von Monitoren vereinfacht wird, was wiederum ein paar mehr Leute ermutigen mag, das auch zu tun.
Genau da liegt doch der Hase im Pfeffer: Der 10-Bit-Pfad ist derzeit noch extrem fehlerträchtig und selbst für Profis kaum zu gewährleisten.
Sorry, aber das ist vollkommener Unsinn. Was soll daran fehlerträchtig sein? Alles, was passiert, ist, dass die (hoffentlich) 16 Bit pro Farbkanal eines guten Bildes am Nadelöhr Monitor-Schnittstelle nur auf 10 Bit und nicht auf 8 Bit reduziert werden. Das funktioniert vollautomatisch und völlig transparent; weder Profis noch Laien müssen da irgendwas „gewährleisten“.
Und im Ergebnis kann sowieso kaum ein Kunde erkennen, ob das nun in einer 8- oder 10-Bit-Farbkette erzeugt wurde. (Lies doch mal, was penumbra dazu geschrieben hat.)
Lies Du es bitte erstmal. penumbra hat von Graustufenbildern gesprochen. WTF hat das mit Farbwiedergabe zu tun?
Erst wenn sichergestellt ist, dass sämtliche Hard- und Software lückenlos und ohne technisches Know-How eine ungebrochene Produktionskette mit besagter Farbtiefe bietet – ohne Fallstricke – dann wird Apple das vermutlich auch integrieren. Bis dahin läuft alles wie bisher und funktioniert so gut wie eh und je.
Sorry, aber Du hast wirklich keine Ahnung, wovon Du sprichst. Die „Produktionskette“ arbeitet schon heute wahlweise mit Bildformaten mit 16 Bit pro Kanal, und das völlig problemlos. Apples Core-Image-Technologie, die der Bildbearbeitung aller OS-X-Programme zugrunde liegt, arbeitet intern übrigens grundsätzlich mit 32 Bit pro Farbkanal, wiederum völlig problemlos. Es geht ausschließlich um die Engstelle Grafikkarte → Monitor. Das ist ein einziger definierter Übergabepunkt, nix Kette.
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
hakken
hakken21.04.1517:01
sonorman

Aber das ist ja auch nur Spekulation.
Fakt ist doch, dass es Heute effektiv Vorteile bietet und deshalb im Pro-Markt verfügbar sein sollte (bzw. bei Anderen ist).

Ich unterstelle mal das Leute die 10-Bit vermissen, zumindest in der Arbeitswelt, wissen was sie tun.
Und die braucht der liebe Apfel auch nicht vor dem "extrem fehlerträchtigen 10-Bit-Pfad" schützen.
0
sonorman
sonorman21.04.1517:07
Weia
Sorry, aber das ist vollkommener Unsinn. Was soll daran fehlerträchtig sein?
Du hältst mir laufend vor, wie unwissend ich doch bin, aber scheinbar hast Du selbst große Wissenslücken auf diesem Gebiet, sonst wüsstest Du, dass es an vielen anderen Stellen in der Verarbeitungskette dazu kommen kann, dass die 10-Bit am Ende gar nichts nützen.
That said, it is not without glitches in practice - Photoshop will, when using some tools like 'clone' for example, render a small part of the working area in 8 bit around your pointer. Also, Windows 7 will lose the Aero transparency features with ATI video cards. So while it works, it is not without glitches and while it may be useful in some circumstances, the performances of these screens with 8 bit input is already so good it's debatable whether the glitches are worth it on a day to day basis right now.

0
Megaseppl21.04.1517:18
sonorman
Der Artikel ist von 2010. Fünf Jahre alt.
Ich bin mir sicher dass ein paar der beschriebenen Problemen sowohl in Photoshop, wie auch in Windows seit dem gefixt wurden.
0
sonorman
sonorman21.04.1517:22
Megaseppl
sonorman
Der Artikel ist von 2010. Fünf Jahre alt.
Ich bin mir sicher dass ein paar der beschriebenen Problemen sowohl in Photoshop, wie auch in Windows seit dem gefixt wurden.
Was nicht bedeutet, dass inzwischen problemlos in jedem System heute eine nahtlose 10-Bit-Kette gegeben ist. Photoshop CS6 ist beispielsweise nach wie bei vielen Profis im Einsatz und das hat meines Wissens keine Updates bekommen, die besagte Beschränkungen ausräumen.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.