Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Final Cut Pro X - der Mythos vom einzig farbtreuen NLE unter macOS - Gerichtet an Weia

Final Cut Pro X - der Mythos vom einzig farbtreuen NLE unter macOS - Gerichtet an Weia

FlyingSloth
FlyingSloth14.05.2507:24
Weia, ich habe diesen dedizierten Thread erstellt aufgrund einiger deiner Aussagen über Apples Final Cut Pro X, Apples Color Science im Allgemeinen und der angeblichen Unfähigkeit anderer NLEs und Player außer FCPX und QuickTime, Video farblich akkurat auf Macs wiedergeben zu können. Da du diese Aussagen über einen längeren Zeitraum hinweg in diversen Threads geäußert hast, möchte ich in diesem konsolidierten Thread darauf eingehen. Die Quell-Threads habe ich jeweils als Quelle-link angegeben.
Meine Motivation für diesen Thread ist schlicht und ergreifend die Tatsache, dass deine Behauptung – „Kein anderes NLE außer FCP sei in der Lage, farbakkurat unter macOS zu arbeiten“ – grundlegend falsch ist und so nicht stehen gelassen werden kann. Dieser Trugschluss lässt sich mit einem einfachen Test widerlegen.


weia
Es ist kein Bug, sondern physikalisch die korrekte Herangehensweise. Dass diese Herangehensweise Menschen, die nicht von der Physik, sondern der Videotechnik herkommen, in der historisch bedingt (Videotechnik entstand vor Multimedia-Computern) sich einige aus physikalischer Sicht seltsame Verfahrensweisen etabliert haben, Probleme bereitet, bestreite ich doch gar nicht.

Wenn Videotechnik – sowohl die aus der Zeit vor dem Einzug von Computern als auch die heutige – nicht auf physikalischen Grundsätzen basiert, wie du es behauptest, worauf beruht sie dann? Das ist, als würde man behaupten, Film und die Entwicklung von Film im Labor hätten nichts mit Chemie zu tun. So ziemlich alles an Videotechnik ist Physik und Elektronik. Und was meinst du mit der schwammigen Beschreibung von „seltsamen Verfahrensweisen“? Das musst du bitte genauer erklären.

weia
Es spricht auch nichts dagegen, dass bei Geräten, die ausschließlich für die Videoproduktion gedacht sind, diese historisch gewachsenen Verfahrensweisen weiterhin angewandt werden.

Doch, du sprichst vehement dagegen, indem du allen computerbasierten NLEs außer FCP absprichst, nicht korrekt zu arbeiten – was Farbraum und Colour Science anbelangt. Diese Behauptung trifft jedoch schlichtweg nicht zu. Du hast dich offensichtlich noch nie ernsthaft mit professionellen NLEs auseinandergesetzt oder mit solchen unter realen Produktionsbedingungen gearbeitet und kennst eben nur FCP.

Apple kocht mit FCPX – und bereits mit FCP seit der Übernahme von Macromedia – sein eigenes Süppchen. Bis heute ist die Software nicht in der Lage, unkomprimiertes RAW-Material von de-facto-Standardkameras ohne Zuhilfenahme externer Konverter nativ zu decodieren, zu de-bayern und in den korrekten Farbraum zu bringen. FCP kann das weder mit ARRI RAW (hierfür wird das ARRI Reference Tool benötigt), noch mit RED RAW (hierfür benötigt man den RED Apple Workflow Installer), noch mit Blackmagic RAW (dafür wird die BRAW Toolbox von Blackmagic benötigt).

Wohlgemerkt: Diese Umwege sind nur bei Apples FCPX notwendig. Ernstzunehmende und am Markt etablierte NLEs und Viewer beherrschen dies nativ und intern – zum Beispiel: Assimilate Scratch, Autodesk Smoke, Blackmagic DaVinci Resolve, Filmlight's Baselight und Daylight, Autodesk RV und RVIO, Colorfront Transcoder, Pomfort Silverstack und YoYotta, um nur einige zu nennen.

Gleiches trifft im Übrigen auch auf Apples QuickTime zu – keinerlei nativer Support für die oben genannten Formate. Ganz zu schweigen von logarithmischem RAW-Material wie z. B. ARRI's Log-C – da herrscht bei QT/FCP ebenfalls Fehlanzeige. Nicht einmal DJI- oder GoPro-Log-Material lässt sich in QT/FCP ohne Hilfe von Konvertern farblich korrekt darstellen. Bei anderen namhaften NLEs ist das kein Problem, da diese die RAW-Converter der Hersteller integrieren, nativ unterstützen und stets aktuell halten, um die Bilder der Kameras unverfälscht so zu decodieren, wie sie vom Sensor aufgezeichnet wurden.

An dieser Stelle spielen die von dir so oft erwähnten Monitor-Profile noch nicht einmal eine Rolle. Wir befinden uns hier noch ganz am Anfang der Bearbeitungskette – und selbst da hakt es bereits bei FCP und QuickTime.
weia
Aber für Computer im eigentlichen Sinne, also Hardware, die mit unterschiedlicher Software für die unterschiedlichsten Aufgaben zugleich eingesetzt wird, gilt das eben nicht; da muss der Konsistenz halber von allen Programmen auf die physikalisch korrekten Verfahren zurückgegriffen werden. Und Macs sind solche Computer.

Du hast recht mit deiner Aussage, dass Apple kaum jemand etwas vormacht, wenn es um Farbprofile für die Ausgabe auf verschiedenen COMPUTER Displays geht. In diesem Bereich sind Apple und macOS tatsächlich sehr gut. Das betrifft jedoch ausschließlich die Ausgabe. Was den Import von Log-RAW-Videodaten angeht, liegt bei FCPX noch vieles im Argen – und andere NLEs können das um Längen besser. Und was bringt mir ein NLE, das auf einem Computermonitor zwar korrekte Farben ausgeben kann, wenn es bereits beim farblich korrekten Import grundlegend scheitert?

weia
Die „professionelle Videotechnik“ ist diejenige, die in Form der Kontrastaufsteilung eine physikalisch falsche Konvertierung On The Fly vornimmt.

Das stimmt doch überhaupt nicht. Wie kommst du zu dieser verallgemeinernden Aussage, und womit willst du sie belegen?

Solange du RAW-Kameradateien mit dem vom Kamerahersteller bereitgestellten RAW-Converter importierst, wird nichts „aufgesteilt“ oder physikalisch falsch konvertiert. Es erfolgt lediglich ein auf den jeweiligen CMOS-Sensor abgestimmtes De-Bayering sowie ein präzise auf diesen Sensor zugeschnittenes Tone-Mapping mittels 3D-LUT, um Grau- und Farbwerte akkurat abbilden zu können.

Das Problem dabei ist, dass Apple sich strikt weigert, die RAW-Converter von ARRI, RED oder Blackmagic in FCPX zu integrieren. Entsprechend ist FCPX auch nicht in der Lage, diese Dateien „out of the box“ korrekt zu decodieren. Hier kommen wir wieder zu Programmen wie Pomfort, DaVinci und Co., die das alles nativ beherrschen.

Natürlich hilft macOS auf der Ausgabeseite, einen konsistenten Look auf Computerbildschirmen zu gewährleisten. Doch sobald DCPs erstellt werden müssen oder das Material für professionelle Monitore und Projektoren wie von Sony oder Barco aufbereitet werden soll, stößt man mit dem in macOS integrierten Farbmanagement schnell an Grenzen – denn FCP bietet keine Möglichkeit, den passenden Farbraum für das Zielmedium als Referenz festzulegen.

Das mag für den Normalverbraucher akzeptabel oder sogar vorteilhaft sein, weil dieser sein Material ohnehin nur auf dem Mac-Monitor, iPhone oder iPad betrachtet. Doch sobald man sich im professionellen Bereich bewegt – etwa mit Class-A-Broadcast-Monitoren, Projektoren oder sogar Film-Ausbelichtungen für analoge Projektionssysteme – ist man mit FCP und macOS stark limitiert.

Deine Aussage ist allenfalls aus historischer Sicht teilweise zutreffend – nämlich aus der Zeit, als Kameras tatsächlich noch ein Videosignal ausgaben. Im schlimmsten Fall handelte es sich damals um ein analoges Composite-Signal (Luminanz und Chrominanz über FBAS und ungeschirmte Koaxialkabel). Im besten Fall war es ein digitales Komponentensignal in YUV über eine SDI-Verbindung. Dazwischen lagen noch analoge YUV-Komponentensignale oder analoge YC-Signale, bei denen Chrominanz und Luminanz über getrennte, abgeschirmte Leitungen übertragen wurden.

Wenn man in jener Zeit also mit computerbasierten NLEs arbeitete, war die AD/DA-Wandlung tatsächlich eine erhebliche Fehlerquelle – in diesem Zusammenhang passt deine Aussage. Heute trifft das jedoch nicht mehr zu.
weia
Aber alle, die sich mit der Rezeption von Filmen professionell beschäftigen (Filmkritiker, Filmwissenschaftler), sind auf korrektes Farbmanagement angewiesen, wenn sie Videobilder in Pixelbilder übertragen

Die genannten Filmkritiker und Filmwissenschaftler mögen in ihrem Beruf als Filmkritiker oder Filmwissenschaftler professionell sein, doch bedeutet das nicht, dass sie sich zwingend mit der Erstellung und Verarbeitung dieser Medien auskennen oder professionell beurteilen können, wie etwas verarbeitet wird und welche Wege Bildsignale während der Bearbeitung nehmen. In diesem Fall sind sie „Konsumenten“.

weia
Endverbraucher sind bezüglich der Farbwiedergabe oftmals genügsam bis indifferent oder bevorzugen gar falsche, effektvoll grelle Farben.

Das stimmt nur bedingt. Um bei deinen Filmkritikern und Filmwissenschaftlern zu bleiben: Beide Gruppen verhalten sich, wenn sie ihren Job gut machen, alles andere als indifferent und sind in diesem Fall dennoch Endverbraucher.
weia
dasselbe gilt für die begleitende Dokumentation der Filme (Plakate, DVD-Hüllen, Werbung, …). Warum wohl sind die Farben auf DVD-Hüllen oder in Artikeln über einen Film oftmals abenteuerlich falsch? Farbmanagement wird in diesem Bereich offenkundig immer noch als Glücksspiel gespielt.

„Print“ ist doch eine komplett andere Baustelle und verwässert als Vergleich an dieser Stelle die Problematik nur.
weia
Das ist nicht überheblich, das ist schlichte Physik. Ob eine Farbe gleich bleibt oder sich verändert, kann man messen. Und das Messergebnis ist eindeutig, da gibt es in der Tat nichts zu diskutieren.

Wenn es so wäre, dass Messergebnisse bei Farbanalysen und Monitor-Kalibrierungen immer eindeutig sind, warum beruhen dann bei sämtlichen Methoden die Ergebnisse auf Durchschnittswerten von mehreren Messdurchgängen? Eindeutig ist da überhaupt nichts, sondern im besten Fall ein guter Durchschnittswert, basierend auf mehreren Messungen.
weia
Um nochmal das HiFi-Bild zu verwenden: Ein guter, professioneller Verstärker muss zuallererst einen linealgeraden Frequenzgang liefern. Wenn man will, kann man dann zusätzlich Equalizer, Klangregler, Loudness-Filter etc. zuschalten, aber als Option. Die Nicht-Apple-Videosoftware hingegen verhält sich wie ein Verstärker mit fest eingebautem Loudness-Effekt, den man nicht abschalten kann.

Um bei deinem HiFi-Beispiel zu bleiben: Bevor ein professioneller Verstärker einen linearen Frequenzgang liefern kann, muss er erstmal Eingangssignale nativ verstehen. Erst dann kommt ein linearer Frequenzgang zum Tragen. Und genau hier hapert es schon bei FCP, QuickTime und iMovie. Apple-Software ist hier der limitierende Faktor, bevor man überhaupt über die Ausgabe des Mediums auf diversen Monitoren nachdenken kann. Allein die Tatsache, dass in FCP gängige Formate nicht nativ verarbeitet werden können, sondern erst eine Konvertierung in z. B. ProRes notwendig ist, kann eine Fehlerquelle in Bezug auf die Farben darstellen und kann bei falscher Konvertierung im schlimmsten Fall zu Abweichungen oder einer qualitativen Degradierung des Originalmaterials führen.
weia
Ich habe ganz im Gegenteil im Rahmen eines farbphysikalischen Forschungsprojektes über Monate hinweg solche Messungen durchgeführt.

Schön, ich befasse mich mit der Thematik seit 1997 hauptberuflich und davor seit 1992 neben der Schullaufbahn im Rahmen von Volontariaten bei TV-Sendern und bei Sony Deutschland Professional.
weia
Ich habe von Smartphone-Kameras über Consumer-Kameras und Prosumer-Kameras bis hin zu Arri und Backmagic High End alles getestet, wenn möglich in ProRes, um Konvertierungsfehler beim Transkodieren auszuschließen. Das Ergebnis war ausnahmslos dasselbe: Apple-Software gibt die Farben, namentlich die Transferkurve, physikalisch korrekt wieder, alle andere Software steilt sie auf.

Bei dieser Aussage kann etwas nicht stimmen, denn du wirst weder ARRI RAW noch BMRAW nativ in FCP importiert haben. Wie oben bereits ausführlich erklärt, ist das in FCP bis heute seitens Apple nicht ohne externe Konvertierung möglich. Da hilft dir auch ProRes nicht weiter, denn ProRes ist nicht das native, linearisierte und de-bayerte Signal des Kamerasensors, sondern bestenfalls eine Interpretation mit vielen Parametern, die je nach Geschmack verändert werden können.

Im Idealfall kümmert sich ein DIT am Set in Absprache mit dem DOP um die Konvertierung. Wenn du also sagst, dass du mit ProRes-Material in FCP getestet hast, sagt das in erster Linie nur aus, dass dein Material mit der bestmöglichen Kompression in FCP geladen wurde. Es hat jedoch keine Aussagekraft über die farbliche Integrität des Materials selbst. Farblich falsch konvertiertes RAW-Material ist auch in ProRes immer noch farblich falsch.

Ich will damit nicht sagen, dass das Material, mit dem du getestet hast, zwingend falsch konvertiert wurde, sondern nur zum Ausdruck bringen, dass das Material in keinem Fall dem entsprochen haben muss, was direkt aus dem Sensor der Kamera ausgelesen wurde – weder farblich noch in Bezug auf die Kompression. In einer RAW-ProRes-Konvertierung können viele Parameter verändert werden, die das Resultat weit von dem entfernen, was ursprünglich aus dem Sensor ausgelesen wurde.
weia
Aber um gleichzeitig auch Konsistenz mit der restlichen digitalen Medienwelt zu erreichen, darf eine dafür erforderliche Kontrastaufsteilung nicht in der Videosoftware, sondern nur im Farbprofil des Monitors vorgenommen werden und das kapiert aus irgendeinem Grund niemand außer Apple.

Das kapiert nicht nur Apple, sondern jeder Hersteller eines guten NLEs. Du kannst mit den korrekten Projekteinstellungen bei jedem namhaften NLE/Player wie Assimilate Scratch, Autodesk Smoke, Blackmagic DaVinci Resolve, Filmlight's Baselight und Daylight, Autodesk RV und RVIO, Colorfront Transcoder, Pomfort Silverstack und YoYotta eine farblich 100 % korrekte Wiedergabe erreichen, die einem genauen Referenztest standhält.
Der Vorteil hierbei ist, dass du bei diesen, im Gegensatz zu FCP, einfach mehr Flexibilität hast, was den Import von Quellmaterial und den Export auf verschiedene Zielmedien anbelangt – von Class-A-Referenzmonitoren bis hin zum DCP fürs Kino. Da bist du bei FCP komplett in der Sackgasse, weil Apple denkt, alles vollautomatisch erledigen zu müssen, ohne die Ansprüche des Anwenders oder des Zielmediums zu kennen.
Du hast z. B. in FCP einfach keine Möglichkeit, ohne externe Konvertierungen auf der Input-Seite ein Cineon-File zu lesen und auf der Output-Seite ein DCP-konformes Master zu erstellen.


Bevor weiter darüber diskutiert wird, was FCP angeblich kann und andere NLEs wie DaVinci Resolve nicht, ist hier ein anschauliches Beispiel anhand eines Tests, durchgeführt auf einem handelsüblichen Mac Mini M1, angeschlossen an einen Lenovo ThinkVision Pro 32 Zoll 4K-Monitor.

Als Testmaterial wurden zwei Standard-Testcharts verwendet: zum einen ein MacBeth ColorChecker Chart, zum anderen das Kodak Marcie LAD Test Image. Beide Dateien liegen als unkomprimierte 16-Bit-TIFFs vor.

Zum Testaufbau: Sowohl FCPX als auch DaVinci Resolve laufen auf dem M1. Die Testbilder wurden jeweils geladen und auf der Timeline platziert, um sie im Master Viewer anzuzeigen. Es wurden keinerlei farbliche Veränderungen an den Dateien vorgenommen. Die Master Viewer von FCPX und DaVinci Resolve wurden nebeneinander angeordnet, sodass beide Ansichten gleichzeitig auf dem Monitor dargestellt wurden.

Von diesem Bildschirm wurde anschließend mittels macOS ein Screenshot erstellt und mittels Preview als JPEG in 100 % Qualität gespeichert. Anhand dieses Screenshots lässt sich eindeutig erkennen, dass sowohl DaVinci Resolve als auch FCPX die exakt gleichen Farbwerte der Testcharts wiedergeben.





Weia, ich weiß ehrlich gesagt nicht, wie Du zu dem Schluss kommst, dass nur FCPX unter macOS Farben korrekt wiederzugeben vermag und kein anderes NLE dazu in der Lage sei. Diese Aussage ist schlichtweg falsch – und genau das zeigt dieser Test eindeutig. Lade Dir die Bilder herunter und überprüfe die Farbwerte beider Viewer selbst in Photoshop oder Affinity Photo mithilfe des Color Pickers. Wenn Du willst stelle ich dir auch die Original Charts zur Verfügung. DaVinci kannst Du frei herunterladen und FCPX hast Du ja. Du kannst somit das Ergebnis jederzeit reproduzieren und verifizieren.

Natürlich muss man wissen, wie man mit DaVinci Resolve umgeht, um diese Kontinuität und ein korrektes Farbmanagement auf dem Mac zu erreichen. In den zwei folgenden Screenshots sieht man, welche drei Parameter in DaVinci gesetzt werden müssen, damit sich die Software wie eine macOS-native Anwendung verhält und das Farbmanagement korrekt umgesetzt wird.





Aber genau dafür gibt es Handbücher. Die Aussage „FCPX macht das automatisch“ ist keine Ausrede. Wer professionell mit Videosoftware arbeitet, muss sich ernsthaft mit ihr auseinandersetzen – und sollte keine falschen Behauptungen aufstellen, nur weil das nötige Wissen über die genannten Anwendungen fehlt. Stichwort 1-1-1 oder 1-2-1 Tagging von rec.709 Material.




weia
Bitte was? Die Runderneuerung von Final Cut war nicht nur nötig, sondern ist hervorragend gelungen. Final Cut Pro X ist ein grandioses Stück Software und nebenbei das einzige Schnittprogramm, das korrektes Farbmanagement beherrscht.

Zum wiederholten Male, Final Cut Pro ist keineswegs das einzige Schnittprogramm unter MacOS, das korrektes Farbmanagement beherrscht. Solche Behauptungen sind schlichtweg die Verbreitung falscher Informationen. FCPX als „grandioses Stück Software“ zu bezeichnen, ist zudem stark übertrieben. Ja, man kann damit schneiden – aber viele Dinge funktionieren nur über Umwege oder sind gar nicht möglich.

weia
Selbst schuld. (Ja, ich weiß, dass manche alte Hasen so ihre Probleme damit hatten, sich auf einen neuen, zwar besseren, aber ungewohnten Workflow einzulassen.)

Die "alte Hasen"-Aussage trifft wohl eher auf dich selbst zu, da du kategorisch andere Programme außer FCP ablehnst, ohne diese jedoch wirklich im Detail zu kennen. Du gehst dann hin und bestehst auf falschen Aussagen über diese Programme in Bezug auf das Farbmanagement. Das zeigt sich schon daran, dass dir die korrekten Einstellungen in DaVinci nicht bekannt sind, um 1-1-1 getaggtes Rec.709-Material ohne Aufsteilung und mit korrektem Gamma 1.96 zu betrachten. Siehe dazu obige obige Screenshots.
weia
und Shake war zu high-end-spezialisiert, so dass die für Apple interessanten Teile in Final Cut Pro und Motion integriert wurden.

Auch das stimmt nur teilweise. Shake wurde in erster Linie von Apple nicht weiterverfolgt, weil das Unternehmen erkannte, dass es mit Shake auf das falsche Pferd gesetzt hatte und Nuke im Vormarsch war. Nuke ist heute der industrieweite Standard im Bereich Compositing, dem Shake nichts mehr entgegenzusetzen hatte. Daher wurde Shake eingestellt, und der Source-Code konnte eine Zeit lang sogar von Apple erworben werden.

weia
Das war kein Witz, sondern logische Konsequenz aus der Tatsache, dass die Architektur von Projekten vollkommen unterschiedlich ist. Es wurde ja niemand daran gehindert, parallel das alte Final Cut weiter zu nutzen, solange man noch alte Projekte bearbeiten musste.

Kannst du bitte erklären, was du unter „vollkommen unterschiedlich“ im Bezug auf den Projektaufbau anderer NLEs verstehst? Ich würde mich über handfeste Beispiele freuen, anstatt pauschaler Aussagen.
„Fly it like you stole it...“
+17

Kommentare

Don Gomez
Don Gomez14.05.2510:54
Wow! Eine fachliche Diskussion, auf die ich mich freue.
„... darauf einen Dujardin!“
+10
verstaerker
verstaerker14.05.2511:57
FCPX unterstützt kein OCIIO. Viel mehr muss man eigentlich nicht sagen.
+1
shakebox14.05.2512:06
Ich will nicht zu tief einsteigen hier in die ganze Thematik, weil ich weder mit NLEs viel Erfahrung hab noch die ganzen Diskussion hier kenne. Aber einen kurzen Gedanken: wenn von Farben in NLEs die Rede ist, dann ja meist nicht in Form von linearen Full-Dynamicrange-Daten, sondern von per Tonemapping "irgendwie" in High- oder Low-Dynamicrange-Daten umgewandelten Sachen, die so gewandelt sind, dass sie auf einem realen Wiedergabe-Gerät sinnvoll (um eben nicht "richtig" zu sagen) aussehen. Aber immer beim Tonemapping für reale Wiedergabe-Geräte gibt es ja kein "richtig", schon gar nicht physikalisch richtig. Tonemapping ist ja immer auch ein "künstlerischer" Vorgang. Und damit gibt es immer verschiedene Wege zu einem fertig darstellbaren Bild, die alle technisch richtig sind, aber das Ergebnis trotzdem unterschiedlich aussieht.

Kann das evtl. irgendwie ein Punkt in Eurem Disput bzw. gegenseitigen Missverständnis sein?
0
verstaerker
verstaerker14.05.2512:11
shakebox
Ich will nicht zu tief einsteigen hier in die ganze Thematik, weil ich weder mit NLEs viel Erfahrung hab noch die ganzen Diskussion hier kenne. Aber einen kurzen Gedanken: wenn von Farben in NLEs die Rede ist, dann ja meist nicht in Form von linearen Full-Dynamicrange-Daten, sondern von per Tonemapping "irgendwie" in High- oder Low-Dynamicrange-Daten umgewandelten Sachen, die so gewandelt sind, dass sie auf einem realen Wiedergabe-Gerät sinnvoll (um eben nicht "richtig" zu sagen) aussehen. Aber immer beim Tonemapping für reale Wiedergabe-Geräte gibt es ja kein "richtig", schon gar nicht physikalisch richtig. Tonemapping ist ja immer auch ein "künstlerischer" Vorgang. Und damit gibt es immer verschiedene Wege zu einem fertig darstellbaren Bild, die alle technisch richtig sind, aber das Ergebnis trotzdem unterschiedlich aussieht.

Kann das evtl. irgendwie ein Punkt in Eurem Disput bzw. gegenseitigen Missverständnis sein?
die NLE sollte Farben aber linear handhaben und nicht tonemappen , ausser für die Anzeige

über OCIIO wäre das alles klar und umfangreich zu konfigurieren
0
Nebula
Nebula14.05.2512:22
Was soll OCIIO sein? Google hat mir keine klare Antwort geben können. Meint ihr vielleicht OCIO (OpenColorIO)?
„»Wir waren schon immer schamlos darin, großartige Ideen zu stehlen.« – Steve Jobs“
+3
Weia
Weia14.05.2512:27
verstaerker
FCPX unterstützt kein OCIIO. Viel mehr muss man eigentlich nicht sagen.
Doch, man müsste zumindest sagen, was das denn sein soll. Oder meintest Du OpenColorIO?
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
Weia
Weia14.05.2512:31
FlyingSloth
Weia, ich habe diesen dedizierten Thread erstellt aufgrund einiger deiner Aussagen über Apples Final Cut Pro X, Apples Color Science im Allgemeinen und der angeblichen Unfähigkeit anderer NLEs und Player außer FCPX und QuickTime, Video farblich akkurat auf Macs wiedergeben zu können.
Da Du dir sehr viel Mühe gegeben hast mit diesem Beitrag, will ich auch entsprechend darauf antworten. Leider habe ich augenblicklich sehr große gesundheitliche Probleme, daher bitte ich um Verständnis, dass die Antwort ein zeitlang dauern wird.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+19
verstaerker
verstaerker14.05.2512:31
Weia
verstaerker
FCPX unterstützt kein OCIIO. Viel mehr muss man eigentlich nicht sagen.
Doch, man müsste zumindest sagen, was das denn sein soll. Oder meintest Du OpenColorIO?
ja das meine ich , das ist die gängige Abkürzung dafür hätte ich nicht ein I zu viel getippt
0
FlyingSloth
FlyingSloth14.05.2513:19
Nebula
Was soll OCIIO sein? Google hat mir keine klare Antwort geben können. Meint ihr vielleicht OCIO (OpenColorIO)?

ICC und OCIO sind Farbmanagementsysteme, die in der digitalen Bildverarbeitung eingesetzt werden, jedoch unterschiedlichen Zwecken dienen. ICC-Profile (International Color Consortium) beschreiben, wie Farben zwischen verschiedenen Geräten wie Monitoren und Druckern umgewandelt werden sollen. OCIO (OpenColorIO) hingegen ist eine Farbmanagementlösung, die in der Filmproduktion verwendet wird, um konsistente Farben über verschiedene Assets und Produktionsstufen hinweg sicherzustellen.

Vereinfacht kann man zu beiden sagen:
ICC Zweck:
Sicherstellung einer konsistenten Farbwiedergabe über verschiedene Geräte und Anwendungen hinweg. Sie beschreiben, wie Farben von einem Farbraum in einen anderen umgewandelt werden sollen, sodass die auf einem Gerät angezeigten Farben den Farben auf einem anderen Gerät entsprechen.
z.B.
Wenn du ein Bild von deinem Monitor drucken möchtest, sorgt das ICC-Profil dafür, dass die Farben auf deinem Monitor korrekt in die Druckfarben umgewandelt werden.

Ganz anders bei OCIO
Zweck:
Verwaltung von Farbräumen und Farbtransformationen in der Filmproduktion, insbesondere im Rahmen des ACES-Workflows (Academy Color Encoding System). OCIO sorgt dafür, dass Farben über alle Produktionsphasen hinweg, von der Aufnahme bis zur Wiedergabe, konsistent bleiben.
Wird häufig in Software wie Blender, Nuke und anderen Tools verwendet, die in der Filmproduktion zum Einsatz kommen.
Wenn ein Regisseur sicherstellen möchte, dass die Farben in einer Filmszene, die in einer bestimmten Umgebung gedreht wurde, mit den Farben in einer anderen Szene übereinstimmen, hilft OCIO dabei, die entsprechenden Farbräume zu verwalten.

Das ist natürlich stark vereinfacht und OCIO ist ein sehr komplexes Thema.
„Fly it like you stole it...“
+4
FlyingSloth
FlyingSloth14.05.2513:21
Kein Thema und viel wichtiger! Gute Besserung
Weia
FlyingSloth
Weia, ich habe diesen dedizierten Thread erstellt aufgrund einiger deiner Aussagen über Apples Final Cut Pro X, Apples Color Science im Allgemeinen und der angeblichen Unfähigkeit anderer NLEs und Player außer FCPX und QuickTime, Video farblich akkurat auf Macs wiedergeben zu können.
Da Du dir sehr viel Mühe gegeben hast mit diesem Beitrag, will ich auch entsprechend darauf antworten. Leider habe ich augenblicklich sehr große gesundheitliche Probleme, daher bitte ich um Verständnis, dass die Antwort ein zeitlang dauern wird.
„Fly it like you stole it...“
+13
Nebula
Nebula14.05.2513:30
FlyingSloth
…Das ist natürlich stark vereinfacht und OCIO ist ein sehr komplexes Thema.
Danke, mir ging es nur um die Schreibweise mit Doppel-I.
„»Wir waren schon immer schamlos darin, großartige Ideen zu stehlen.« – Steve Jobs“
0
verstaerker
verstaerker14.05.2513:34
Nebula
FlyingSloth
…Das ist natürlich stark vereinfacht und OCIO ist ein sehr komplexes Thema.
Danke, mir ging es nur um die Schreibweise mit Doppel-I.
Ich hab einen Schreibfehler gemacht und konnte ihn nicht mehr korrigieren, als es zurecht bemängelt wurde.
Mea Culpa.
+3
MartinGrebe
MartinGrebe15.05.2513:35
Für solche Diskussionen liebe ich dieses Forum!
„Egal was du auch tust im Leben, gib immer 100%. Außer du gehst Blut spenden.“
+2
Gent
Gent24.05.2501:11
Hallöchen.

Ich habe das hier mit großem Interesse gelesen und wie auch schon angemerkt: finde es selber auch gut, dass hier in diesem Forum auch solche Diskussionen stattfinden. Danke dafür.

Aus Sicht eines professionell damit Beschäftigten aber finde ich folgende Prämissen als falsch: die Darstellung von Videomaterial hinsichtlich seiner Farbechtheit auf einem Computer-Monitor und via einem bestimmten Programm. Um das in einfacher Sprache (nicht angefasst fühlen, bitte, einfach mal "untechnisch") zu erklären:

In meinem Produktionsweg entsteht farbverbindliches Videomaterial über einen externen Output auf ein externes Wiedergabemedium. Das ist in erster Linie ein Klasse 1 Monitor, kann aber auch ein handelsüblicher TV sein.

Selbstverständlich sind mittlerweile Computermonitore wie auch Monitore von Handheld Devices ebensolche Ausspielorte, aber: die einem Programm inhärente Darstellung muss nichts mit dem finalen Output auf dem Computer-Monitor des originären Programms zu tun haben.
Dazu muss erstmal die Pipeline der Signalverarbeitung innerhalb des Programms geklärt sein, also: was wird wie auf den Monitor auf Programm-Ebene und was wird vom Programm auf den Monitor in der Darstellungs-/Ausgabe-Ebene geliefert.

In der Regel greifen zu viele, sich gegenseitig beeinflussende Einstellungsmöglichkeiten in die Darstellung auf Programmebene und anschließender Wiedergabe auf einem Computer-Monitor ein, deswegen setzen wir immer auf externe Wiedergabe: mein Klasse 1 macht ein Bild, das ist es. Alles andere hat dann eine falsche Einstellung oder ggf. eine Fehlinterpretation der Metadaten – ist aber nicht das Problem des Materials sonders des Interpreters.

Vielleicht entferne ich mich zu sehr von der Diskussion, ich mag also gerne deswegen vermuten, dass es in erster Linie um die Produktion nur für Computer- und Handheld Devices geht und den entsprechenden Diskussionsteilnehmern eben dieses – und nur dieses – am Herzen liegt.

Aber selbst hier ließe sich alles in Wohlgefallen auflösen, wenn ein externes Monitoring erstmal der Maßstab wäre.

wenn's da passt, passt's überall. Oder aber: etwas wurde vom User falsch gemacht, aber nicht vom Lieferanten.


Nachtgedanken zu einem seit langen in einem Tab offen schwirrenden Thread. Thanks for reading.

Cheers.
+5
Hapelein24.05.2513:04
Sehr spannend zu lesen @FlyingSloth!

Zwei Anmerkungen von mir dazu (ohne das passende Zitat)
Das DVD Cover manchmal anders aussehen als der Film ist doch ganz klar: das ist Werbung. Auch zu s/w Zeiten wurden Filmplakate farbig hergestellt und hatten damit mit dem "Look" des Filmes nix mehr zu tun.

Und ganz generell - die Wahrnehmung von Bilder, d.h. Farbe, Helligkeit, ist bei jedem Betrachter unterschiedlich. Es kann keine Aussage zu richtig oder falsch geben. Man kann nur theoretisch und technisch versuchen, eine einheitliche Grundlage zu schaffen. Denn, was auf der Empfängerseite passiert, hat kein Hersteller in der Hand. Da sind die möglichen Fehlerquellen unendlich. Und über Geschmack kann man eh nicht streiten.
+3
Weia
Weia25.05.2516:43
Hier nun endlich meine Antwort, sorry nochmal für die Verzögerung. Ich bin mit der Klarheit der Darstellung nicht wirklich zufrieden, aber besser kriege ich es in meiner augenblicklichen Situation nicht hin.

Damit das Ganze nicht explodiert, habe ich es in 4 Beiträge aufgeteilt. Der 4. Beitrag enthält meine Antworten auf FlyingSloth; die 3 Beiträge davor legen dafür die sachlichen Grundlagen, die ich benötige:
1. Farbphysikalische Voraussetzungen
2. Technikgeschichtliche Voraussetzungen
3. Computer-Farbmanagement



1. Farbphysikalische Voraussetzungen

Farbphysik ist eigentlich ein Oxymoron, denn Farbe gibt es in der physikalischen Welt ja überhaupt nicht, nur Lichtwellen unterschiedlicher Wellenlänge; erst unser Gehirn macht daraus Farben. Farbphysik gründet daher in Psychophysik; durch psychologische Experimente muss zunächst die Korrelation zwischen Lichtwellenlängen und Farbeindrücken ermittelt werden. Dies geschah um 1930 in zwei voneinander unabhängigen Experimenten in Europa mit zusammen gerade einmal 17 Probanden (soweit ich erinnere, (fast) alle Soldaten, d.h. jung, männlich, europäisch); auf deren Farbwahrnehmung gründet bis heute die gesamte Farbphysik samt ihrer technischen Anwendungen, was angesichts ihres universell bestätigten Erfolges bemerkenswert ist.

Daraus folgt zweierlei:

1.1. Mathematik

Die Gleichungen, mit denen der Zusammenhang zwischen Lichtwellenlängen und Farbwahrnehmung beschrieben wird (und in Folge alle Gleichungen der darauf aufbauenden Farbphysik), sind aufgrund ihres psychophysikalischen Ursprungs extrem „krumm“. Während unser Universum im Innersten von solch einfachen und insofern „eleganten“ Gleichungen wie E = mc² zusammengehalten wird, sind die elementaren Gleichungen der Farbphysik äußerst „unelegant“.

Erschwerend kommt hinzu, dass es 1930 noch keine Computer gab, mit denen man die Auswertung der experimentellen Daten hätte optimieren können. So blieben die damals entstandenen Formeln auf Näherungslösungen begrenzt, die verhindern, dass die Formeln eineindeutig, d.h. invertierbar sind.

Ein simples Beispiel: Tageslicht verändert sich je nach Wetter und Tageszeit bekanntlich auf der Gelb-Blau-Achse, aber nicht auf der Grün-Violett-Achse, ist also gewissermaßen eindimensional (nur eine Achse) und lässt sich daher mit einer eindimensionalen Kenngröße, der korrelierten Farbtemperatur in K (Kelvin), beschreiben, aber natürlich ebenso klassisch als zweidimensionale Chrominanz in x und y. Entsprechend gibt es Gleichungen für die Konvertierung von Tageslicht in x und y nach Tageslicht in K und umgekehrt; die kanonischen Gleichungen sind aber nicht invertierbar, sprich, es ist nicht eine Gleichung und ihre Umkehrung, sondern es sind zwei verschiedene (Näherungs-)Gleichungen. Das bedeutet praktisch, dass man mit einer mehrfachen Hin- und Herkonvertierung allmählich den berechneten Farbton des Tageslichts ändert. Das darf von der Sache natürlich nicht sein, ist aber eben den mathematisch in der damaligen Zeit möglichen Näherungslösungen geschuldet, die sich bis heute erhalten haben.

Es ist wichtig zu verstehen, dass das kein Indiz für eine Ungenauigkeit der Farbphysik als solcher ist, sondern nur Ausdruck der pragmatisch verwendeten Näherungsformeln. Ich habe in einem Forschungsprojekt die Formeln mit Computerunterstützung einmal so optimiert, dass sie bis einschließlich der 4. Nachkommastelle (weit unterhalb der Sichtbarkeitsschwelle) invertierbar sind. Das geht, aber das sind dann mathematische Ungetüme, die kein Mensch mehr überblicken, geschweige denn ohne Computer berechnen kann.


1.2. Psychologie

Da Farbe erst in unserer Wahrnehmung entsteht, ist ihre Erscheinung von Wahrnehmungsverzerrungen abhängig. Bekannt ist zum Beispiel die „optische Täuschung“, dass ein Quadrat in einem bestimmten Grauton je nach Grauton eines es umgebenden Rahmens unterschiedlich hell erscheint.

Um diesen Aspekt der Farbwahrnehmung in den Griff zu bekommen, wurden Farberscheinungsmodelle (color appearance models) eingeführt, die Abweichungen von den Standardbedingungen erfassen, unter denen die eingangs beschriebene Zuordnung von Lichtwellenlängen zu Farbeindrücken experimentell durchgeführt wurde.

Das grundlegendste dieser Farberscheinungsmodelle ist CIELAB (auch bekannt als L*a*b-Farbraum). CIELAB berücksichtigt genau einen, den wichtigsten Umgebungsparameter, die Lichtfarbe des Umgebungslichts. Diese Lichtfarbe ist entscheidend für die Wahrnehmung selbstleuchtender Objekte, die umso gelblicher erscheinen, je bläulicher das Umgebungslicht ist. Jeder kennt das vom abendlichen bläulichen Dämmerlicht (betrachtet durch ein Fenster aus einem mit Glühbirnen erleuchteten Innenraum) und vom gelblichen Licht, das abends aus den Fenstern der Häuser scheint (von draußen betrachtet). Dieses Phänomen hat seinen Grund darin, dass unser Gesichtssinn evolutionär die Fähigkeit zur chromatischen Adaption (dem „Weißabgleich“, der dafür sorgt, dass uns weißes Papier immer weiß erscheint, egal bei welchem Umgebungslicht) nur für eine Lichtquelle entwickelt hat (weil es in der Natur immer nur eine Lichtquelle gibt, die Sonne), aber nicht für mehrere Lichtquellen mit unterschiedlichen Weißpunkten.

CIELAB berücksichtigt den Weißpunkt des Umgebungslichts; ein L*a*b-Wert kann also immer nur relativ zu einem bestimmten Weißpunkt angegeben werden (oft verwendet, aber keineswegs zwingend, sind D50 (≈ 5000K, typisches Tageslicht bei Sonnenschein) und D65 (≈ 6500K, typisches Tageslicht bei bewölktem Himmel).

CIELAB ist das einfachstmögliche Farberscheinungsmodell. Differenziertere Modelle wie z.B CIECAM02 berücksichtigen viele weitere Phänomene, u.a. den Bartleson–Breneman-Effekt, der besagt, dass selbstleuchtende Bilder (z.B. auf Bildschirmen) bei geringer Umgebungshelligkeit weniger kontrastreich erscheinen. Allerdings ist noch nicht abschließend geklärt, ob das nur für Röhrenbildschirme und LCDs gilt (bei denen auch die Farbe Schwarz noch leuchtet) oder auch für OLED- und MicroLED-Bildschirme, wo Schwarz wirklich schwarz ist.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+9
Weia
Weia25.05.2516:44
2. Technikgeschichtliche Voraussetzungen

Im Gegensatz zu Audioaufnahmen, die bereits in den 1960er Jahren analog in einer Qualität möglich waren, die für unsere Ohren auch heute noch akzeptabel klingt, und der Fotografie, die erst dann von der Chemie zur (gleich digitalen) Elektronik wanderte, als das in hoher Qualität möglich war, hat die (Farb-)Videotechnik aufgrund des Mediums Fernsehen ihren Ursprung in einer Zeit, in der die Technik überhaupt noch nicht in der Lage war, Bewegtbilder in (aus heutiger Sicht) akzeptabler Qualität zu reproduzieren. Also musste man aus der Not der extrem beschränkten technischen Ressourcen eine Tugend machen, indem man die vorhandenen Technologien so geschickt kombinierte, dass man sich dem gewünschten Ergebnis wenigstens annähern konnte. Das war reine Improvisation, farbphysikalische Logik spielte dabei keinerlei Rolle. Ohnehin war noch alles analog, an Software, die Farbphysik hätte korrekt modellieren können, war gar nicht zu denken. Alles musste auf Hardware-Ebene geschehen. Dadurch hat sich in der Videotechnik ein Workflow herausgebildet und aufgrund des Beharrungsvermögens der Branche auch bis heute erhalten, der im Bereich der Computer-basierten digitalen Medientechnologien ein Fremdkörper ist, weswegen es immer wieder zu Clashs zwischen Video und dem Rest der Computerwelt kommt.

Ein Beispiel für die seinerzeitige Hardware-zentrierte Improvisation ist das Kontrastverhalten von Video. Bartleson and Breneman (siehe 1.2.) haben ihre Studie zwar erst 1967 veröffentlicht, aber qualitativ war der Effekt, dass der Bildkontrast bei geringerer Umgebungshelligkeit abzunehmen scheint, schon vorher bekannt. Da Videoproduktion ursprünglich ausschließlich im Hinblick auf die Fernsehwiedergabe erfolgte und man bei dieser davon ausging, dass sie typischerweise in einem Raum mit geringer Beleuchtung stattfinden würde, wollte man eine Erhöhung des Kontrasts bei der Videowiedergabe „einbauen“.

Damalige Röhrenmonitore hatten bauartbedingt eine Gradationskurve (üblicher ist der englische Begriff tone response curve), die über weite Strecken einer Gammakurve (= Potenzfunktion) von 2,4 entsprach (aber nicht komplett; approximiert man die Gradationskurve über den gesamten Helligkeitsbereich, entspricht sie näherungsweise einer Gammakurve von 2,24). Daher standardisierte man für Videokameras gezielt eine „falsche“ Gradationskurve, die über weite Strecken eine Gammakurve von 2,22 aufwies (approximiert auf den gesamten Helligkeitsbereich 1,96); durch diese bewusste Fehlanpassung zwischen Bildaufnahme und Bildwiedergabe wurde in die Hardware-Spezifikation eine Kontrasterhöhung bei der Wiedergabe eingebaut.

Was man damals technisch nicht ändern konnte, war der bauartbedingt bläuliche Weißpunkt der Röhrenbildschirme, der in der Nähe von 6500K liegt. Das ist eine geradezu groteske (und absolut unerwünschte) Fehlanpassung an das damals typischerweise zur Beleuchtung von Wohnzimmern benutzte Glühlampenlicht von ca. 2600K. Da für eine korrekte Farbwahrnehmung nur ein Weißpunkt existieren darf (siehe 1.2. Psychologie), funktionierte das nur mit derart gedämpftem Umgebungslicht, dass der Weißpunkt des Bildschirms für das Auge dominant war; andernfalls entstand der typische Eindruck eines „bläulichen“ Fernsehbildes.

In der digitalen Videotechnik existieren diese Hardware-Gegebenheiten nur noch als standardisierte Emulationen, ITU-R BT.709.5 für (HD-)Kameras und sRGB IEC 61966-2.1 für Monitore. Beide nutzen dieselben Grundfarben (primaries) und denselben Weißpunkt (D65), sind also bezüglich der Chrominanz korrekt aneinander angepasst, aber unterschiedliche Gradationskurven (approximiertes Gamma von ITU-R BT.709.5 1,96, von sRGB IEC 61966-2.1 2,24).
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+8
Weia
Weia25.05.2516:45
3. Computer-Farbmanagement

Korrekte Farbwiedergabe auf Computern begann erstmals bei hochwertigen Farbscans fürs Desktop Publishing eine Rolle zu spielen; in diesem Kontext entstand das Computer-Farbmanagement des dafür gegründeten International Color Consortiums (ICC).

Anders als bei einer „Konfiguration“ mittels Hardware-Spezifikationen ist eine Konfiguration der Farbwiedergabe via Software prinzipiell in ihren Möglichkeiten unbegrenzt anpassbar und kann daher die farbphysikalischen Zusammenhänge korrekt modellieren. Farbphysikalisch unsinnige und insofern willkürliche, rein konventionelle Festlegungen wie etwa der Weißpunkt von D65 für die Videowiedergabe könn(t)en ersatzlos entfallen.

Dieser Freiheit steht die Notwendigkeit gegenüber, auf einem Computer als einem Gerät für beliebige, Software-definierte Anwendungszwecke Farbkonsistenz zwischen all diesen Anwendungen zu gewährleisten.

Systematisch sind 3 Arten der Farbbehandlung zu unterscheiden:

3.1. Farberhalt/Farbkonsistenz
Wenn nicht einer der beiden folgenden Punkte zutrifft, dürfen sich Farben im Laufe der medialen Verarbeitung am Computer nicht ändern, auch wenn sie von einem Programm in ein anderes oder von einem Farbraum in einen anderen transferiert werden.

3.2. Farbanpassung
In Fällen, wo die Farben zwar erhalten bleiben sollen, aber aus farbphysikalischen Gründen ein verlustbehafteter Transfer der Farbdaten erforderlich ist, soll die Farbwahrnehmung so gut wie möglich erhalten bleiben.

Dies gilt namentlich in 2 Fällen:
3.2.1. Wenn die Farben von einem Farbraum in einen anderen transferiert werden sollen oder müssen und ein verlustloser Transfer nicht möglich ist, da sich in dem Zielfarbraum nicht alle Farben des Quellfarbraums darstellen lassen. Hier kann durch die Wahl des Rendering Intents der beste der möglichen Kompromisse gewählt werden.
3.2.2. Wenn die Farben aus der realen in die virtuelle digitale Welt (Kamera, Umgebungsbedingungen) und zurück (Bildschirm/Projektor, Umgebungsbedingungen, menschliche Wahrnehmung) transferiert werden sollen. Hier sind neben der Anpassung des Farbraums ggf. die einschlägigen Farberscheinungsmodelle (siehe 1.2. Psychologie) zu berücksichtigen.

3.3. Farbmodifikation
In diesem Fall sollen Farben aus ästhetischen Erwägungen ausdrücklich geändert werden. Das ist selbstverständlich möglich, aber auch hier gilt, dass diese nunmehr veränderten Farben anschließend wieder so gut wie möglich konstant gehalten werden sollen (3.1., 3.2.).


Systemisch sind für die gesamten Prozesse „innerhalb“ des Computers nur die Punkte 3.1., 3.2.1. und 3.3. relevant; 3.2.2. wiederum ist ausschließlich für die Grenzen zur Peripherie zuständig. Nur so ist die Farbkonsistenz aller Prozesse innerhalb des Computers zu gewährleisten.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+8
Weia
Weia25.05.2516:46
Hier nun die Antwort auf FlyingSloth.
FlyingSloth
Meine Motivation für diesen Thread ist schlicht und ergreifend die Tatsache, dass deine Behauptung – „Kein anderes NLE außer FCP sei in der Lage, farbakkurat unter macOS zu arbeiten“ – grundlegend falsch ist
Mein Augenmerk beim Thema Video-Farbmanagement liegt im Gegensatz zu Dir primär auf der Wiedergabeseite; die unterschiedlichen Schwerpunkte lassen sich leicht aus unserem beruflichen Verhältnis zu Video ableiten, bei Dir Produktion, bei mir Reproduktion. Konfrontiert wurde ich mit dem Thema erstmals, als ich außer dem QuickTime Player keinen Video-Player fand, der die Farben korrekt wiedergibt. Das ist meines Wissens bis heute so; wer noch einen anderen Video-Player kennt, der die Farben wie der QuickTime Player wiedergibt – für solche Hinweise wäre ich natürlich dankbar.

Zu den NLEs später.

Zum Kontext zunächst ein wichtiges Zitat aus dem Thread, aus dem auch die von Dir im Folgenden zitierten Kommentare stammen:
FlyingSloth
weia
QuickTime Player, iMovie und Final Cut Pro sind [korrekt programmiert].
Nein, nicht zwingend. Stichwort "quicktime gamma bug" oder in lang "MacOS AVFoundation removes the dim surround gamma compensation built into Rec709"

Auf diesen vermeintlichen Bug von QuickTime Player et al. beziehe ich mich im Folgenden.
weia
Es ist kein Bug, sondern physikalisch die korrekte Herangehensweise. Dass diese Herangehensweise Menschen, die nicht von der Physik, sondern der Videotechnik herkommen, in der historisch bedingt (Videotechnik entstand vor Multimedia-Computern) sich einige aus physikalischer Sicht seltsame Verfahrensweisen etabliert haben, Probleme bereitet, bestreite ich doch gar nicht.
Wenn Videotechnik – sowohl die aus der Zeit vor dem Einzug von Computern als auch die heutige – nicht auf physikalischen Grundsätzen basiert, wie du es behauptest, worauf beruht sie dann?
Das behaupte ich doch nirgendwo. Ich sage lediglich, dass Nutzer, die von der Videoproduktionsseite her kommen und daher oftmals kein tieferes physikalisches Verständnis mitbringen, etwas für einen Bug halten, was keiner ist.
Und was meinst du mit der schwammigen Beschreibung von „seltsamen Verfahrensweisen“? Das musst du bitte genauer erklären.
Es geht um die aus der damaligen Not des technisch Möglichen geborenen Verfahrensweise, die erwünschte Kompensation des Bartleson–Breneman-Effekts (1.2. Psychologie, letzter Absatz) durch eine gezielte Fehlanpassung der Gradationskurven von Kamera und Bildschirm zu erreichen (2. Technikgeschichtliche Voraussetzungen, 2. und 3. Absatz).

Emuliert man diesen Ansatz in einem digitalen Video-Player, führt das zwar pragmatisch zum gewünschten Ergebnis (der Kontrasterhöhung), aber an der systemisch falschen Stelle (3. Computer-Farbmanagement, letzter Absatz). Das bringt zwei Fehler mit sich:
  • A. Da die Kontrasterhöhung fest in den Video-Player eingebaut ist, lässt sie sich nicht abschalten, obwohl der Bartleson–Breneman-Effekt heute nicht mehr als zu kompensierend vorausgesetzt werden kann (nicht immer gedämpftes Umgebungslicht, OLED-Bildschirme).
  • B. Andere Programme weisen die Kontrasterhöhung bei der Bilddarstellung nicht auf, sodass die Bilddarstellung zwischen den Programmen inkonsistent wird.
Diese Probleme lassen sich nur lösen, wenn man den Bartleson–Breneman-Effekt stattdessen an der systemisch korrekten Stelle berücksichtigt, dem Monitor-Farbprofil für eine bestimmte Betrachtungssituation (denn der Effekt tritt zwischen Monitor und menschlichem Auge auf), und im Video-Player unberücksichtigt lässt. Letzteres tut der QuickTime Player (bzw. die ihm und auch Final Cut Pro zugrunde liegende AVFoundation) und alle anderen Player eben nicht. Die in dem von Dir verlinkten Artikel beklagte Differenz zwischen QuickTime Player und allen anderen Video-Playern stimmt, nur sind eben alle anderen Video-Player buggy und der QuickTime Player nicht.
weia
Es spricht auch nichts dagegen, dass bei Geräten, die ausschließlich für die Videoproduktion gedacht sind, diese historisch gewachsenen Verfahrensweisen weiterhin angewandt werden.
Doch, du sprichst vehement dagegen, indem du allen computerbasierten NLEs außer FCP absprichst, nicht korrekt zu arbeiten – was Farbraum und Colour Science anbelangt.
Ich spreche überhaupt nicht dagegen, solange die beiden oben aufgelisteten Fehler A und B nicht relevant sind. Das ist dann der Fall, wenn man tatsächlich unter gedämpftem Umgebungslicht auf einem Nicht-OLED-Bildschirm schneidet, keine anderen farbrelevanten Programme auf dem Computer nutzt (daher ausschließlich für die Videoproduktion gedacht im Zitat von mir) und das Monitor-Farbprofil lediglich CIELAB als Farberscheinungsmodell enthält (1.2. Psychologie).
Du hast dich offensichtlich noch nie ernsthaft mit professionellen NLEs auseinandergesetzt oder mit solchen unter realen Produktionsbedingungen gearbeitet und kennst eben nur FCP.

Apple kocht mit FCPX – und bereits mit FCP seit der Übernahme von Macromedia – sein eigenes Süppchen.
Naja, Apple würde halt gerne die „realen Produktionsbedingungen“ durch farbphysikalisch korrekte ersetzen. Dass das den Widerstand einer etablierten Industrie hervorruft, ist schon klar.
Bis heute ist die Software nicht in der Lage, unkomprimiertes RAW-Material von de-facto-Standardkameras ohne Zuhilfenahme externer Konverter nativ zu decodieren
Dazu kann ich nichts sagen, weil auf der Aufnahmetechnik nicht mein Augenmerk lag. Aber klar, das sind praxisrelevante Nachteile.
Und was bringt mir ein NLE, das auf einem Computermonitor zwar korrekte Farben ausgeben kann, wenn es bereits beim farblich korrekten Import grundlegend scheitert?
Naja, von grundlegend scheitern kann ja nun überhaupt nicht die Rede sein. Für meine Fragestellung – ob der QuickTime Player oder die anderen Video-Player die Farbe korrekt wiedergeben – war ja gerade das neutrale „Standard-Verhalten“ einer Kamera und nicht irgendwelche ausgefuchsten Optimierungsmöglichkeiten bei der RAW-Konvertierung entscheidend. Sowohl bei ARRI als auch bei Black Magic habe ich die Kamera-interne Konvertierung nach ProRes gemäß dem ITU-R-BT.709.5-Standard verwendet. Bei ARRI hieß die entsprechende Einstellung LOOK = REC 709, bei Blackmagic Dynamic Range = Video. In beiden Fällen führte die in macOS importierte ProRes-Datei im QuickTime Player zu einer messtechnisch perfekten Farbwiedergabe, bei allen anderen Video-Playern nicht.
weia
Die „professionelle Videotechnik“ ist diejenige, die in Form der Kontrastaufsteilung eine physikalisch falsche Konvertierung On The Fly vornimmt.
Das stimmt doch überhaupt nicht. Wie kommst du zu dieser verallgemeinernden Aussage, und womit willst du sie belegen?
Also bitte – die ganze Debatte begann mit Deinem verlinkten Zitat MacOS AVFoundation removes the dim surround gamma compensation built into Rec709. Darum, dass das abgesehen von AVFoundation immer geschieht, geht es doch. Ansonsten siehe 2. Technikgeschichtliche Voraussetzungen, letzter Absatz.
Natürlich hilft macOS auf der Ausgabeseite, einen konsistenten Look auf Computerbildschirmen zu gewährleisten. Doch sobald DCPs erstellt werden müssen oder das Material für professionelle Monitore und Projektoren wie von Sony oder Barco aufbereitet werden soll, stößt man mit dem in macOS integrierten Farbmanagement schnell an Grenzen – denn FCP bietet keine Möglichkeit, den passenden Farbraum für das Zielmedium als Referenz festzulegen.
Natürlich nicht, denn das Festlegen des Farbraums für das Zielmedium gehört systemisch nicht in den NLE, sondern in das Displayprofil. Da hindert Dich doch niemand, das für einen professionellen Monitor passende ICC-Profil auszuwählen. Keine Ahnung, warum Du beim Farbmanagement immer nur von Computermonitoren sprichst; ICC-Farbmanagement funktioniert für alle Arten von Displays und Projektoren.
Das mag für den Normalverbraucher akzeptabel oder sogar vorteilhaft sein, weil dieser sein Material ohnehin nur auf dem Mac-Monitor, iPhone oder iPad betrachtet. Doch sobald man sich im professionellen Bereich bewegt – etwa mit Class-A-Broadcast-Monitoren, Projektoren oder sogar Film-Ausbelichtungen für analoge Projektionssysteme – ist man mit FCP und macOS stark limitiert.
ICC-Farbmanagement unterscheidet nicht im Geringsten zwischen Normalverbraucher und Profi und funktioniert für beide gleichermaßen.
Deine Aussage ist allenfalls aus historischer Sicht teilweise zutreffend – nämlich aus der Zeit, als Kameras tatsächlich noch ein Videosignal ausgaben.
Nein, damit hat das nichts zu tun. Die Kontrasterhöhung ist ja (fälschlicherweise) ausdrücklich gewollt und in allen Video-Playern außer dem QuickTime Player absichtlich implementiert (NLEs entsprechend).
weia
Aber alle, die sich mit der Rezeption von Filmen professionell beschäftigen (Filmkritiker, Filmwissenschaftler), sind auf korrektes Farbmanagement angewiesen, wenn sie Videobilder in Pixelbilder übertragen
Die genannten Filmkritiker und Filmwissenschaftler mögen in ihrem Beruf als Filmkritiker oder Filmwissenschaftler professionell sein, doch bedeutet das nicht, dass sie sich zwingend mit der Erstellung und Verarbeitung dieser Medien auskennen oder professionell beurteilen können, wie etwas verarbeitet wird und welche Wege Bildsignale während der Bearbeitung nehmen.
Das müssen sie doch auch nicht. Sie müssen sich aber professionell bedingt darauf verlassen können, dass ein aus einem Video importiertes Standbild farbrichtig ist.
weia
Endverbraucher sind bezüglich der Farbwiedergabe oftmals genügsam bis indifferent oder bevorzugen gar falsche, effektvoll grelle Farben.
Das stimmt nur bedingt. Um bei deinen Filmkritikern und Filmwissenschaftlern zu bleiben: Beide Gruppen verhalten sich, wenn sie ihren Job gut machen, alles andere als indifferent und sind in diesem Fall dennoch Endverbraucher.
Das ist jetzt eine rein terminologische Frage. Ich meinte mit Endverbrauchern diejenigen, zu deren Unterhaltung Filme gedreht werden.
„Print“ ist doch eine komplett andere Baustelle und verwässert als Vergleich an dieser Stelle die Problematik nur.
Nein, für meine Arbeit ist genau das die entscheidende Baustelle: von einem Medium in ein völlig anderes unter Erhalt der korrekten Farben springen zu können. Genau das ist die zentrale Aufgabe von ICC-Farbmanagement.
weia
Das ist nicht überheblich, das ist schlichte Physik. Ob eine Farbe gleich bleibt oder sich verändert, kann man messen. Und das Messergebnis ist eindeutig, da gibt es in der Tat nichts zu diskutieren.
Wenn es so wäre, dass Messergebnisse bei Farbanalysen und Monitor-Kalibrierungen immer eindeutig sind, warum beruhen dann bei sämtlichen Methoden die Ergebnisse auf Durchschnittswerten von mehreren Messdurchgängen?
Weil das bei empirischer Physik immer so ist. Daran ist nichts Farbphysik-Spezifisches. Farbphysik ist eindeutig (siehe 1.1. Mathematik). Abgesehen davon: jeweils eine Messung hat angesichts der drastischen Abweichungen bei meinen Tests vollkommen ausgereicht, um festzustellen, dass der QuickTime Player die Farben korrekt wiedergibt und andere Video-Player nicht. Um subtilste Farbnuancen, von denen Du bei den mehreren Messdurchgängen zu sprechen scheinst, geht es hier gar nicht.
Um nochmal das HiFi-Bild zu verwenden: Ein guter, professioneller Verstärker muss zuallererst einen linealgeraden Frequenzgang liefern. Wenn man will, kann man dann zusätzlich Equalizer, Klangregler, Loudness-Filter etc. zuschalten, aber als Option. Die Nicht-Apple-Videosoftware hingegen verhält sich wie ein Verstärker mit fest eingebautem Loudness-Effekt, den man nicht abschalten kann.
Nein, es ist exakt umgekehrt: den „Video-Loudness-Filter“ a.k.a. Kontrasterhöhung zur Kompensation des Bartleson–Breneman-Effekts zwingen einem alle Video-Player außer dem QuickTime Player auf.
Allein die Tatsache, dass in FCP gängige Formate nicht nativ verarbeitet werden können, sondern erst eine Konvertierung in z. B. ProRes notwendig ist, kann eine Fehlerquelle in Bezug auf die Farben darstellen und kann bei falscher Konvertierung im schlimmsten Fall zu Abweichungen oder einer qualitativen Degradierung des Originalmaterials führen.
Das war bei meinen Tests aber definitiv nicht der Fall.
du wirst weder ARRI RAW noch BMRAW nativ in FCP importiert haben. Wie oben bereits ausführlich erklärt, ist das in FCP bis heute seitens Apple nicht ohne externe Konvertierung möglich. Da hilft dir auch ProRes nicht weiter, denn ProRes ist nicht das native, linearisierte und de-bayerte Signal des Kamerasensors, sondern bestenfalls eine Interpretation mit vielen Parametern, die je nach Geschmack verändert werden können.
Wenn man aber statt Einstellungen mit einer spezifischen Ästhetik die neutrale Standardeinstellung (ARRI: LOOK = REC 709, Blackmagic: Dynamic Range = Video) wählt, führt die Konvertierung nach ProRes zu einem messtechnisch perfekten Ergebnis. Besser geht nicht. Also.
Farblich falsch konvertiertes RAW-Material ist auch in ProRes immer noch farblich falsch.
Logisch. Da es aber in ProRes richtig war, dürfte es das auch im RAW-Original sein. Du traust den Konvertierungsalgorithmen der Hersteller offenkundig wenig zu.
weia
Aber um gleichzeitig auch Konsistenz mit der restlichen digitalen Medienwelt zu erreichen, darf eine dafür erforderliche Kontrastaufsteilung nicht in der Videosoftware, sondern nur im Farbprofil des Monitors vorgenommen werden und das kapiert aus irgendeinem Grund niemand außer Apple.
Das kapiert nicht nur Apple, sondern jeder Hersteller eines guten NLEs. Du kannst mit den korrekten Projekteinstellungen bei jedem namhaften NLE/Player wie Assimilate Scratch, Autodesk Smoke, Blackmagic DaVinci Resolve, Filmlight's Baselight und Daylight, Autodesk RV und RVIO, Colorfront Transcoder, Pomfort Silverstack und YoYotta eine farblich 100 % korrekte Wiedergabe erreichen, die einem genauen Referenztest standhält.
Mein Ausgangspunkt waren wie gesagt die Video-Player, von denen nur der QuickTime Player korrekt agierte. Da ich wusste, dass Final Cut Pro die Farben wie der QuickTime Player und also korrekt wiedergibt und ich tausendfache Lamenti aus der Video-Szene kenne, dass Final Cut Pro die Farben anders als alle anderen NLEs wiedergibt, folgt daraus logisch, dass alle anderen NLEs die Farben ebenso falsch wiedergeben wie alle anderen Video-Player.

Du weist mich jetzt darauf hin, dass andere NLEs bei entsprechenden Einstellungen die Farben ebenfalls korrekt wiedergeben können und demonstrierst das anhand von DaVinci Resolve. Umso besser, da lasse ich mich gerne belehren. Nur sind dann alle Lamenti falsch, einschließlich des von Dir verlinkten Artikels, mit dem unsere ganze Debatte begann.

Wie kann man (wie es der von Dir verlinkte Artikel tut) Final Cut Pro eines „Bugs“ bezichtigen, wenn der bei anderen NLEs einfach eine optionale Einstellung ist?

Wobei sich freilich die Frage stellt, warum nicht bei allen NLEs die farblich 100 % korrekte Wiedergabe die Default-Einstellung (oder besser noch: die einzige) ist.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+7
Weia
Weia25.05.2516:52
shakebox
Kann das evtl. irgendwie ein Punkt in Eurem Disput bzw. gegenseitigen Missverständnis sein?
Nein, ich denke eher, dass es an dem verschiedenen Augenmerk auf Produktion (FlyingSloth) bzw. Reproduktion (ich) liegt.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+1
Weia
Weia25.05.2517:16
Gent
Aus Sicht eines professionell damit Beschäftigten aber finde ich folgende Prämissen als falsch: die Darstellung von Videomaterial hinsichtlich seiner Farbechtheit auf einem Computer-Monitor und via einem bestimmten Programm.
Was sollte bei korrektem Farbmanagement dagegensprechen? Genau das ist der Sinn von Farbmanagement.
In meinem Produktionsweg entsteht farbverbindliches Videomaterial über einen externen Output auf ein externes Wiedergabemedium. Das ist in erster Linie ein Klasse 1 Monitor, kann aber auch ein handelsüblicher TV sein.
Naja, das ist genau der herkömmliche Video-Workflow, der auf (unflexible) Referenz-Hardware statt (flexibler) Farbmanagement-Software setzt, mit all seinen Problemen (keine Anpassung an unterschiedliche Wiedergabebedingungen).
In der Regel greifen zu viele, sich gegenseitig beeinflussende Einstellungsmöglichkeiten in die Darstellung auf Programmebene und anschließender Wiedergabe auf einem Computer-Monitor ein
Ein korrekt konfiguriertes Farbmanagement-System ist ebenso zuverlässig wie Referenz-Hardware, aber eben weit flexibler an unterschiedliche Umgebungsbedingungen anpassbar.
deswegen setzen wir immer auf externe Wiedergabe: mein Klasse 1 macht ein Bild, das ist es. Alles andere hat dann eine falsche Einstellung oder ggf. eine Fehlinterpretation der Metadaten – ist aber nicht das Problem des Materials sonders des Interpreters.
Das erinnert mich an das Vorgehen in der klassischen Druckindustrie: da wird der Druck immer unter D50-Licht abgenommen. Einen farbphysikalischen Grund dafür gibt es nicht, wohl aber eine quasi juristische Konvention: wenn der Druck unter D50 stimmt, kann sich der Abnehmer des Druckerzeugnisses nicht beschweren, ganz egal, wie der Druck aufgrund von Metamerie-Effekten unter anderem Licht aussieht. Völlig entfernt von realen Rezeptionsbedingungen, aber rechtlich auf der sicheren Seite. Das ist kein farbphysikalisches, sondern ausschließlich ein juristisches Kriterium.
Vielleicht entferne ich mich zu sehr von der Diskussion, ich mag also gerne deswegen vermuten, dass es in erster Linie um die Produktion nur für Computer- und Handheld Devices geht und den entsprechenden Diskussionsteilnehmern eben dieses – und nur dieses – am Herzen liegt.
Dank Farbmanagement kann und muss ein Video auf allen Geräten korrekt wiedergegeben werden können. Ein bestimmtes Wiedergabemedium – egal, ob nun Smartphone oder High-End-Referenzmonitor – darf eben gerade nicht in das Video eincodiert sein, soll es universell verwendet werden können.

So, wie eine Broschüre nicht in CMYK erstellt werden darf, um sowohl gedruckt als auch als PDF verbreitet werden zu können.
Aber selbst hier ließe sich alles in Wohlgefallen auflösen, wenn ein externes Monitoring erstmal der Maßstab wäre.

wenn's da passt, passt's überall.
Eben nicht. Auf dem iPad bei Tageslicht betrachtet passt es dann nicht.
Oder aber: etwas wurde vom User falsch gemacht, aber nicht vom Lieferanten.
Das ist wieder juristisch gedacht, nicht physikalisch.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+2
Weia
Weia25.05.2517:23
Hapelein
Zwei Anmerkungen von mir dazu (ohne das passende Zitat)
Das DVD Cover manchmal anders aussehen als der Film ist doch ganz klar: das ist Werbung. Auch zu s/w Zeiten wurden Filmplakate farbig hergestellt und hatten damit mit dem "Look" des Filmes nix mehr zu tun.
Darum geht es aber nicht. Es geht nicht um intendierte Stilisierung, sondern um offenkundige Abweichungen aufgrund von falsch eingestelltem Farbmanagement.
Und ganz generell - die Wahrnehmung von Bilder, d.h. Farbe, Helligkeit, ist bei jedem Betrachter unterschiedlich. Es kann keine Aussage zu richtig oder falsch geben.
Das ist eben falsch. Es hat sich empirisch erwiesen, dass alle 8 Milliarden Menschen Farbe so wahrnehmen wie die 17, mit deren Hilfe die Farbphysik ins Leben gerufen wurde.
Und über Geschmack kann man eh nicht streiten.
Das ist klar. Mit Geschmack hat Farbwahrnehmung aber nichts zu tun. Ein identisch wahrgenommener Blauton kann dem einen gefallen und dem anderen nicht.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
0
Hapelein25.05.2521:12
Weia
Hapelein
Zwei Anmerkungen von mir dazu (ohne das passende Zitat)
Das DVD Cover manchmal anders aussehen als der Film ist doch ganz klar: das ist Werbung. Auch zu s/w Zeiten wurden Filmplakate farbig hergestellt und hatten damit mit dem "Look" des Filmes nix mehr zu tun.
Darum geht es aber nicht. Es geht nicht um intendierte Stilisierung, sondern um offenkundige Abweichungen aufgrund von falsch eingestelltem Farbmanagement.

Ich halte nicht alle Bearbeiter für blöde.
Weia
Und ganz generell - die Wahrnehmung von Bilder, d.h. Farbe, Helligkeit, ist bei jedem Betrachter unterschiedlich. Es kann keine Aussage zu richtig oder falsch geben.
Das ist eben falsch. Es hat sich empirisch erwiesen, dass alle 8 Milliarden Menschen Farbe so wahrnehmen wie die 17, mit deren Hilfe die Farbphysik ins Leben gerufen wurde.

Weil auch >empirisch< besonders genau ist. Ich bleibe dabei, jeder nimmt Farben unterschiedlich wahr. Läßt sich auch wirklich schwer messen.
Weia
Und über Geschmack kann man eh nicht streiten.
Das ist klar. Mit Geschmack hat Farbwahrnehmung aber nichts zu tun. Ein identisch wahrgenommener Blauton kann dem einen gefallen und dem anderen nicht.

Na, wenigsten was…
0
Weia
Weia26.05.2500:09
Hapelein
Weia
Und ganz generell - die Wahrnehmung von Bilder, d.h. Farbe, Helligkeit, ist bei jedem Betrachter unterschiedlich. Es kann keine Aussage zu richtig oder falsch geben.
Das ist eben falsch. Es hat sich empirisch erwiesen, dass alle 8 Milliarden Menschen Farbe so wahrnehmen wie die 17, mit deren Hilfe die Farbphysik ins Leben gerufen wurde.
Weil auch >empirisch< besonders genau ist.
Ich weiß nicht genau, was Du mit dieser Aussage meinst.
  • Dass Empirie keine besonders genauen Ergebnisse zeitigt? Das wäre ersichtlich denkbar falsch in einer durch und durch naturwissenschaftlich-technisch geprägten Welt.
  • Oder, dass ich empirisch erwiesen nicht genau genug ausgeführt habe? Meine Antwort auf FlyingSloths Frage wird für viele eh schon wieder viel zu lang gewesen sein; Du kannst nicht erwarten, dass ich die psychophysikalischen Tests hier im Detail beschreibe. Wenn Dich interessiert, wie man das methodologisch macht, kannst Du es nachlesen.
Ich bleibe dabei, jeder nimmt Farben unterschiedlich wahr.
Genau, warum sollte man seine vorgefasste Meinung auch wegen bloßer Fakten ändern … 🙄
Läßt sich auch wirklich schwer messen.
Das lässt sich genau messen. Unsere ganze heutige farbige Multimedia-Welt wäre ohne Farbphysik technisch nicht möglich. Und die gesamte Farbphysik beruht auf der objektiven Gültigkeit der damaligen Messung der menschlichen Farbwahrnehmung.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+1
Mutabaruga26.05.2510:01
Zum Punkt 1.2 Farbpsychologie:
Der automatische Weißabgleich beim menschlichen Sehen versucht, je nach Lichtquelle trotzdem eine brauchbare Farbempfindung zu erzielen. Die Sonne als einzige Lichtquelle der Natur anzusehen, ist ... vereinfachend?
Es gibt noch Mondlicht, Vulkane, Glühwürmchen, Meeresleuchten, Nordlichter, ...
Und wie Du selbst sagst: das Spektrum der Sonne unterliegt den Einwirkungen der Erdatmosphäre, ist also tageszeitlich auch nicht immer gleich.

Ist ein glühendes Stück Eisen keine natürliche Lichtquelle?

Es gibt in der Physik den Begriff des idealen schwarzen Strahlers. Von dessen Oberfläche werden Lichtwellen ohne materialabhängige Bevorzugung bestimmter Wellenlängen ausgestrahlt: nur abhängig von der Temperatur des Körpers wird ein kontinuierliches Spektrum abgestrahlt. Diesem Spektrum (die Menge der jeweiligen Wellenlängen darin) liegt das Plancksches Strahlungsgesetz zugrunde. Wurde früher im Physikunterricht der Oberstufe eines Gymnasiums behandelt.

Zitat von https://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz:
Weiterhin vereinigte und bestätigte das Plancksche Strahlungsgesetz Gesetzmäßigkeiten, die schon vor seiner Entdeckung teils empirisch, teils aufgrund thermodynamischer Überlegungen gefunden worden waren:

das Stefan-Boltzmann-Gesetz, das die abgestrahlte Leistung eines Schwarzkörpers (proportional zu T) angibt.
das Rayleigh-Jeans-Gesetz, das die spektrale Energieverteilung für große Wellenlängen beschreibt.
das Wiensche Strahlungsgesetz, das die spektrale Energieverteilung für kleine Wellenlängen wiedergibt.
das Wiensche Verschiebungsgesetz, das den Zusammenhang zwischen Emissionsmaximum eines Schwarzkörpers und seiner Temperatur herstellt.
Zur Verdeutlichung: das Spektrum eines glühenden Wolframdrahtes ist abhängig davon, wie heiß der Wolframdraht ist. Da sich Wolfram wie ein idealer schwarzer Strahler verhält, reicht zur Angabe des Spektrums die Farbtemperatur: hat er eine Temperatur von 1000 °C, ist seine Farbtemperatur 1.273°K.

Hier eine Übersicht von dieser Seite, welche Wellenlängen ein Körper einer bestimmten Temperatur ausstrahlt:


Interessant dabei: ab welcher Temperatur es einen UV-Anteil im Spektrum gibt. Bei Halogenlampen mit einer Farbtemperatur von 3.000 K kennt man ja deren schädliche ausbleichende Auswirkung auf Gemälde.

Eine weitere Erhöhung der Farbtemperatur bringt kaum noch eine Heligkeitszunahme im sichtbaren Spektrum, aber eine deutliche Zunahme im UV-Bereich. Autoscheinwerfer mit 6.000 K sind also ideal, um Wäsche zu bleichen und da an der Erdoberfläche erzeugt, greift die UV-Filterung der Erdatmosphäre nicht.
+1
Mutabaruga26.05.2510:19
Man erkennt auch gut, warum Halogenlicht gelber wahrgenommen wird: es enthält bei 3.000 K einfach deutlich mehr Rot als Blau. Während bei Sonnenlicht mit 5.777 K der Verlauf des Spektrums nahezu waagerecht im sichtbaren Bereich verläuft, also gleich viel Rot und Blau enthalten sind.

In der Wohnung bei 300 K strahlen die Gegenstände nur im infraroten Bereich, somit für Menschen nicht sichtbar.

Das als kleiner Exkurs und Vertiefung zur tatsächlichen physikalischen Grundlage.
+1
Mutabaruga26.05.2510:40
Auch wenn man zwei Lichtquellen mit unterschiedlicher Farbtemperatur hat, nimmt das Augen alle vorhandenen "Pixel" auf der Netzhaut, um mit ihnen einen Weißabgleich zu machen. Das Sonnenlicht erscheint blauer, das Kerzenlicht gelber.

Manche Sachen werden vom Auge ans Gehirn weitergeleitet, eine Kontrastverstärkung findet allerdings schon im Auge selbst statt. Zwei benachbarte Pixel werden verglichen und bei Ungleichheit beide in ihrem Wert zum Nachbarpixel überhöht.
Dadurch ist der Mensch in der Lage, auch sehr kleine Unterschiede, weil sie bereits im Auge ermittelt und verstärkt werden, wahrzunehmen. Hardwaremäßig im Auge durch Verknüpfung der Nervenzellen (Komparatorschaltung) realisiert, muss nicht mehr im Gehirn aufbereitet werden.
+2
Weia
Weia26.05.2510:50
Mutabaruga
Zum Punkt 1.2 Farbpsychologie:
Der automatische Weißabgleich beim menschlichen Sehen versucht, je nach Lichtquelle trotzdem eine brauchbare Farbempfindung zu erzielen. Die Sonne als einzige Lichtquelle der Natur anzusehen, ist ... vereinfachend?
Es gibt noch Mondlicht, Vulkane, Glühwürmchen, Meeresleuchten, Nordlichter, ...
Es geht um eine einzige Lichtquelle im jeweiligen Moment; der Mond scheint nur, wenn die Sonne nicht scheint. Glühwürmchen sind nicht hell genug, Vulkane brechen glücklicherweise nur ab und an aus und Meeresleuchten und Nordlichter dürften auch ephemer mehr sein. Für die Evolution des Gesichtssinns spielen sicherlich nur Sonnenlicht und vielleicht auch noch Mondlicht eine Rolle.
Und wie Du selbst sagst: das Spektrum der Sonne unterliegt den Einwirkungen der Erdatmosphäre, ist also tageszeitlich auch nicht immer gleich.
Natürlich nicht, sonst wäre ja gar keine chromatische Adaption erforderlich. Es geht lediglich darum, dass zu jedem gegebenen Zeitpunkt genau ein universeller Weißpunkt im Umgebungslicht existiert, egal, welchen Wert er hat.

Und ja, natürlich ist die Darstellung vereinfachend und nur darauf bezogen, was für die hiesige Diskussion benötigt wird; das ist eh schon zu lang. Eine generelle Einführung in die Farbphysik sollte das jetzt nicht werden.
Ist ein glühendes Stück Eisen keine natürliche Lichtquelle?
Wo sollte denn in der Natur ein glühendes Stück Eisen herkommen?
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+2
Mutabaruga26.05.2510:57
Einmalig im Text die Abkürzung NLE zu erklären, wäre dem Verständnis förderlich.

Und ebenfalls ins Detail zu gehen, weil sonst stehen sich nur Behauptung und Gegenbehauptung unbearbeitbar und unnachvollziehbar gegenüber. Verschwendete Zeit für alle Beteiligten mit dem Nachgeschmack, man kommt nicht zueinander und man kann alles behaupten, was man nur will.

Ein seriöser Wissenschaftler und Argumentierer geht ins Detail. Das ist der Ort der Wahrheitsfindung.
Alles andere sind unfundierte Schaukämpfe.
+1
Mutabaruga26.05.2511:02
Es ist immer wieder das gleiche mit Dir: den anderen Nachvollziehen ist nicht Deins.
Den Mond kann man auch am Tag am Himmel sehen. Aber das sind unnötige Spitzfindigkeiten, an denen man sich nur aufhängt, wenn man das als Argumentationsprinzip pflegt.
-2
mabi26.05.2511:13
Vielen Dank für diesen super sachlichen Thread hier! Für mich als Naturwissenschaftler ohne konkreten (professionellen) Bezug zu Film und Bild, ist das ganze spannend und der "Disput" ist eigentlich kein wirklich grundlegender. Ich verstehe die Daumen-Runter für Weia nicht wirklich, da er für mich eine wissenschaftlich saubere und eindeutige Argumentation hinlegt– "natürlich" (da schließe ich mich ohne professionelles Lobby-Interesse voll an) sind neutrale Farbdaten bis zum Zeitpunkt der Wiedergabe das eigentlich Sinnvollste. Das ist ja die Essenz von Farbmanagement. Erst beim Betrachten kommt das Medium und die momentanen Umstände (Umgebungslicht) zum Tragen, also sollte auch erst dann die Farbwiedergabe der Situation entsprechend angepasst werden. Und das ist die Funktion und Kernaufgabe des ICC-Profils des Wiedergabemediums (Consumermonitor, Profimonitor, Kinoprojektor, glossy Fotoabzug, matter Posterprint, ...).
+6
Mutabaruga26.05.2511:15
Ohne groß zu wissen, was Final Cut Pro (FCP) und Final Cut Pro X (FCPX) und andere rechnen:
es macht doch Sinn, hardware-spezifische Dinge in Dateien auszulagern. Hier ist beschrieben, wie das jeweilige RAW-Format zu interpretieren ist. Nachdem das geschehen ist, kann quellenunabhängig einheitlich damit weitergerechnet werden.

Wo ist da der Unterschied zu nativ zu sehen? Das ist bei Eurer bisherigen Darlegung nicht erklärt worden.
Auch da: man fängt am Anfang an. Und muss dann auch dort ins Detail gehen. Zumindestens so weit, bis man den Unterschied beider Standpunkte erreicht hat.
+2
Weia
Weia26.05.2511:17
Mutabaruga
Einmalig im Text die Abkürzung NLE zu erklären, wäre dem Verständnis förderlich.
Ich habe den Begriff aus der Frage von FlyingSloth übernommen; dort taucht er erstmals auf und hätte wenn, dann an dieser Stelle erklärt werden müssen.
Und ebenfalls ins Detail zu gehen, weil sonst stehen sich nur Behauptung und Gegenbehauptung unbearbeitbar und unnachvollziehbar gegenüber.
Du willst jetzt aber nicht ernsthaft behaupten, meine Antwort auf FlyingSloth sei zu kurz gewesen?
Ein seriöser Wissenschaftler und Argumentierer geht ins Detail. Das ist der Ort der Wahrheitsfindung.
Alles andere sind unfundierte Schaukämpfe.
Ich habe nicht die geringste Absicht, mit FlyingSloth zu kämpfen; ich wollte einfach seine Fragen beantworten, so gut es im Rahmen eines Forums wie MacTechNews geht.

Und wie gesagt: der Dauervorwurf an mich ist, dass meine Beiträge zu detailliert und lang sind. Man kann mit zu vielen Details auch die Signal-to-Noise-Ratio verschlechtern; Dein Exkurs zu schwarzen Strahlern etwa ist sicherlich korrekt, ich sehe aber nicht, dass er irgendetwas zum hiesigen Thema beiträgt.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
Abercrombie26.05.2511:18
Mutabaruga
Es ist immer wieder das gleiche mit Dir: den anderen Nachvollziehen ist nicht Deins.
Den Mond kann man auch am Tag am Himmel sehen.
Es ging Weia doch darum, dass es während der Entwicklung des Auges über Millionen Jahre immer nur eine (dominante) Lichtquelle vorhanden war und deswegen das Auge nur die Fähigkeit entwickelt hat sich an eine Farbtemperatur gleichzeitig zu adaptieren.
+6
Weia
Weia26.05.2511:21
Mutabaruga
Den Mond kann man auch am Tag am Himmel sehen.
Ja, man kann ihn sehen, aber als Lichtquelle spielt er am Tag keine Rolle.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+6
mabi26.05.2511:21
Mutabaruga
Es ist immer wieder das gleiche mit Dir: den anderen Nachvollziehen ist nicht Deins.
Den Mond kann man auch am Tag am Himmel sehen. Aber das sind unnötige Spitzfindigkeiten, an denen man sich nur aufhängt, wenn man das als Argumentationsprinzip pflegt.

Sorry, als Biologe kann ich auch hier nur Weia beipflichten: natürlich ist das Sonnenlicht die mit weitem Abstand relevanteste Lichtquelle, auf der das menschliche Farbsehen basiert. Das Mondlicht ist selbst bei unbedecktem Himmel und Vollmond zu gering, um unsere "Farb-Pixel" im Auge (Zäpfchen) hinreichend zu versorgen, darum sehen wir bei Vollmond viel weniger Farbschattierungen sondern hauptsächlich hell-dunkel (Stäbchen). Zur Info: Vollmond bestenfalls 0,5 Lux, Tageslicht bis ca. 100.000 Lux. Die Evolution hat uns, als tagaktive Tiere, ein starkes Tages-Sichtvermögen gegeben, Farben spielen für uns nur bei Sonnenlicht eine (lebens-)wichtige Rolle. Von daher: keine Vereinfachung seitens Weia, sondern völlig korrekt.
+9
Mutabaruga26.05.2512:25
Der schwarze Strahler ist insofern wichtig, als dass er zeigt, dass die Sonne eine ideale Beleuchtungsquelle mit einem kontinuierlichen Spektrum nahezu gleicher Intensität für jede Farbe des für uns sichtbaren Lichts ist. Halogenlicht hingegen nicht so sehr. Es erklärt außerdem die Kennzeichnung einer Lichtquelle mit ihrer Farbtemperatur.
Ein guter Youtube-Beitrag dazu ist

Ich weiß, das verbreitert gerade die Diskussion, aber wenn hier bisher schon nicht auf die Unterschiede genau eingegangen wurde, so ist das der Versuch, konkreter zu werden.

Abercrombie
Da das Tageslicht ja tageszeitabhängig ist, hatte das Auge die Möglichkeit, zu jeder tageszeitangepasst diesen Weißabgleich zu machen. Oder brauchst Du einen Sonnenstand um 12 Uhr mittags, um zu beurteilen, ob ein Stück Papier weiß ist?

mabi
Was Du sagst, ist korrekt. Aber Tageslicht ist eben tageszeitabhängig und darauf stellt sich das Auge ein. Wie auch auf jede andere Lichtquelle. Dass es bei der Helligkeit des Mondes nicht zu intensiver Farbwahrnehmung kommt, ist wahr. Aber wie sieht ein Foto- oder Filmstudio aus? Wird da Tageslicht reingelassen?

Also haben wir es doch abgesehen mal von Freilandaufnahmen auch mit Studiolicht zu tun, für das die Farbinformationskette auch funktionieren muss.
Und wir haben Kamera-Sensoren, die sich in ihrer Empfindlichkeit nicht am menschlichen Sehpurpur orientieren dürften, das kurioserweise beim Pantoffeltierchen noch schnöde als Schattenwerfer eingesetzt wurde/wird.

Es ist nach wie vor nicht klar, worin jetzt der Unterschied FCP/FCPX zu anderen Programmen ist.
Und wir könnten bei der Berechnung des gelieferten Videosignals anfangen.

Und mein Beispiel mit der Kontrastverstärkung im menschlichen Auge zeigt: auch da wird schon sehr früh manipuliert.
+3
wolfgag
wolfgag26.05.2513:06
Sorry Weia aber im Endeffekt schreibst Du hier, daß die komplette, Post-Pro Industrie seit jeher alles falsch macht und nur Apple mit seiner, eher an Prosumer gerichteten, Schnittsoftware recht hat. Dabei ignorierst Du konsequent alle vorhandenen Video- bzw Digitalen Filmformate ausser das (Apple eigene) ProRes und zB die Tatsache, das Resolve seit Jahren der Golstandard für professionelles color grading ist und ordentlich kalibrierte Klasse 1 Monitore nun mal eine tausendmal bessere Referenz sind als irgendein verspiegeltes MacBook Display.
Mag schon sein, daß FCP für Deinen persönlichen Workflow bestens funktioniert aber bitte hör doch mal auf immer von Dir auf andere zu schließen, zumal Du doch, nach eigenen Angaben, eh nichts mit der Produktionsebene zu tun hast.
-3
wolfgag
wolfgag26.05.2513:10
Weia
Ist ein glühendes Stück Eisen keine natürliche Lichtquelle?
Wo sollte denn in der Natur ein glühendes Stück Eisen herkommen?
Und wo sollte in der Natur ein ProRes Clip herkommen
-3
Weia
Weia26.05.2513:23
Mutabaruga
Ich weiß, das verbreitert gerade die Diskussion, aber wenn hier bisher schon nicht auf die Unterschiede genau eingegangen wurde, so ist das der Versuch, konkreter zu werden.
Dieser Thread startet mit ziemlich spezifischen Fragen bezüglich der Farbwiedergabe von digitalem Video. Ich denke, es ist sinnvoll anzunehmen, dass Leser, die ein solches Thema interessiert, mit den Grundbegrifflichkeiten der Farbwiedergabe vertraut sind und es unnötig ablenkend ist, bei Adam und Eva anzufangen.
Da das Tageslicht ja tageszeitabhängig ist, hatte das Auge die Möglichkeit, zu jeder tageszeitangepasst diesen Weißabgleich zu machen. Oder brauchst Du einen Sonnenstand um 12 Uhr mittags, um zu beurteilen, ob ein Stück Papier weiß ist?
Nein, die chromatische Adaption bedeutet doch gerade, dass das nicht nötig ist. Aber wofür soll das ein Argument sein? Du scheinst eine Vielzahl möglicher Weißpunkte, die eine einzelne Lichtquelle annehmen kann, mit einer Vielzahl möglicher gleichzeitiger Lichtquellen mit unterschiedlichen Weißpunkten zu verwechseln. Ersteres ist dank der chromatischen Adaption des menschlichen Auges kein Problem, Letzteres schon.
Was Du sagst, ist korrekt. Aber Tageslicht ist eben tageszeitabhängig und darauf stellt sich das Auge ein. Wie auch auf jede andere Lichtquelle. Dass es bei der Helligkeit des Mondes nicht zu intensiver Farbwahrnehmung kommt, ist wahr. Aber wie sieht ein Foto- oder Filmstudio aus? Wird da Tageslicht reingelassen?
Es geht bei diesem Punkt ausschließlich um die evolutionären Bedingungen, die dazu geführt haben, dass unser Gesichtssinn nur Licht mit einem einzigen Weißpunkt farbkorrekt verarbeiten kann. Spielen Foto- und Filmstudios in der Evolution eine Rolle? Nein. Also.

Ich weiß nicht, warum Du dich daran aufhängst. Das ist eigentlich nur eine eher triviale Randbedingung.
Es ist nach wie vor nicht klar, worin jetzt der Unterschied FCP/FCPX zu anderen Programmen ist.
Wenn Dir das jetzt noch nicht klar ist, dann siehst in Deinem Beharren auf unwichtigen Details den Wald vor lauter Bäumen nicht. Final Cut Pro bzw. das zugrundeliegende AVFoundation-Framework erhöht nicht künstlich den Kontrast zur Kompensation des Bartleson–Breneman-Effekts, der unter heutigen Rezeptionsbedingungen nicht mehr vorausgesetzt werden kann und falls vorhanden stattdessen an der systemisch richtigen Stelle, dem ICC-Monitorprofile berücksichtigt werden muss.
Und wir könnten bei der Berechnung des gelieferten Videosignals anfangen.
Was willst Du denn da berechnen? Das Videosignal hat mit dem Problem absolut nichts zu tun; den Kontrast kann man vollkommen unabhängig von der spezifischen Art de Videosignal erhöhen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
Abercrombie26.05.2513:38
Mutabaruga
Abercrombie
Da das Tageslicht ja tageszeitabhängig ist, hatte das Auge die Möglichkeit, zu jeder tageszeitangepasst diesen Weißabgleich zu machen. Oder brauchst Du einen Sonnenstand um 12 Uhr mittags, um zu beurteilen, ob ein Stück Papier weiß ist?
Nein, brauche ich nicht. Aber möglichst Lichtquellen (egal ob natürlich oder künstlich, warm oder kalt) mit sehr ähnlicher Farbtemperatur. Wenn zwei identisch helle Lichtquellen mit stark abweichenden Farbtemperaturen gleichermaßen ein Blatt beleuchten, kann ich die Farben auf dem Blatt nämlich nicht gut beurteilen.
+3
Weia
Weia26.05.2513:44
wolfgag
Sorry Weia aber im Endeffekt schreibst Du hier, daß die komplette, Post-Pro Industrie seit jeher alles falsch macht und nur Apple mit seiner, eher an Prosumer gerichteten, Schnittsoftware recht hat.
Ja, das ist so. Kein Grund, sich für diese Feststellung zu entschuldigen.

Allerdings gab es früher keine anderen Möglichkeiten, sodass – wie ich ja geschrieben habe – nachvollziehbar ist, wieso das ursprünglich so gemacht wurde. Nur jetzt ginge es eben besser.
Dabei ignorierst Du konsequent alle vorhandenen Video- bzw Digitalen Filmformate ausser das (Apple eigene) ProRes
Mit dem Filmformat und im Speziellen ProRes hat das alles nicht das Geringste zu tun. Man kann bei allen Filmformaten den Kontrast künstlich erhöhen oder es bleiben lassen.
und zB die Tatsache, das Resolve seit Jahren der Golstandard für professionelles color grading ist
Ich habe ja nun erfahren, dass auch DaVinci Resolve sich so konfigurieren lässt, dass es der Farbphysik gehorcht. Dass viele (die meisten?) Nutzer diese Konfiguration nicht nutzen, ist gerade das Problem, auf das ich hinweisen will.
und ordentlich kalibrierte Klasse 1 Monitore nun mal eine tausendmal bessere Referenz sind als irgendein verspiegeltes MacBook Display.
Wo plädiere ich für verspiegelte MacBook-Displays? Ich plädiere für korrektes Farbmanagement, also für einen Workflow, der gerade nicht auf irgendeine spezifische Hardware und spezifische Umgebungsbedingungen fixiert ist.
Mag schon sein, daß FCP für Deinen persönlichen Workflow bestens funktioniert aber bitte hör doch mal auf immer von Dir auf andere zu schließen, zumal Du doch, nach eigenen Angaben, eh nichts mit der Produktionsebene zu tun hast.
Ich schließe nicht von mir auf andere, ich begründe, warum Apples Ansatz aus farbphysikalischer Sicht korrekt ist.
wolfgag
Weia
Ist ein glühendes Stück Eisen keine natürliche Lichtquelle?
Wo sollte denn in der Natur ein glühendes Stück Eisen herkommen?
Und wo sollte in der Natur ein ProRes Clip herkommen
Entweder ist diese verunglückte Parallelisierung ein misslungener Versuch, witzig zu sein, oder sie ist Ausdruck davon, dass Du den Punkt überhaupt gar nicht verstanden hast.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+5
Murx26.05.2514:07
Interessanter Thread.
Die Aussage weiter oben, dass alle Menschen die gleiche Farbwahrnehmung haben, muss ich etwas relativieren.
Es ist bloß anzunehmen, dass alle gesunden Menschen eine sehr ähnliche Farbwahrnehmung haben müssten.
Sonst hätte ich als Kind auch im hellsten Sonnenlicht nicht regelmäßig zu einem lila Stift gegriffen, um den Himmel in meinem Bild auszumalen - bei hellgrüner Sonne.
Mein Bruder ist Filmer - ich musste mich beruflich für was anderes entscheiden.
+3
Weia
Weia26.05.2514:21
Murx
Die Aussage weiter oben, dass alle Menschen die gleiche Farbwahrnehmung haben, muss ich etwas relativieren.
Es ist bloß anzunehmen, dass alle gesunden Menschen eine sehr ähnliche Farbwahrnehmung haben müssten.
Ja, das ist natürlich völlig korrekt und hier der Kürze halber vereinfacht gewesen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+4
Mutabaruga26.05.2514:54
Mit dem Pigment war nicht das Pantoffeltierchen, sondern das Augentierchen, ist 45 Jahre her, dass ich das gelesen habe.

FlyingSloth hat das Forum gewählt, dass es teilhaben soll. Sonst hätte er Dich auch nur direkt kontaktieren können.

Mag FlyingSloth beurteilen, ob ihm Deine Antwort gefällt.

Wenn das jetzt also ein Thread für Experten auf dem Gebiet ist, dann meinetwegen. Bleiben die anderen blöd.
Warum wird dann aber dies Forum als Begründung von Dir dafür herangezogen, nicht ins Detail zu gehen?
Logisch oder unlogisch?

Für mich ist es mal wieder unbefriedigend. Ich könnte hier mit einem anderen Forumsmitglied auch ein Thema aufmachen, das sonst keiner versteht.

Mir fällt dazu noch ein:
wer etwas nicht erklären kann ...
-3
Weia
Weia26.05.2515:29
Mutabaruga
Wenn das jetzt also ein Thread für Experten auf dem Gebiet ist, dann meinetwegen. Bleiben die anderen blöd.
Das habe ich nicht gesagt und wer meine Beiträge auf MacTechNews kennt, der weiß, dass mir die Vermittlung von Inhalten sehr am Herzen liegt.

Ich glaube nur einfach nicht, dass man jemandem, der diesen Thread überhaupt interessant findet, erklären muss, wo die Bezeichnung Farbtemperatur herkommt. Wenn ich mich im Einzelfall irre, dann kann man in einem Forum ja nachfragen.
Warum wird dann aber dies Forum als Begründung von Dir dafür herangezogen, nicht ins Detail zu gehen?
Angesichts der Länge meiner Antwort finde ich die Vorhaltung, nicht ausreichend ins Detail zu gehen, seltsam.

Details sind kein Wert an sich. Sie sind dann wichtig, wenn sich in einem Gedankengang zum Threadthema ohne sie eine Lücke auftut. Dass ich solche Details ausgelassen habe, sehe ich jetzt nicht, kann sie ja aber gegebenenfalls nachreichen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
+3
Don Gomez
Don Gomez26.05.2515:35
Mutabaruga
Wenn das jetzt also ein Thread für Experten auf dem Gebiet ist, dann meinetwegen. Bleiben die anderen blöd.
Warum wird dann aber dies Forum als Begründung von Dir dafür herangezogen, nicht ins Detail zu gehen?
Logisch oder unlogisch?


„... nicht ins Detail zu gehen?“ Hast Du mal den Umfang Antworten von Weia zur Kenntnis genommen? Dass Du von ihm genau diese Begründung bekommst, hängt an der Form Deiner Aussage: Du fragst nicht nach Details, sondern beschwerst, dass Dich, dass er etwas nicht erklärt. Also reagiert er nicht mit dem Detailwissen, sondern mit dem Grund, warum er an einigen Stellen Aspekte vertieft, an anderen nicht. Man muss es sich doch nicht gegenseitig schwer machen mit strategischem Missverstehen. Wenn Dir sein Antwortverhalten auf den Sack geht, dann blende es aus. Andere lernen hier was.
„... darauf einen Dujardin!“
+4
Wellenbrett26.05.2516:47
Hapelein
...
Weil auch >empirisch< besonders genau ist. Ich bleibe dabei, jeder nimmt Farben unterschiedlich wahr. Läßt sich auch wirklich schwer messen.
...
Das ist erkenntnistheoretisch natürlich eine problematische Aussage, einerseits zu behaupten, es läßt sich nicht messen und andererseits aber zu behaupten zu wissen wie es ist.
Jedoch ist es sehr wohl möglich das zu messen: wissenschaftlich ist das z.B. Gegenstand der Wahrnehmungspsychlogie. Ein geeignetes Untersuchungsparadigma wäre z.B. Probanden auf einem Bildschirm drei Quadrate mit sehr ähnlichen Farbtönen zu zeigen und sie zu bitten, jeweils das Quadrat mit der mittleren Helligkeit zu markieren. Das wird dann mit z.B. 500 Probanden und z.B. 5 Durchgängen a´ 30 Items gemacht. Dabei kommt heraus, dass das gesunde Probanden nahezu alle einheitlich (Fehlerquellen könnten z.B. Ermüdung während des Experiments sein. ) das mittelhelle Quadrat identifizieren. Je nach Farbe kann mehr oder weniger gut diskriminiert werden, aber die mittlere Helligkeit wird bei ausreichend unterschiedlicher Helligkeit quasi fehlerfrei über alle Farben hinweg erkannt. In einem anderen Experiment könnte man 4 Quadrate in der gleichen Farbkategorie (z.B. Rot) präsentieren und jeweils ein weiteres Quadrat in einer anderen Farbkategorie (z.B. Blau). Die Aufgabe der Probanden ist dann jeweils das eine farblich abweichende Quadrat zu markieren.
+3
Wellenbrett26.05.2517:01
Weia
FlyingSloth
...
... Leider habe ich augenblicklich sehr große gesundheitliche Probleme, daher bitte ich um Verständnis, dass die Antwort ein zeitlang dauern wird.
Ich wünsche Dir gesundheitlich alles Gute, lieber Weia!
+1
Semmelrocc
Semmelrocc26.05.2517:18
Danke für den sehr interessanten und informativen Ausflug in die Welt der Bewegtbild-Produktion und -theorie. Ich habe die Informationen mal mit dem Chatbot abgeglichen und "diskutiert" und finde, dass man am Ende ein (mMn) schlüssiges Fazit ziehen kann – ich zitiere den Bot:
• Ja, Apple geht hier deutlich „leichter“ an die Sache heran als Blackmagic, Adobe oder traditionelle Broadcast-Hersteller – und schafft damit eine sehr wartbare, performante Umgebung für die breite Anwenderbasis.
• Für High-End-Film-Productions bleibt dieser Sonderweg aber ein Kompromiss: Wer exakt die alten CRT-Charakteristika, Bartleson-Breneman-Kompensation und proprietäre Log-Workflows braucht, wird weiterhin auf spezialisierte Tools zurückgreifen.

Insofern ist Apples Strategie nicht falsch, sondern bewusst – sie opfert ein Stück traditionelle Emulations-Flexibilität zugunsten von Geschwindigkeit, Einfachheit und Einheitlichkeit.
+2

Kommentieren

Sie müssen sich einloggen, um sich an einer Diskussion beteiligen zu können.