Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>El Capitan unterstützt 10 Bit Farbtiefe pro Kanal

El Capitan unterstützt 10 Bit Farbtiefe pro Kanal

sonorman
sonorman31.10.1509:44
Ein schöner Abschluss für diesen längeren Thread @@ , in dem unterstellt wurde, Apple würde sich gegen 10 Bit Farbwiedergabe "sperren".

sonorman vom 20.04.15 23:37
Ich glaube, wenn das alles mal problemlos durch die gesamte Verarbeitungskette funktioniert, wird Apple das auch unterstützen. Bis dahin sind Apple Computer aber nicht gleich ungeeignet für Bildbearbeitung.

Und nun ist es soweit. spätestens seit 10.11.1 bietet OS X "Milliarden" Farben und kann somit auch sehr kritische Farbverläufe ohne Abstufungen darstellen. Allerdings nur in entsprechend angepassten Programmen! Die meisten OS X Apps wie Vorschau und Fotos unterstützen schon 10 Bit pro Kanal. Photoshop CS6 hingegen nicht und auch Affinity Photo muss noch angepasst werden.

Nun, jedenfalls kann endlich auch dieser Punkt abgehakt werden.


PS: Wer es ausprobieren möchte, der findet auf dieser Seite @@ ziemlich weit unten eine Datei Namens 10 bit test ramp.zip mit einem Grauverlauf, der den Unterschied deutlich macht.
0

Kommentare

Hannes Gnad
Hannes Gnad31.10.1509:52
sonorman
Photoshop CS6 hingegen nicht
CS6 erschien im April 2012, aktuelle OS X-Version war damals 10.7.3 oder so...

0
sonorman
sonorman31.10.1509:56
Hannes
Ist mir klar. Wollte nur den Umstand verdeutlichen, dass die Software angepasst sein muss.
0
idolum@mac31.10.1510:33
Sehr geil.
0
mkerschi
mkerschi31.10.1511:36
Bei mir sind es 32 bit
0
Der Mike
Der Mike31.10.1511:42
mkerschi
Das wird eher 24 Bit plus 8 Bit Alphakanal sein.

Also 8 Bit pro R, G und B. Ganz klassische 24-Bit-Grafik.

Konnte mein Amiga 4000 mit seiner Grafikkarte samt Cirrus-64-Bit-Chip 1994 auch schon, also 24 Bit plus Alphakanal.

Allgemein:

10 Bit sind ja schön und gut, aber lustig ist, dass das erst dieses Jahr zum "Skandal" wurde. Vorher ist das den meisten Grafikern überhaupt nicht aufgefallen - und der IT-Fachpresse an sich allenfalls mal marginal -, nicht mal denen von der c't...
-1
sonorman
sonorman31.10.1513:34
mkerschi
Bei mir sind es 32 bit
Wie Der Mike schon schrieb, handelt es sich da wohl um 24 Bit plus Alpha-Kanal. Das Display muss natürlich die 10 Bit pro Farbe unterstützen, was beim MacBook Air wahrscheinlich nicht der Fall ist.
Der Mike
10 Bit sind ja schön und gut, aber lustig ist, dass das erst dieses Jahr zum "Skandal" wurde. Vorher ist das den meisten Grafikern überhaupt nicht aufgefallen - und der IT-Fachpresse an sich allenfalls mal marginal -, nicht mal denen von der c't...
Das war ja auch mein Tenor bei dem oben verlinkten Thread. Es wurde mal wieder viel Dampf um eine Sache gemacht, die letztlich kaum jemandem bei der normalen Arbeit auffällt.
Trotzdem war der Schritt natürlich überfällig. Kann ja nicht sein, dass Windows das schon seit 2009 beherrscht und Apple erst jetzt nachzieht.
0
Hannes Gnad
Hannes Gnad31.10.1513:57
Der Mike
Das wird eher 24 Bit plus 8 Bit Alphakanal sein.

Also 8 Bit pro R, G und B. Ganz klassische 24-Bit-Grafik.
Es sind schon "echte" 10 Bit pro Farbkanal, aber natürlich nur auf den Macs, an denen ein entsprechender Monitor hängt oder die wie die neueren iMacs ein entsprechendes Panel haben.

Ein MacBook Air hat das nicht.
0
struffsky
struffsky31.10.1514:37
Das Ganze war ja schon immer nur ein Problem der Darstellung auf dem Bildschirm. Total irrelevant für die Druckdaten zum Beispiel. Jetzt wird die Performance der Grafikkarten für so einen Blödsinn verpulvert. Wie unnötig.
0
Absalom31.10.1516:15
Gibt es irgendwo eine Liste der kompatiblen Macs ?

27/21,5 iMacRetina Late 2015 haben es sehr wahrscheinlich.
Kann dies der DosenMAcPro jetzt auch mittels Update?
0
sonorman
sonorman31.10.1516:40
Absalom
Gibt es irgendwo eine Liste der kompatiblen Macs ?

27/21,5 iMacRetina Late 2015 haben es sehr wahrscheinlich.
Kann dies der DosenMAcPro jetzt auch mittels Update?
Es geht dabei weniger um den Mac. Voraussetzung ist OS X 10.11.1 und ein Display, das 10-Bit pro Farbe beherrscht. Ansonsten dürfte das mit nahezu jeder Grafikkarte der letzten Jahre problemlos möglich sein. – Sofern OS X dieses "Feature" für die jeweilige Grafikkarte unterstützt. Könnte natürlich sein, dass nicht alle Graka-Treiber in OS X dafür ausgelegt sind.

Mein Screenshot oben stammt übrigens von einem aktuellen Mac Pro und einem daran angeschlossenen Dell 5K-Monitor. (Die Auflösung wird dort wahrscheinlich wegen der Dual-Cable-Verbindung nicht richtig angezeigt.)
0
Weia
Weia31.10.1517:18
struffsky
Das Ganze war ja schon immer nur ein Problem der Darstellung auf dem Bildschirm.
Was heißt „nur“? Da schaue ich mir die Bilder schließlich an …
Total irrelevant für die Druckdaten zum Beispiel.
Öhm, Druckdaten sind im Jahre 2015 total irrelevant …
Jetzt wird die Performance der Grafikkarten für so einen Blödsinn verpulvert. Wie unnötig.
Und ich dachte immer, es sei der Zweck der Performance von Grafikkarten, Bilder möglichst gut (und also auch ohne Farbabstufungen) darzustellen – wie naiv von mir …

Und wofür verwendest Du die Performance Deiner Grafikkkarten so? Zum Grillen?
„🦖The dinosaurs invented Jesus to test our confidence in science“
-1
Weia
Weia31.10.1517:22
Hannes Gnad
Es sind schon "echte" 10 Bit pro Farbkanal, aber natürlich nur auf den Macs […] die wie die neueren iMacs ein entsprechendes Panel haben.
Absalom
27/21,5 iMacRetina Late 2015 haben es sehr wahrscheinlich.
Kann das jemand definitiv bestätigen? Auf der Apple-Website steht nur „Unterstützung für Millionen von Farben“ …

Das fände ich eine sehr interessante Information!
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
macbia
macbia31.10.1518:46
Weia
Kann das jemand definitiv bestätigen? Auf der Apple-Website steht nur „Unterstützung für Millionen von Farben“ …
Jo:
Nach Hinweisen eines Lesers und Recherchen von Mac & i bestätigt uns Apple, dass die neuen Retina-iMacs mit 5K und 4K eine 10-Bit-Panel-Ansteuerung unterstützen.
„i heart my 997“
0
Weia
Weia31.10.1519:26
macbia
Jo:


Danke!

Für diejenigen hier, die nicht verstehen, warum das so wichtig ist:

Bislang beherrschten die allermeisten Monitore, wenn überhaupt, in etwa den ziemlich eingeschränkten sRGB-Farbumfang, der intensive Farben nicht umfasst. Und selbst damit stieß man mit 8-Bit-Farbwiedergabe an Grenzen, wenn etwa der Monitor exakt farbkalibriert wurde (was die Farbgenauigkeit erhöht, aber dafür zwangsläufig einige Stufen der Farbauflösung „verbrät“, so dass die tatsächlich zur Verfügung stehende Auflösung pro Farbe dann sogar noch geringer als 8 Bit ist). Bei entsprechend delikaten Farbverläufen waren dann Farbabstufungen zu sehen, wo keine sein sollten.

Wenn man nun aber den Farbraum gegenüber sRGB vergrößern will, dann reichen 8 Bit definitiv nicht mehr, da die 256 damit verfügbaren Abstufungen ja nun über eine größere Intensitätsspanne pro Farbe verteilt werden müssen, d.h. jede einzelne Stufe wird größer – zu groß.

Erst 10 Bit erlauben also auf sinnvolle Art, den Farbumfang des Monitors über sRGB hinaus zu vergrößern (auf gut deutsch also intensivere Farben darstellen zu können), was die neuen iMacs auch tatsächlich tun (DCI-P3-Farbraum laut verlinktem Artikel).
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
gfhfkgfhfk31.10.1520:39
sonorman
Ansonsten dürfte das mit nahezu jeder Grafikkarte der letzten Jahre problemlos möglich sein.
Die Intel HD Graphics egal in welcher Ausführung können das generell nicht, es ist eine dedizierte GPU von AMD oder nVidia notwendig.
0
MacRudi31.10.1520:41
Am Mac mini 2011 mit HD 3000 zum Apple Cinema Display 23" unter OS X 10.11.2
0
Absalom31.10.1520:53
Wundert mich das Apple da nicht näher darauf eingeht.

Mein 15Zoll MbP early 2011 schafft es jedenfalls beim internen Display nicht
0
MacRudi31.10.1520:55
und im Systembericht …

Die 32bit dürften nicht aus RGB und Alpha mit je 8bit entstehen, sondern durch RGB je 10 bit und dann aufgerundet zu vollen 4 Byte.
0
sonorman
sonorman31.10.1521:01
Mac Rudi
Wozu der erste Screenshot?

Um sicherzugehen, ob wirklich 10 Bit pro Kanal mit der eigenen Mac/Monitor-Kombination angezeigt werden, solltet ihr das im Start-Post genannte Testbild herunterladen. In Vorschau dürfen damit keinerleich Abstufungen im Verlauf zu sehen sein.
0
gfhfkgfhfk31.10.1521:08
nVidia bewirbt ab der Kepler Revision (Kx200 Modelle) die Quadros mit 10bit und 12Bit deep color mode.
0
MacRudi31.10.1521:21
sonorman
Mac Rudi
Wozu der erste Screenshot?
Da sieht man, dass die 10bit(?)-Farbräume unterstützt werden?

Habe bei "Deinem" Verlauf 27 Farben gezählt. Also dann wohl kein 10bit.
0
Frost31.10.1521:45
MacRudi
Habe bei "Deinem" Verlauf 27 Farben gezählt. Also dann wohl kein 10bit.

Natuerlich nicht, in dem Systembericht ist doch deutlich zu sehen:
ARGB8888 A=8 R=8 G=8 und B=8 die Ziffer jeweils die Anzahl
der fuer diesen Kanal verfuegbaren Bits

Im Systembericht ganz oben steht hingegen:
ARGB2101010 A=2 R=10 G=10 und B=10

Andere Frage ist warum der Alphakanal dann nur eine Bittiefe von 2 Bit besitzt,
zumindest scheint aber nach kurzer Recherche im Internet ein 2-Bit Alphakanal
nichts ungewoehnliches zu sein.
0
sonorman
sonorman31.10.1521:47
MacRudi
Das sind nur die verfügbaren FarbPROFILE, nicht die darstellbaren Farbräume. Die Farbtiefe kannst Du da nicht ablesen. Davon abgesehen dürfte die Liste um einiges kürzer sein, wenn Du das Häkchen unter der Liste setzt.

Der Grauverlauf in dem Testbild muss in Vorschau absolut stufenlos aussehen. Ältere Apple-Displays (interne wie externe) unterstützen vermutlich grundsätzlich keine 10-Bit Darstellung. Und wie gfhgfjgf schreibt, gibt's auch Mindestvoraussetzungen bei den Grafikkarten. Ich vermute, außer dem Mac Pro und den neuen Retina iMacs werden nicht viele andere Macs davon profitieren. Ist aber auch kein Beinbruch. Ohne das Wissen um diese neue Feature wäre es wohl kaum jemandem aufegfallen.
0
MacRudi31.10.1521:51
Frost
ARGB-Bit-Angaben
Vermutet habe ich das auch, da ich aber nicht so sattelfest an dieser Stelle bin, wollte ich da keine niedrigviskosen Exkremente reden. Deshalb macht es doch auch mal Sinn, das verglichen zu haben. 2bit-Alpha ist ja ne ziemliche Krücke. Das heißt, die 10bit-Farbe geht voll zu Lasten der Alpha-Feinheit. Beides 32bit, aber für unterschiedliche Zwecke optimiert.

Wobei sich die Frage stellt, was man mit dem Alpha-Kanal auf dem Monitor anstellen kann. Wahrscheinlich nichts? Ist es für das gerechnete Endbild gültig oder auch bereits für die Teilbilder aus denen das Endbild errechnet wird?
0
Weia
Weia31.10.1521:59
MacRudi
Am Mac mini 2011 mit HD 3000 zum Apple Cinema Display 23" unter OS X 10.11.2
Der Screenshot zeigt lediglich die in El Capitan vorinstallierten allgemeinen ICC-Farbprofile. Das hat nichts mit den Fähigkeiten Deiner Hardware zu tun.
MacRudi
und im Systembericht …
Dein zweiter Screenshot zeigt dann, dass Du nur ganz normal 8-Bit-Farbtiefe hast (ARGB8888).
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
Weia
Weia31.10.1522:07
MacRudi
Das heißt, die 10bit-Farbe geht voll zu Lasten der Alpha-Feinheit.
Nein.

Bevor die Bilddaten zur Grafikkarte geschickt werden, sind die Bilder bereits gerendert, d.h. die Transparenzen in mehreren Bildebenen wurden bereits zu der resultierenden, von dem betreffenden Pixel darzustellende Farbe umgerechnet. Die Alpha-Information ist zwischen Grafikkarte und Monitor völlig irrelevant; es wird halt immer auf 32 Bit aufgefüllt, weil das die binäre Wortlänge ist.

PS: Sorry für meinen doppeltgemoppelte letzten Beitrag; als ich ihn schrieb, waren die entsprechenden anderen Antworten noch nicht veröffentlicht.
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
sonorman
sonorman31.10.1522:09
Zum Thema Alpha-Kanal:
When using 10-bit color you are still limited to 32-bits per pixel. So with 30-bits used up for Red, Green and Blue, that only leaves 2 bits for Alpha. That means alpha written to the window can only take on the values of 0.0, 0.33, 0.66 and 1.0. In practice this shouldn't affect you at all as it's very rare that the alpha in the window ever gets used. The only time it gets used is if you are blending and using the destination alpha as a blend factor. It's unlikely you'll ever do this, but if you do be aware that the blending won't look right in the Geometry Viewers. It'll still work fine in 16-bit pixel format TOPs though, as the alpha channel is 16-bit in those TOPs also.

0
Frost31.10.1522:10
MacRudi
Wobei sich die Frage stellt, was man mit dem Alpha-Kanal auf dem Monitor anstellen kann. Wahrscheinlich nichts?

Nein, die Angabe der Bittiefe fuer den Alphakanal hat auch nichts
mit dem Monitor zu tun, der bekommt nur die RGB Werte,
sondern mit der Grafikkarte wenn diese das Alpha Blending
mit der GPU in Hardware ausfuehrt.
Dabei werden dann an die Grafikkarte fuer jeden Bildpunkt
vier Werte uebertragen, einmal die Farbe als RGB Wert
und dann der Wert fuer den Aplphakanal.
0
MacRudi31.10.1522:27
Weia
Bevor die Bilddaten zur Grafikkarte geschickt werden, sind die Bilder bereits gerendert ...
Nein: Seit 10.4.3/10.4.4 wird ziemlich viel in der GPU, also auf der Grafikkarte gerendert. Konkret: die GPU kennt die Smileys , weil sie sie gecached hat. Die Smileys dürften als gif vorliegen, also als indizierte maximal 256 Farben. Die CPU sagt der GPU nur noch, wo was hin soll und die GPU setzt alles zusammen. Erst die an den Monitor übertragene Grafik hat dann das 2-10-10-10-Format.
0
Windwusel
Windwusel31.10.1522:28
Habe ich 10 Bit Support? Blicke nicht ganz durch. (MacBook Pro Late 2013)
„MacBook Pro mit Touch Bar (15-inch, 2018), iPhone 12 Pro Max und iPhone X, AirPods (1. Gen) & AirPods Pro (1. Gen), Apple TV 4K (1. Gen) und HomePod (1. Gen)“
0
sonorman
sonorman31.10.1522:42
Windwusel
Habe ich 10 Bit Support? Blicke nicht ganz durch. (MacBook Pro Late 2013)
Nein, leider nicht.

Es ist zwar nur geraten, aber vermutlich wird kein aktuelles MacBook 10 Bit unterstützen. Nur die neuen Retina iMacs und der neue Mac Pro mit entsprechendem Display scheinen das zu beherrschen.
0
MacRudi31.10.1522:44
sonorman
… That means alpha written to the window …
Mit Window dürfte hier wohl (hoffe ich für den Verfasser) der komplette Monitorinhalt gemeint sein und nicht nur ein Fenster eines Dokumentes oder Programms.
sonorman
... won't look right in the Geometry Viewers. It'll still work fine in 16-bit pixel format TOPs though, as the alpha channel is 16-bit in those TOPs also.
Was'n 'n TOP? Ich glaub, ich muss mal in den Link schaun. Danke dafür!
0
Weia
Weia31.10.1522:44
MacRudi
Weia
Bevor die Bilddaten zur Grafikkarte geschickt werden, sind die Bilder bereits gerendert ...
Nein: Seit 10.4.3/10.4.4 wird ziemlich viel in der GPU, also auf der Grafikkarte gerendert. Konkret: die GPU kennt die Smileys , weil sie sie gecached hat. Die Smileys dürften als gif vorliegen, also als indizierte maximal 256 Farben. Die CPU sagt der GPU nur noch, wo was hin soll und die GPU setzt alles zusammen. Erst die an den Monitor übertragene Grafik hat dann das 2-10-10-10-Format.
AAAARGH, ja, natürlich, das sollte „Bevor die Bilddaten zum Monitor geschickt werden“ heißen, wie ich es weiter unten dann ja auch schrieb … Sorry for the confusion (bin gerade etwas hektisch, weil mir mein Mac abgeschmiert war )
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
Weia
Weia31.10.1522:54
sonorman
Zum Thema Alpha-Kanal:
Warum zitiertet Du das hier? Das betrifft doch nur die speziellen Gegebenheiten bei der spezifischen (Windows-)Software, um die es da geht.
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
MacRudi31.10.1522:54
Weia
AAAARGH
Ok, alles Gute für Deinen Mac

Sonorman: Dass an manchen Stellen sogar mit 16bit gerechnet wird, um nicht durch Rundungsfehler und häufige Ausführungen irgendwann sichtbare Unschönheiten zu bekommen, hatte ich auch schon mal gelesen. Arme GPU! Ansonsten hat mir der Link irgendwie keine weiteren Erkenntnis gebracht.
0
Weia
Weia31.10.1522:57
MacRudi
alles Gute für Deinen Mac
Danke, jetzt geht er ja wieder, und (fast) alle Daten gerettet. Nur ich bin für heute kaputt …
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
sonorman
sonorman31.10.1522:58
Weia
sonorman
Zum Thema Alpha-Kanal:
Warum zitiertet Du das hier? Das betrifft doch nur die speziellen Gegebenheiten bei der spezifischen (Windows-)Software, um die es da geht.
Weil es die Sachlage beschreibt. Vielleicht hätte ich den letzten Part weglassen sollen.
Also:
When using 10-bit color you are still limited to 32-bits per pixel. So with 30-bits used up for Red, Green and Blue, that only leaves 2 bits for Alpha. That means alpha written to the window can only take on the values of 0.0, 0.33, 0.66 and 1.0. In practice this shouldn't affect you at all as it's very rare that the alpha in the window ever gets used.
0
MacRudi31.10.1523:15
sonorman
In practice this shouldn't affect you at all as it's very rare that the alpha in the window ever gets used.
Wenn der Artikel etwas älter ist, dann hat er die Entwicklung, Fenster transparent zu machen, wohl noch nicht wissen können. Er meint dann wohl auch wirklich Fenster seines/des Programms. Wenn man also im Programm 10bit-Farbe will, weil man höchsten Anforderungen genügen will, dann bleiben einem für Fenstertransparenzen nur noch die 0,33 und 0,66, was im allgemeinen unpassend sein dürfte. Also übergibt man das Fenster ans System mit eventuell 2-10-10-10 und das kann dann mit mehr als 2bit-Alpha den gewollten Effekt rechnen.

Weia: dann jetzt auch alles Gute an Dich
0
Weia
Weia01.11.1500:07
sonorman
Vielleicht hätte ich den letzten Part weglassen sollen.
Den ganz sicher, aber der erste gibt auch nicht viel mehr her. Dass ein 8-Bit-Bild durch einen 10-Bit-Monitor nicht besser auflösend wird, genauso wenig wie 16-Bit-Audio durch 24-Bit-Wiedergabe besser klingt, dürfte ja jedem klar sein. Der Rest ist spezifisch für deren Programm.
MacRudi
Dass an manchen Stellen sogar mit 16bit gerechnet wird, um nicht durch Rundungsfehler und häufige Ausführungen irgendwann sichtbare Unschönheiten zu bekommen, hatte ich auch schon mal gelesen. Arme GPU!
Core Image, also die Cocoa-Bibliothek, die in OS X für alle Bildeffekte und -manipulationen zuständig ist, rechnet intern sogar (zumindest teilweise) mit 128 Bit (also 32 Bit pro Farbkanal und Alpha). Nur bei der Übertragung zum Monitor wird das dann auf bisher 8-8-8-8 und jetzt dann ggf. eben 2-10-10-10 runtergedampft.
Weia: dann jetzt auch alles Gute an Dich
Danke! Nachtspaziergang hat schonmal gut getan!
„🦖The dinosaurs invented Jesus to test our confidence in science“
0
MacRudi01.11.1500:23
Weia
… rechnet intern sogar (zumindest teilweise) mit ... 32 Bit pro Farbkanal und Alpha ...
Da sieht man mal, wieviele Effekte da reingerechnet werden, dass das nötig ist! Mir würde 16bit reichen, wenn der Mac mini dafür 4k-Displays ansteuern könnte

Arme arme GPU!
0
chrisbilder
chrisbilder01.11.1511:55
MacRudi

Es wird mit 32bit Float gerechnet (0=Schwarz, 1=Weiß), da in allen anderen Fällen die Verrechnungsarithmetik komplizierter wird und meist Rundungsfehler auftreten. Sonst müsste ja bereits bei 50 % Grau gerundet werden (255÷2, 1023÷2, 65535÷2)
0
gfhfkgfhfk01.11.1514:39
MacRudi
Das heißt, die 10bit-Farbe geht voll zu Lasten der Alpha-Feinheit. Beides 32bit, aber für unterschiedliche Zwecke optimiert.
Das hängt vom OS ab. nVidia unterstützt auf den GPUs 8bit, 10bit, 12bit, 16bit jeweils Integer und 32bit Float darstellung pro Farbkanal und für Alpha in der Software. Momentan wird nur die Ausgabe in 8Bit, 10Bit und 12Bit unterstützt. Wenn die Farbtiefe über 30Bit erhöht wird, reduziert sich die maximale Auflösung der Displays bei DP1.2a. Die ist nämlich bisher immer für 30Bit Farbtiefe spezifiziert.
0
sonorman
sonorman01.11.1522:03
Schon witzig. Da gibt's nun endlich die ach so wichtige 10-Bit-Unterstützung, und nun bricht Angst um den Alpha-Kanal aus.
0
Absalom01.11.1523:01
8Bit ist kacke
10Bit ist kacke

Warum springt Apple nicht auf den 12 Bit Zug auf?
Diese elenden Anfänger bei Apple
-1
gfhfkgfhfk02.11.1511:01
Ich will es mal so formulieren, die momentane Umsetzung mag vielleicht noch nicht ideal sein, aber es ist sehr positiv zu bewerten, daß Apple sich nach so vielen Jahren überhaupt bewegt hat. Also, scheint öffentlicher Druck der einzige Weg zu sein, dringend notwendige Änderungen in OSX zu erreichen.
0
sonorman
sonorman02.11.1511:04
gfhfkgfhfk
…Also, scheint öffentlicher Druck der einzige Weg zu sein, dringend notwendige Änderungen in OSX zu erreichen.
Oder es stand sowieso auf ihrer Agenda und es hat nur länger gedauert, es umzusetzen. Ob da irgend ein "Druck" was bewirkt haben soll, wage ich zu bezweifeln.
0
macbia
macbia02.11.1511:26
gfhfkgfhfk
Also, scheint öffentlicher Druck der einzige Weg zu sein, dringend notwendige Änderungen in OSX zu erreichen.
Sehr schön diese Ironie, ich musste herzlich lachen
„i heart my 997“
0
valcoholic
valcoholic02.11.1511:31
Bis Adobe da mal mitzieht vergehen sicher noch paar Versionen
0
X-Ray
X-Ray02.11.1511:46
Eine, wenn auch vielleicht kleineren Gruppe, sind die Radiologen. Diese freuen sich ganz besonders über die Darstellung auf hochwertigen Graustufenmonitoren.
Das ist im übrigen auch eine Voraussetzung um solche Monitor und die Computersysteme zur Diagnostik benutzen zu dürfen.
Nicht jede Farbe ist bunt. Und besonders feine Graustufen auf zwei mal 5K Monitoren braucht man zum Beispiel für die Beurteilung von Mammographie Aufnahmen.
Dazu kommen noch andere Anforderungen an die Monitore wie hohe Leuchtdichte und Homogenität. Nicht umsonst kosten solche Spielzeuge z.T. über 10.000 € das Stück.
Die mangelnde 10BitFsrbtiefe war hier bisher ein Hemmschuh für den Einsatz von Mac Rechnern.
„Planung ersetzt den Zufall durch Irrtum ( Einstein )“
0
wolfgag
wolfgag02.11.1511:46
MacRudi
Die 32bit dürften nicht aus RGB und Alpha mit je 8bit entstehen, sondern durch RGB je 10 bit und dann aufgerundet zu vollen 4 Byte.
32 Bit beziehen sich definitiv auf 8 bit rgb + Alpha.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.