Überlegungen zum Cinema Display: Das braucht Apple, um sich mit einem eigenen Monitor von der Konkurrenz abzuheben

Apple stand mal in dem Ruf, ausgezeichnete Computermonitore anzubieten. Wobei die Betonung auf „anzubieten“ liegt, denn Monitore komplett selbst gebaut hat der Apfel-Konzern nie. Es wurden stets Röhren oder später LCD-Panels von anderen Herstellern zugekauft, im besten Fall eigene Ansteuerungselektronik dafür entwickelt und ein Gehäuse mit eigenem Design darum herum gebaut.



Zwar ist in Berichten und selbst auf Wikipedia oft von „Apple Displays“ oder „Apple manufactured Monitor“ die Rede, doch das Kernstück jedes Monitors, das bilderzeugende Panel, hat Apple meines Wissens nie selbst gefertigt und auch nicht selbst entwickelt. Es gibt heute weltweit nur eine Handvoll Hersteller, die eine echte Panel-Entwicklung und -Produktion betreiben, sei es für LCD oder für OLED – den beiden derzeit wichtigsten Displaytechnologien. Apple gehört nicht dazu. Bei den iDevices ist allgemein bekannt, dass Apple die zig-millionenfach benötigten Panels von Herstellern wie Samsung oder demnächst mutmaßlich auch LG (siehe hier) fertigen lässt. Bei Monitoren für Macs sieht es nicht sehr viel anders aus.

Ob und wie viel Anteil Apple an der Grundlagenforschung zur Panel-Technologie in Monitoren wie dem 30“ Cinema Display im Alu-Gehäuse oder anderen geleistet hat, ist schwer zu sagen. Am wahrscheinlichsten ist, dass Apple lediglich zu den peripheren Elementen einen größeren Eigenanteil beigetragen hat. Beispielsweise bei der Umsetzung der Hintergrundbeleuchtung bei LCD-Panels und der Ansteuerungselektronik. Für das eigentliche bilderzeugende Element – das Panel – sind Spielräume für Sonderwünsche eher klein, denn die Fabriken dafür können nicht ohne gewaltige Umstellungen einfach andere Konfigurationen produzieren. Das lohnt sich vielleicht bei den gigantischen Stückzahlen für iPhones, aber für Mac-Monitore?

Da Apple für den kommenden Mac Pro auch einen passenden Monitor in Aussicht gestellt hat, stellt sich die Frage, wie viel davon echte Apple-Technologie sein wird. Dazu müssen wir uns erst mal die Frage stellen, welche Darstellungstechnologie dafür zum Einsatz kommen könnte. Meine Prognose: Es bleibt bei LCD.


Kommentare

jensche14.07.18 09:11
Für Pro user mit Multi Screen Konfigurationen, z.b. ein iMac Pro mit einem Zusatzscreen müsste rein designtechnisch die Höhe des screens auf gleicher höhe sein wie der iMac.

Ich hoffe nun seit knapp 12 Jahren auf einen neuen Apple Cinema Display. wenn man einmal die 30 Zoll überschritten hat und auf eine Ein-Monitorkonfiguration eingewöhnt hat, will man nicht zurück auf mickrige 27".

Problem welche alle Anbieter von Monitoren haben ist nämlich das "Intel-Problem".
Sprich abhängigkeit der Panelhersteller was die Rausbringen. Nebst LG ist das meist Samsung. Diese Anbieter von Monitoren verbauen das was sie bekommen. Darum gibts von allen Herstellern eigentlich nur unterschiedlich verpackte Panels. Und in dem Sinne keine Neuerung.

Aus meiner Erfahrung hat es leider bisher noch kein Hersteller ausser Apple gesschaft, Qualitativ hochwertes Design mit guten Panels zu vereinen. Nicht mal die teuersten Top-Modelle von Eizo sind, ausser jetzt das Panel, vom Gehäuse her Qualitätiv gut und schön. Immer dieser Bulky Plastikschrott welcher wackelt.

Ich bin der Meinung ein Guter Monitor darf auch gutes Design haben.
+1
jensche14.07.18 09:28
Einfach kein OLED. Danke.
0
maculi
maculi14.07.18 09:28
Was mir bei den Überlegungen noch fehlt ist so eine Art Thunderbolt-Dock-Funktionalität. Die meisten Macs sind schon sein Jahren Laptops. Apple wäre selten dämlich, wenn sie irgend etwas MacPro-Exklusives rausbringen würden. Zumindest mit den halbwegs aktuellen Macs mit Thunderbolt3 müsste der Moni irgendwie laufen. Keine Ahnung, ob sich die bisher verbauten TB3-Anschlüsse per Firmware-Update auf 8k hoch rüsten lassen, oder ob das irgendwie anders gehen soll. Aber wenn es sich realisieren läßt, das viele der in jüngerer Zeit verkauften Macs den Moni nutzen, und dann gerade die Laptops mit einem Kabel Strom, Netzwerk, Zugang zu diverser Peripherie kriegen und das Bildsignal übermitteln, dann wäre der mögliche Kundenkreis wenigstens groß genug.
+1
Richard
Richard14.07.18 09:32
warum sollte Apple auf einmal wieder Displays bauen? Wird nicht passieren. Der markt ist für Cook viel zu uninteressant. Wenn Sie das gewollt hätten, dann hätte die einfach vor zwei Jhren eine TB Version des cinema machen können.
Also ich glaub nicht an einen Monitor von Apple oder der kostet > 2.000 €.
iMac 27 :: MacBookPro Retina :: OS X 10.13
-17
firstofnine14.07.18 09:41
Das Problem ist doch, dass es kein anderer Hersteller schafft, so etwas Profanes, wie einen gut gemachten und stabilen Monitor zu bauen, der GUT AUSSIEHT. Nachher schauen LG, Samsung und Co. wieder blöd aus der Wäsche, wenn die Kunden 1000 - 2000 Euro für einen Monitor kaufen, der sich einfach schöner in die Wohnlandschaft integriert, als ein blödes schwarzes Plastikteil. Nur, wer kann und will sich so einen Monitor leisten? Der Normalverdiener hat dann nur die Wahl, mit dem schwarzen Plastikklumpen zu leben.
Wann man nichts ändert, dann ändert sich nichts!
+4
Mendel Kucharzeck
Mendel Kucharzeck14.07.18 09:58
Richard
Ist schon angekündigt worden im Frühjahr 2017.
+3
mr_jo14.07.18 09:59
Ich denke Apple wird kein Display auf den Markt bringen das nur vom Mac Pro betrieben werden kann. Die Stückzahlen wären einfach zu gering. Ich gehe davon aus das es beim Design als auch bei der Auflösung um das gleiche Teil handelt wie im iMac Pro verbaut. Ich halte es für sehr wahrscheinlich das eine eGPU eingebaut sein wird, nebst Hub mit sinnvoll Schnittstellen. Dieses Display kann an allen aktuell verbauten Macs (mit Ausnahme des Mini und MBA) betrieben werden (TB3). Der Mac Pro wird in der Grundausstattung ohne GraKa daher kommen, da die bereits im Display verbaut ist.
Der zukünftige MP Käufer wird die Wahl haben, das neue Apple Display zu kaufen oder eine (teure) GraKa mit einem Display eines Fremdherstellers.
Jeder Mac mit TB3 (insbesondere wenn nur eine Intel GPU verbaut ist), profitiert von der eGPU im neuen Display. Selbst der iMac Pro Kunde kann ein 2. Display nebenan stellen ohne Geschwindigkeitsverluste.
+4
barabas14.07.18 10:23
Ich kann mir im Moment auch nicht vorstellen das Apple wieder in den Monitormarkt aufspringt. Die einzige, wenn auch geringe Wahrscheinlichkeit besteht, solches zeitgleich mit dem Erscheinen eines neuen MacPros auf den Markt zu bringen. Vom Design dürfte dieser dann diesem neuen Mac angepasst sein.
Allerdings, ich denke das der Grossteil der Mac User welche heute aktuell auf einen externen (hochwertigen) Monitor angewiesen sind, sich hier schon ausreichend mit den Angeboten von Drittherstellern eingedeckt haben. Die Stückzahlen die hier dann wohl verkauft würden, wären eher gering und deshalb vermutlich unrentabel.
-5
Boney14.07.18 10:35
MicroLED vereint die Vorteile von OLED und LCD. Es ist die beste Technologie. Ich hoffe Apple verbaut das bald in allen Macs.
0
Cliff the DAU
Cliff the DAU14.07.18 10:47
Wenn Apple einen Monitor rausbringt, dann hat bestimmt nur einen einzigen Anschluss der zu keinem derzeitigen Anschluss kompatibel ist.
„Was heute noch wie ein Märchen klingt, kann morgen schon Wirklichkeit sein. Hier ist ein Märchen von übermorgen“
+3
colouredwolf14.07.18 11:09
mLED steht für das nichtexistente milliLED. Korrekterweise müsste es μLED heißen.

Optimal wäre 8k mit integrierter eGPU, die optimal auf die Monitordaten abgestimmt ist - genau die Leistung bringt, um 8k mit 60 oder 120 Hz darzustellen.
+4
verstaerker
verstaerker14.07.18 11:49
colouredwolf
Optimal wäre 8k mit integrierter eGPU, die optimal auf die Monitordaten abgestimmt ist - genau die Leistung bringt, um 8k mit 60 oder 120 Hz darzustellen.

und bitte ultraleise .. ist mir scheißegal was die mit der Hitze machen.. hören will ich meinen Monitor sicher nicht
+2
McErik14.07.18 13:02
Ein sehr guter Artikel!
Insbesondere was zu OLED und mLED gesagt wurde. (Hier geht es nicht um Einheiten. Deshalb hat das m auch nichts mit Milli zu tun!) Interessant wäre noch, ob Apple dann die mLED-Displays (erstmals) selbst baut, oder wer der Auftragsfertiger wird.

Ob 8K-Bildschirme überhaupt sinnvoll sind?
Bei der Auflösung geht es ja nicht um ein Maximum, das technisch möglich ist, sondern um das Optimum bezogen auf das menschliche Auge.
Darüber kann man eine ganze Wissenschaft entwickeln. Führt aber zu nichts! Deshalb drei einfache Bedingungen, die schon seit Jahrhunderten bekannt sind:
1. Das menschliche Auge löst etwa eine Bogenminute auf. D.h. die Grenze liegt bei einem Verhältnis von 1/3500 zwischen Punktgröße und Betrachtungsabstand.
2. Man kommt einem Betrachtungsobjekt nicht näher als 25 cm (10“). Akkomodation aber vor allem auch Schielen!
3. Will man ein Bild als Ganzes betrachten, kommt man nicht näher als bis zur Diagonale.
Hieraus ergibt sich (Exaktheit ist unangebracht), dass ein scharfes iPad (10“) eine Auflösung von 350 ppi und 6 Millionen Pixel haben sollte. Kleinere Bildschirme (iPhone) brauchen die gleiche Auflösung aber nicht dieselbe Pixelzahl. Größere Bildschirme (Monitore) dieselbe Pixelzahl bei dann aber geringerer Auflösung.
Dies könnte man die Retina-Bedingungen nennen, auch wenn ich das von Apple so noch nicht gelesen habe. Bei den Retina-Bildschirmen hält sich Apple auch ungefähr daran. Am wenigsten noch beim iPad (müsste 2100 x 2800 Pixel haben).
Einem Schreibtischmonitor nähert man sich nun vielleicht etwas mehr. Sagen wir einem 32“-Schirm auf 50 cm. Dann benötigte dieser für ein scharfes Bild 15 MPx. 8K mit 32 MPx scheint mir doch übertrieben. Zumal wenn mit Aufwand verbunden.
Ich könnte mir vorstellen, dass Apple in dieser Richtung Untersuchungen mit Nutzern macht, bevor sie neue Bildschirme herausbringen. Wie bekannt, schert sich Apple ja wenig um geäußerte Kundenwünsche aber auch nicht um Marketingforderungen (wer hat die größte Auflösung).

Oder kommt vielleicht ein wirklich stark gekrümmter Bildschirm um den Nutzerplatz herum? Das wäre mal was Neues!
+4
macster10014.07.18 13:42
Ich würde mir ja einen hochaufgelösten Ultrawide-Monitor von Apple wünschen, aber das dürfte ein zu nischenhafter Wunsch sein …
0
Weia14.07.18 14:29
Redaktionsintern wird noch eine andere Möglichkeit heiß diskutiert. So scheint es durchaus vorstellbar, dass Apple das neue Cinema Display (oder wie auch immer es heißen wird) mit einer internen Grafikkarte ausstattet.
Huh? Ich dachte, es sei vollkommen klar, dass das so sein wird.
0
Eventus
Eventus14.07.18 14:33
Warum nicht mit integriertem tv? Dann wäre das Ding auch ohne angeschlossenen Laptop nützlich.
Live long and prosper! 🖖
-1
Weia14.07.18 14:51
McErik
Bei der Auflösung geht es ja nicht um ein Maximum, das technisch möglich ist, sondern um das Optimum bezogen auf das menschliche Auge.
Darüber kann man eine ganze Wissenschaft entwickeln. Führt aber zu nichts!
Doch: zu vernünftigen Überlegungen statt apodiktischen Behauptungen.
Deshalb drei einfache Bedingungen, die schon seit Jahrhunderten bekannt sind:
Mir nicht. Deshalb …
2. Man kommt einem Betrachtungsobjekt nicht näher als 25 cm (10“). Akkomodation aber vor allem auch Schielen!
… ist mein Leseabstand für Bücher und iPads seit eh und je knappe 20 cm. Blöd, dass ich nach Jahrzehnten erfahre, dass das gar nicht sein kann …
3. Will man ein Bild als Ganzes betrachten, kommt man nicht näher als bis zur Diagonale. Hieraus ergibt sich […] Größere Bildschirme (Monitore) dieselbe Pixelzahl bei dann aber geringerer Auflösung.
Nein, dass ergibt sich daraus nicht. Denn einen Computermonitor will ich (im Gegensatz zu einem TV-Monitor) natürlich nicht als Ganzes betrachten; dann wäre der ganze Gag eines großen Monitors ja hinfällig und ich könnte ebenso gut einen kleineren (mit höherem PPI-Wert) wählen. Der ganze Gag eines großen Monitors ist, dass ich durch Ändern der Blickrichtung verschiedene (Ausschnitts-)Bereiche ansehen und somit schnell zwischen verschiedenen Informationen wechseln kann.
Einem Schreibtischmonitor nähert man sich nun vielleicht etwas mehr. Sagen wir einem 32“-Schirm auf 50 cm.
Vor meinem 30"-Cinema-Display sitze ich in der Regel mit 40 cm Abstand, gehe zum Betrachten von Details aber auch mal auf 25 cm heran. Dann würde ich mir ein Retina-Display sehr wünschen.
Dann benötigte dieser für ein scharfes Bild 15 MPx. 8K mit 32 MPx scheint mir doch übertrieben.
Und mir würde es bei einem Display, das etwas größer als 30" ist, gerade so reichen.

Ich finde es immer wieder frappierend, wie manche hier ihre persönlichen Nutzungsmuster verabsolutieren.
+4
McErik14.07.18 15:58
Weia
Den minimalen (bequemen) Betrachtungsabstand habe ich mir nicht ausgedacht. Er wird in Physik und Technik herangezogen, z.B. bei der Berechnung der Vergrößerung von Lupe und Mikroskop. Längeres, beidäugiges Lesen mit einem Abstand von 20 cm oder gar darunter ist für fast alle Menschen sehr anstrengend! Aber es mag ja Ausnahmen geben.
Einen Betrachtungsabstand von 40 cm vor einem 30“-Bildschirm kann ich mir ja noch vorstellen, obwohl selten gesehen. Aber 25 cm vor so einem großen Bildschirm, und sei es nur vorübergehend, würde ich schon als merkwürdig empfinden.
Apple bietet bei aktuellen iMacs (Retina) gerade 15 MPx-Displays. Also etwa auf meiner Linie.
Im Übrigen sprach ich gar nicht über mein Nutzungsmuster, schon gar nicht apodiktisch! Ich habe mir nur Gedanken darüber gemacht, ob Apple wohl Bildschirme mit 8K-Auflösung herausbringen wird. Und ich glaube im Gegensatz zum Autor des Artikels eher nicht daran. Ich hielte es auch aus den ausgeführten Gründen nicht für vernünftig . (Verpixelte Bilder mag ich ganz und gar nicht.) Aber natürlich kann ich mich da irren.
+3
Weia14.07.18 16:22
McErik
Aber 25 cm vor so einem großen Bildschirm, und sei es nur vorübergehend, würde ich schon als merkwürdig empfinden.
Beispiel: Du sitzt an einer Vektorgrafik und willst eine Linie pixelgenau durch einen bestimmten Punkt führen, aber ansonsten den Überblick über das Bild behalten (z.B. sehen, wo diese Linie dann am Bildrand landet).

Was geht schneller und fühlt sich natürlicher an:
  • Du zoomst das Bild kurzfristig um den Faktor 2 oder mehr, verschiebst den Bildausschnitt so, dass der fragliche Punkt sichtbar ist, führst die Linie durch diesen Punkt und setzt den Zoom wieder zurück, siehst dann evtl., dass die Linie somit am Bildrand an einer ungewollten Stelle landet, zoomst also wieder hinein und verschiebst den Punkt etwas usw.
  • Du gehst zum präzisen Setzen der Linie mit den Augen kurz auf 25 cm an den Monitor heran, kontrollierst aus dem Augenwinkel, ob die Linie auch am Bildrand passt, und gehst mit dem Kopf dann wieder zurück

Apple bietet bei aktuellen iMacs (Retina) gerade 15 MPx-Displays. Also etwa auf meiner Linie.
Richtig. Aber liegt es nicht nahe, dass der alleinstehende Monitor eine Klasse über den iMacs angesiedelt sein sollte?
-1
McErik14.07.18 16:37
Weia

Beispiel: Du sitzt an einer Vektorgrafik und willst eine Linie pixelgenau durch einen bestimmten Punkt führen, aber ansonsten den Überblick über das Bild behalten (z.B. sehen, wo diese Linie dann am Bildrand landet).

Was geht schneller und fühlt sich natürlicher an:
  • Du zoomst das Bild kurzfristig um den Faktor 2 oder mehr, verschiebst den Bildausschnitt so, dass der fragliche Punkt sichtbar ist, führst die Linie durch diesen Punkt und setzt den Zoom wieder zurück, siehst dann evtl., dass die Linie somit am Bildrand an einer ungewollten Stelle landet, zoomst also wieder hinein und verschiebst den Punkt etwas usw.
  • Du gehst zum präzisen Setzen der Linie mit den Augen kurz auf 25 cm an den Monitor heran, kontrollierst aus dem Augenwinkel, ob die Linie auch am Bildrand passt, und gehst mit dem Kopf dann wieder zurück

Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
+2
Moogulator
Moogulator14.07.18 17:00
Alles was Apple abgibt wird fairer im Preis, gern auch ssd und ram wieder von fairen Anbietern
Ich habe eine MACadresse!
+1
Boney14.07.18 18:03
Eine integrierte Grafikkarte halt ich für nicht sinnvoll, da Apple viel für die externe GPU-Unterstützung getan hat. Denn eine integrierte Grafik in einem Monitor! kann man nicht austauschen. Außerdem ist die Wärmeentwicklung einer Hochleistungs-Grafikkarte zu hoch.
Eventus
Warum nicht mit integriertem tv? Dann wäre das Ding auch ohne angeschlossenen Laptop nützlich.

Das ist eine gute Idee. Am besten mit einem Modul, was man herausnehmen kann. Aber leider wird Apple so einen Aufwand wohl nicht betreiben. Überhaupt sollten TVs mit integriertem Apple TV (Lizenzabkommen mit Apple) auf den Markt kommen, sodass auch die TV-Steuerung eine passende Benutzeroberfläche hat. Somit würde man auch nur eine Fernbedienung benötigen.
0
jensche14.07.18 18:17
Das Problem in diesem Markt: Alle Hersteller bauen eigentlich nur Gehäuse für die Panels. Sprich LG und Samsung bringen Panels und es wird ein Gehäuse drum gebaut.

Darum gibts von allen Herstellern praktisch die gleiche Monitorpalette, gleiche Grössen, gleiche Varianten (z.b. Curved ultra Wide) usw.
+2
McErik14.07.18 18:46
jensche
Das Problem in diesem Markt: Alle Hersteller bauen eigentlich nur Gehäuse für die Panels. Sprich LG und Samsung bringen Panels und es wird ein Gehäuse drum gebaut.

Darum gibts von allen Herstellern praktisch die gleiche Monitorpalette, gleiche Grössen, gleiche Varianten (z.b. Curved ultra Wide) usw.

Stimmt! Wobei die Panels von Samsung meist die besseren sind.
Andererseits hätte wohl gerade Apple die Möglichkeit, bei denen etwas selbst Entworfenes zu bestellen. Zumal der Preis bei Apple-Kunden eine eher untergeordnete Rolle spielt (siehe iPhone X!).
+1
Weia14.07.18 19:33
McErik
Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
Natürlich. Wenn mangels Auflösung zwei Bildpixel zu einem auf dem Bildschirm werden, wie willst Du dann pixelgenau arbeiten?
-1
McErik14.07.18 19:46
Weia
McErik
Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
Natürlich. Wenn mangels Auflösung zwei Bildpixel zu einem auf dem Bildschirm werden, wie willst Du dann pixelgenau arbeiten?

Das ist ein ganz anderes Argument. Dann machst Du die geforderte Pixelzahl des Bildschirms von der für Deine Grafik erwünschten Pixelzahl abhängig und nicht von der Bildschärfe. Außerdem, wenn es so viele Pixel im Bildschirm gibt, dass Du sie auch in 25 cm Entfernung nicht mehr erkennen kannst (das bedeutet scharfes Bild!), kannst Du auch nicht mehr pixelgenau arbeiten! Das Argument ist verquer!
+4
Weia14.07.18 19:53
Boney
Eine integrierte Grafikkarte halt ich für nicht sinnvoll, da Apple viel für die externe GPU-Unterstützung getan hat.
Öhm, ja – eben! Technisch gesehen handelt es sich bei einem Monitor mit GPU schließlich um eine eGPU (extern aus Sicht des Computers). Ich würde vermuten, dass ein Monitor mit Grafikkarte Apples Hauptziel in Zusammenhang mit eGPUs ist.

Letztlich ist das vergleichbar den Aktivlautsprechern im Audiobereich. Ursprünglich waren Verstärker und Passivboxen aus rein technikgeschichtlichen Gründen getrennt. Irgendwann kam man dann drauf, dass sich ein optimaleres Ergebnis erzielen ließe, wenn Lautsprecherchassis und Ansteuerelektronik = Leistungsverstärker eine aufeinander abgestimmte Einheit bilden würden. Und so ist das mit („passiven“) Displays und Ansteuerelektronik = Grafikkarte halt auch.
Denn eine integrierte Grafik in einem Monitor! kann man nicht austauschen.
Wie kommst Du auf die seltsame Idee, Apple würde auf austauschbare Grafikkarten Wert legen?
Außerdem ist die Wärmeentwicklung einer Hochleistungs-Grafikkarte zu hoch.
Da muss man sich halt bei der Konstruktion was einfallen lassen.
-3
Weia14.07.18 20:14
McErik
Weia
McErik
Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
Natürlich. Wenn mangels Auflösung zwei Bildpixel zu einem auf dem Bildschirm werden, wie willst Du dann pixelgenau arbeiten?
Das ist ein ganz anderes Argument.
Nö, das ist exakt dasselbe.
Dann machst Du die geforderte Pixelzahl des Bildschirms von der für Deine Grafik erwünschte Pixelzahl abhängig und nicht von der Bildschärfe.
Nein, denn das Argument gilt natürlich nur im Rahmen des menschlichen Sehvermögens. 10000 ppi, die eine riesige Grafik auf einem 30"-Display vielleicht bräuchte, um 1:1 aufzulösen, sind natürlich sinnlos. Aber es sollte halt so gut gehen, wie es das menschliche Auge zulässt, und nicht von der Monitorauflösung begrenzt werden. Darüber hinaus muss ich dann vergrößern, schon klar.
Außerdem, wenn es so viele Pixel im Bildschirm gibt, dass Du sie auch in 25 cm Entfernung nicht mehr erkennen kannst (das bedeutet scharfes Bild!), kannst Du auch nicht mehr pixelgenau arbeiten!
Wenn wir von Schärfe in dem Sinne reden, dass ich in 25 cm Abstand wirklich kein Pixel mehr erkennen kann, dann reden wir aber eher über 16k-30"-Monitore oder noch mehr …
0
McErik14.07.18 20:33
Weia
Ich entnehme dem, dass 8K für Deine Grafikaufgabe ausreicht, 5K aber nicht. Also ist es doch eine Frage Deiner Grafikaufgabe. Also eine sehr spezielle Anforderung Deinerseits an den Bildschirm.
Eine allgemeine Anforderung wäre, dass ein Nutzer in üblicher Entfernung keine Pixel mehr erkennt und somit ein scharfes Bild vor sich hat.
Das wären bei 50 cm vor einem 32“-Schirm 15 MPx, bei 40 cm vor einem 30“-Schirm 21 MPx. Über den Abstand kann man diskutieren (mit großen Auswirkungen auf die geforderte Pixelzahl). Nicht aber über spezielle Anforderungen von Grafikaufgaben.
+1
Weia15.07.18 01:58
McErik
Ich entnehme dem, dass 8K für Deine Grafikaufgabe ausreicht, 5K aber nicht.
Nö, 16k wären besser, stehen ja aber überhaupt noch nicht zur Diskussion.
Also ist es doch eine Frage Deiner Grafikaufgabe. Also eine sehr spezielle Anforderung Deinerseits an den Bildschirm.
Ich kann absolut nichts Spezielles an meiner Anforderung entdecken. Das mit der Grafik war doch nur ein denkbares Beispiel (ich selbst bin kein Grafiker). Ich erwarte einfach, dass ein 30"-Monitor, um für alle Fälle gewappnet zu sein, auch dann noch ein möglichst scharfes Bild liefert, wenn ich mit der Nase daraufstoße (oder anders formuliert: Die Grenze sollen meine Augen vorgeben, nicht der Monitor). Das ist aus meiner Sicht eine höchst generische Anforderung; ich will nicht bei erstbester Gelegenheit an Hardwaregrenzen stoßen. (Anderen ist deswegen die Leistung der Grafikkarte sehr wichtig. Mir ist das eher schnuppe, weil mir Performance eher egal ist, aber ich verstehe, dass hier bei anderen hohe Reserven eine generische Anforderung sind.)
Eine allgemeine Anforderung wäre, dass ein Nutzer in üblicher Entfernung keine Pixel mehr erkennt
Nein, damit stimme ich überhaupt nicht überein. Wenn die übliche Entfernung bereits die Leistungsgrenze markiert und keinerlei Reserve mehr für Unübliches vorhanden ist, entspricht das nicht meinen Vorstellungen von guter Hardware.
-1
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen