Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Überlegungen zum Cinema Display: Das braucht Apple, um sich mit einem eigenen Monitor von der Konkurrenz abzuheben

Die wichtigsten Display-Technologien

OLED-Panels (Organic Light Emitting Diode) haben gegenüber LCD (Liquid Crystal Display) ein paar überzeugende Vorteile. Zunächst sind OLEDs selbstleuchtend und benötigen daher keine extra Hintergrundbeleuchtung, wie LCD. Dadurch entfallen Probleme, wie eine ungleichmäßige Ausleuchtung der Bildschirmfläche. Durch den Wegfall einer permanenten Hintergrundbeleuchtung können OLEDs zweitens einen quasi perfekten Schwarzwert und damit besseren Kontrast darstellen. Bei LCD wird „Schwarz“ erzeugt, indem die dauerhaft aktive Hintergrundbeleuchtung durch die Pixel wie mit einer Jalousie abgeschattet wird. Doch genau wie eine Jalousie sind LCDs nicht in der Lage, 100% des von hinten auftreffenden Lichts zu blocken. Es gelangt immer ein kleiner Teil des Lichts hindurch, wodurch Schwarz bei LCD niemals ganz schwarz ist. Bei den selbstleuchtenden OLEDs werden hingegen die Pixel für absolutes Schwarz einfach abgeschaltet. – Vereinfacht dargestellt.


Bei TV-Geräten haben OLED-Panels inzwischen einen respektablen Marktanteil gegenüber LCDs erlangt. Warum es bis heute praktisch keine Computermonitore mit OLED-Technologie gibt, hat mehrere Gründe. OLEDs können bislang keine ganz so große Helligkeit wie LCD-Panels erzeugen, sie sind über die Zeit nicht ganz so farbstabil und es besteht die Gefahr von Einbrenneffekten, was bei statischen Computerbildern eine größere Gefahr ist, als bei bewegten TV-Bildern.

LCD-Panel können heute in beinahe jeder Größe und mit hohen Auflösungen und in großer Stückzahl und zu überschaubaren Kosten hergestellt werden. Gute LCD-Monitore gibt es daher heute schon für weit unter 1.000 Euro. Schwierig wird es erst, wenn sehr hohe Anforderungen an die Farbtreue gefordert sind, wie ich letzte Woche bei der Produktvorstellung des Eizo ColorEdge CG319X ausgeführt habe. Außerdem besteht bei LCDs nach wie vor das große Problem mit der unumgänglichen Hintergrundbeleuchtung. Um eine möglichst gleichmäßige Ausleuchtung mit hoher Helligkeit zu erzielen, wird bei besseren TV-Geräten heutzutage das sogenannte Local Dimming eingesetzt. Anstatt das Licht durch seitlich am Panel eingesetzte Lampen über eine matte Folie über die Fläche zu verteilen, wird beim Lokal Dimming eine größere Anzahl einzelner, direkt hinter dem Panel sitzender LEDs eingesetzt, die je nach Bildschirminhalt individuell und dynamisch gedimmt oder gar abgeschaltet werden können. Durch diesen Trick können diese LCD-Fernseher einen sehr guten Schwarzwert erzeugen, der nahe an die Leistung von OLEDs herankommt. Doch die Zahl der hinter dem Panel angebrachten Lämpchen ist bei weitem nicht so groß, wie die Anzahl der Bildpunkte (Pixel) des Panels. Heißt: Eine LED-Leuchte ist, je nach Anzahl der Zonen, für einen mehr oder weniger großen Pixel-Cluster zuständig. Dadurch kann es bei sehr feinen Hell/Dunkel-Details zu einem „Halo“-Effekt kommen. Sterne am Nachthimmel, weiße Schrift auf schwarzem Hintergrund oder auch ein Senderlogo vor Schwarz erscheinen dann mit einem leuchtenden Kranz. Daher wird die Local-Dimming-Technik bis heute nur selten in Computer-Monitoren eingesetzt. (Eine Ausnahme als Beispiel: ASUS PA32UC-K)

So funktioniert Local Dimming (Video: Panasonic)

LCDs haben zwar einen hohen Entwicklungsstand aber auch Grenzen erreicht. Sie lassen sich ohne hohen Aufwand oder neue innovative Techniken kaum noch verbessern. OLEDs hingegen sind bis heute für Computer-Bildschirme (Smartphones und Tablets nicht mitgerechnet) offenbar noch nicht auf dem benötigten technischen Niveau. Also was tun?


MicroLED to the Rescue?
Laut Insiderberichten und aufgrund einiger Patentschriften investiert Apple seit geraumer Zeit viel Geld in eine Technologie namens MicroLED (oder mLED). Sie soll die Vorteile von OLED und LCD miteinander kombinieren und deren Nachteile vermeiden. Die Idee ist Simpel: Statt organischer Leuchtpunkte, wie bei OLED, sollen mikroskopisch kleine LED-Lampen Pixel bilden und das Bild erzeugen. Im Gegensatz zu OLED sind LEDs langlebiger, farbstabiler/treuer und können höhere Lichtstärken emittieren. Und wenn jeder einzelne Bildpunkt eine LED ist, kann man die, genau wie OLED, auch einzeln abschalten. Eine Hintergrundbeleuchtung wie bei LCD entfällt. Auch Einbrenneffekte gibt es bei LEDs nicht. Zudem sind sie sehr schnell in der Ansteuerung, sodass hohe Bildwiederholfrequenzen möglich wären.


Ich bin mir ziemlich sicher, dass MicroLEDs sowohl LCD als auch OLED mittel- bis langfristig ablösen werden. Das Problem: Ihre Entwicklung ist bei weitem noch nicht so weit fortgeschritten, um damit in absehbarer Zeit hochauflösende Monitore bauen zu können.

Samsung hat zwar schon einen riesigen, aus mehreren individuellen Panels zusammengesetzten 8K MicroLED-Prototypen gezeigt. Der ist allerdings mit 146 Zoll Diagonale extrem groß und damit auch die darin verbauten MicroLEDs. Für ein 8K-Display mit um die 30“ Diagonale müssten die Pixel-LEDs erheblich kleiner sein. Selbiges gilt natürlich auch für Displays in Smart-Devices.

Samsung 146" Jumbo-Bildschirm mit MicroLED-Technik

Die Vermutung ist, dass Apple zunächst Displays mit deutlich geringerer Auflösung mit MicroLED-Technik auf den Markt bringen wird. Etwa in der Apple Watch. Für ein 2019er Cinema Display ist die Technik noch nicht reif. Es sei denn, Apple ist hierbei ein erstaunlicher Durchbruch gelungen, den sie erfolgreich geheim halten konnten. Aber das bezweifle ich.


Was bleibt ist LCD
Andere Lösungen außer LCD, OLED oder MicroLED sind derzeit nicht in Sicht, bzw. nicht annähernd so weit erforscht, um daraus in absehbarer Zeit Massenprodukte fertigen zu können. Auch MicroLEDs stecken noch zu sehr in den Kinderschuhen und OLED eignet sich nach wie vor nicht ausreichend für Computerbildschirme, von daher bleibt als wahrscheinlichste Variante für den avisierten Apple Mac-Monitor die gute, alte LCD-Technik – mit all ihren Vor- und Nachteilen.


Kommentare

jensche14.07.18 09:11
Für Pro user mit Multi Screen Konfigurationen, z.b. ein iMac Pro mit einem Zusatzscreen müsste rein designtechnisch die Höhe des screens auf gleicher höhe sein wie der iMac.

Ich hoffe nun seit knapp 12 Jahren auf einen neuen Apple Cinema Display. wenn man einmal die 30 Zoll überschritten hat und auf eine Ein-Monitorkonfiguration eingewöhnt hat, will man nicht zurück auf mickrige 27".

Problem welche alle Anbieter von Monitoren haben ist nämlich das "Intel-Problem".
Sprich abhängigkeit der Panelhersteller was die Rausbringen. Nebst LG ist das meist Samsung. Diese Anbieter von Monitoren verbauen das was sie bekommen. Darum gibts von allen Herstellern eigentlich nur unterschiedlich verpackte Panels. Und in dem Sinne keine Neuerung.

Aus meiner Erfahrung hat es leider bisher noch kein Hersteller ausser Apple gesschaft, Qualitativ hochwertes Design mit guten Panels zu vereinen. Nicht mal die teuersten Top-Modelle von Eizo sind, ausser jetzt das Panel, vom Gehäuse her Qualitätiv gut und schön. Immer dieser Bulky Plastikschrott welcher wackelt.

Ich bin der Meinung ein Guter Monitor darf auch gutes Design haben.
+1
jensche14.07.18 09:28
Einfach kein OLED. Danke.
0
maculi
maculi14.07.18 09:28
Was mir bei den Überlegungen noch fehlt ist so eine Art Thunderbolt-Dock-Funktionalität. Die meisten Macs sind schon sein Jahren Laptops. Apple wäre selten dämlich, wenn sie irgend etwas MacPro-Exklusives rausbringen würden. Zumindest mit den halbwegs aktuellen Macs mit Thunderbolt3 müsste der Moni irgendwie laufen. Keine Ahnung, ob sich die bisher verbauten TB3-Anschlüsse per Firmware-Update auf 8k hoch rüsten lassen, oder ob das irgendwie anders gehen soll. Aber wenn es sich realisieren läßt, das viele der in jüngerer Zeit verkauften Macs den Moni nutzen, und dann gerade die Laptops mit einem Kabel Strom, Netzwerk, Zugang zu diverser Peripherie kriegen und das Bildsignal übermitteln, dann wäre der mögliche Kundenkreis wenigstens groß genug.
+1
Richard
Richard14.07.18 09:32
warum sollte Apple auf einmal wieder Displays bauen? Wird nicht passieren. Der markt ist für Cook viel zu uninteressant. Wenn Sie das gewollt hätten, dann hätte die einfach vor zwei Jhren eine TB Version des cinema machen können.
Also ich glaub nicht an einen Monitor von Apple oder der kostet > 2.000 €.
iMac 27 :: MacBookPro Retina :: OS X 10.13
-17
firstofnine14.07.18 09:41
Das Problem ist doch, dass es kein anderer Hersteller schafft, so etwas Profanes, wie einen gut gemachten und stabilen Monitor zu bauen, der GUT AUSSIEHT. Nachher schauen LG, Samsung und Co. wieder blöd aus der Wäsche, wenn die Kunden 1000 - 2000 Euro für einen Monitor kaufen, der sich einfach schöner in die Wohnlandschaft integriert, als ein blödes schwarzes Plastikteil. Nur, wer kann und will sich so einen Monitor leisten? Der Normalverdiener hat dann nur die Wahl, mit dem schwarzen Plastikklumpen zu leben.
Wann man nichts ändert, dann ändert sich nichts!
+4
Mendel Kucharzeck
Mendel Kucharzeck14.07.18 09:58
Richard
Ist schon angekündigt worden im Frühjahr 2017.
+3
mr_jo14.07.18 09:59
Ich denke Apple wird kein Display auf den Markt bringen das nur vom Mac Pro betrieben werden kann. Die Stückzahlen wären einfach zu gering. Ich gehe davon aus das es beim Design als auch bei der Auflösung um das gleiche Teil handelt wie im iMac Pro verbaut. Ich halte es für sehr wahrscheinlich das eine eGPU eingebaut sein wird, nebst Hub mit sinnvoll Schnittstellen. Dieses Display kann an allen aktuell verbauten Macs (mit Ausnahme des Mini und MBA) betrieben werden (TB3). Der Mac Pro wird in der Grundausstattung ohne GraKa daher kommen, da die bereits im Display verbaut ist.
Der zukünftige MP Käufer wird die Wahl haben, das neue Apple Display zu kaufen oder eine (teure) GraKa mit einem Display eines Fremdherstellers.
Jeder Mac mit TB3 (insbesondere wenn nur eine Intel GPU verbaut ist), profitiert von der eGPU im neuen Display. Selbst der iMac Pro Kunde kann ein 2. Display nebenan stellen ohne Geschwindigkeitsverluste.
+4
barabas14.07.18 10:23
Ich kann mir im Moment auch nicht vorstellen das Apple wieder in den Monitormarkt aufspringt. Die einzige, wenn auch geringe Wahrscheinlichkeit besteht, solches zeitgleich mit dem Erscheinen eines neuen MacPros auf den Markt zu bringen. Vom Design dürfte dieser dann diesem neuen Mac angepasst sein.
Allerdings, ich denke das der Grossteil der Mac User welche heute aktuell auf einen externen (hochwertigen) Monitor angewiesen sind, sich hier schon ausreichend mit den Angeboten von Drittherstellern eingedeckt haben. Die Stückzahlen die hier dann wohl verkauft würden, wären eher gering und deshalb vermutlich unrentabel.
-5
Boney14.07.18 10:35
MicroLED vereint die Vorteile von OLED und LCD. Es ist die beste Technologie. Ich hoffe Apple verbaut das bald in allen Macs.
0
Cliff the DAU
Cliff the DAU14.07.18 10:47
Wenn Apple einen Monitor rausbringt, dann hat bestimmt nur einen einzigen Anschluss der zu keinem derzeitigen Anschluss kompatibel ist.
„Es gibt keine Nationalstaaten mehr. Es gibt nur noch die Menschheit und ihre Kolonien im Weltraum.“
+3
colouredwolf14.07.18 11:09
mLED steht für das nichtexistente milliLED. Korrekterweise müsste es μLED heißen.

Optimal wäre 8k mit integrierter eGPU, die optimal auf die Monitordaten abgestimmt ist - genau die Leistung bringt, um 8k mit 60 oder 120 Hz darzustellen.
+4
verstaerker
verstaerker14.07.18 11:49
colouredwolf
Optimal wäre 8k mit integrierter eGPU, die optimal auf die Monitordaten abgestimmt ist - genau die Leistung bringt, um 8k mit 60 oder 120 Hz darzustellen.

und bitte ultraleise .. ist mir scheißegal was die mit der Hitze machen.. hören will ich meinen Monitor sicher nicht
+2
McErik14.07.18 13:02
Ein sehr guter Artikel!
Insbesondere was zu OLED und mLED gesagt wurde. (Hier geht es nicht um Einheiten. Deshalb hat das m auch nichts mit Milli zu tun!) Interessant wäre noch, ob Apple dann die mLED-Displays (erstmals) selbst baut, oder wer der Auftragsfertiger wird.

Ob 8K-Bildschirme überhaupt sinnvoll sind?
Bei der Auflösung geht es ja nicht um ein Maximum, das technisch möglich ist, sondern um das Optimum bezogen auf das menschliche Auge.
Darüber kann man eine ganze Wissenschaft entwickeln. Führt aber zu nichts! Deshalb drei einfache Bedingungen, die schon seit Jahrhunderten bekannt sind:
1. Das menschliche Auge löst etwa eine Bogenminute auf. D.h. die Grenze liegt bei einem Verhältnis von 1/3500 zwischen Punktgröße und Betrachtungsabstand.
2. Man kommt einem Betrachtungsobjekt nicht näher als 25 cm (10“). Akkomodation aber vor allem auch Schielen!
3. Will man ein Bild als Ganzes betrachten, kommt man nicht näher als bis zur Diagonale.
Hieraus ergibt sich (Exaktheit ist unangebracht), dass ein scharfes iPad (10“) eine Auflösung von 350 ppi und 6 Millionen Pixel haben sollte. Kleinere Bildschirme (iPhone) brauchen die gleiche Auflösung aber nicht dieselbe Pixelzahl. Größere Bildschirme (Monitore) dieselbe Pixelzahl bei dann aber geringerer Auflösung.
Dies könnte man die Retina-Bedingungen nennen, auch wenn ich das von Apple so noch nicht gelesen habe. Bei den Retina-Bildschirmen hält sich Apple auch ungefähr daran. Am wenigsten noch beim iPad (müsste 2100 x 2800 Pixel haben).
Einem Schreibtischmonitor nähert man sich nun vielleicht etwas mehr. Sagen wir einem 32“-Schirm auf 50 cm. Dann benötigte dieser für ein scharfes Bild 15 MPx. 8K mit 32 MPx scheint mir doch übertrieben. Zumal wenn mit Aufwand verbunden.
Ich könnte mir vorstellen, dass Apple in dieser Richtung Untersuchungen mit Nutzern macht, bevor sie neue Bildschirme herausbringen. Wie bekannt, schert sich Apple ja wenig um geäußerte Kundenwünsche aber auch nicht um Marketingforderungen (wer hat die größte Auflösung).

Oder kommt vielleicht ein wirklich stark gekrümmter Bildschirm um den Nutzerplatz herum? Das wäre mal was Neues!
+4
macster10014.07.18 13:42
Ich würde mir ja einen hochaufgelösten Ultrawide-Monitor von Apple wünschen, aber das dürfte ein zu nischenhafter Wunsch sein …
0
Weia
Weia14.07.18 14:29
Redaktionsintern wird noch eine andere Möglichkeit heiß diskutiert. So scheint es durchaus vorstellbar, dass Apple das neue Cinema Display (oder wie auch immer es heißen wird) mit einer internen Grafikkarte ausstattet.
Huh? Ich dachte, es sei vollkommen klar, dass das so sein wird.
🦖The dinosaurs invented Jesus to test our confidence in science
0
Eventus
Eventus14.07.18 14:33
Warum nicht mit integriertem tv? Dann wäre das Ding auch ohne angeschlossenen Laptop nützlich.
Live long and prosper! 🖖
-1
Weia
Weia14.07.18 14:51
McErik
Bei der Auflösung geht es ja nicht um ein Maximum, das technisch möglich ist, sondern um das Optimum bezogen auf das menschliche Auge.
Darüber kann man eine ganze Wissenschaft entwickeln. Führt aber zu nichts!
Doch: zu vernünftigen Überlegungen statt apodiktischen Behauptungen.
Deshalb drei einfache Bedingungen, die schon seit Jahrhunderten bekannt sind:
Mir nicht. Deshalb …
2. Man kommt einem Betrachtungsobjekt nicht näher als 25 cm (10“). Akkomodation aber vor allem auch Schielen!
… ist mein Leseabstand für Bücher und iPads seit eh und je knappe 20 cm. Blöd, dass ich nach Jahrzehnten erfahre, dass das gar nicht sein kann …
3. Will man ein Bild als Ganzes betrachten, kommt man nicht näher als bis zur Diagonale. Hieraus ergibt sich […] Größere Bildschirme (Monitore) dieselbe Pixelzahl bei dann aber geringerer Auflösung.
Nein, dass ergibt sich daraus nicht. Denn einen Computermonitor will ich (im Gegensatz zu einem TV-Monitor) natürlich nicht als Ganzes betrachten; dann wäre der ganze Gag eines großen Monitors ja hinfällig und ich könnte ebenso gut einen kleineren (mit höherem PPI-Wert) wählen. Der ganze Gag eines großen Monitors ist, dass ich durch Ändern der Blickrichtung verschiedene (Ausschnitts-)Bereiche ansehen und somit schnell zwischen verschiedenen Informationen wechseln kann.
Einem Schreibtischmonitor nähert man sich nun vielleicht etwas mehr. Sagen wir einem 32“-Schirm auf 50 cm.
Vor meinem 30"-Cinema-Display sitze ich in der Regel mit 40 cm Abstand, gehe zum Betrachten von Details aber auch mal auf 25 cm heran. Dann würde ich mir ein Retina-Display sehr wünschen.
Dann benötigte dieser für ein scharfes Bild 15 MPx. 8K mit 32 MPx scheint mir doch übertrieben.
Und mir würde es bei einem Display, das etwas größer als 30" ist, gerade so reichen.

Ich finde es immer wieder frappierend, wie manche hier ihre persönlichen Nutzungsmuster verabsolutieren.
🦖The dinosaurs invented Jesus to test our confidence in science
+4
McErik14.07.18 15:58
Weia
Den minimalen (bequemen) Betrachtungsabstand habe ich mir nicht ausgedacht. Er wird in Physik und Technik herangezogen, z.B. bei der Berechnung der Vergrößerung von Lupe und Mikroskop. Längeres, beidäugiges Lesen mit einem Abstand von 20 cm oder gar darunter ist für fast alle Menschen sehr anstrengend! Aber es mag ja Ausnahmen geben.
Einen Betrachtungsabstand von 40 cm vor einem 30“-Bildschirm kann ich mir ja noch vorstellen, obwohl selten gesehen. Aber 25 cm vor so einem großen Bildschirm, und sei es nur vorübergehend, würde ich schon als merkwürdig empfinden.
Apple bietet bei aktuellen iMacs (Retina) gerade 15 MPx-Displays. Also etwa auf meiner Linie.
Im Übrigen sprach ich gar nicht über mein Nutzungsmuster, schon gar nicht apodiktisch! Ich habe mir nur Gedanken darüber gemacht, ob Apple wohl Bildschirme mit 8K-Auflösung herausbringen wird. Und ich glaube im Gegensatz zum Autor des Artikels eher nicht daran. Ich hielte es auch aus den ausgeführten Gründen nicht für vernünftig . (Verpixelte Bilder mag ich ganz und gar nicht.) Aber natürlich kann ich mich da irren.
+3
Weia
Weia14.07.18 16:22
McErik
Aber 25 cm vor so einem großen Bildschirm, und sei es nur vorübergehend, würde ich schon als merkwürdig empfinden.
Beispiel: Du sitzt an einer Vektorgrafik und willst eine Linie pixelgenau durch einen bestimmten Punkt führen, aber ansonsten den Überblick über das Bild behalten (z.B. sehen, wo diese Linie dann am Bildrand landet).

Was geht schneller und fühlt sich natürlicher an:
  • Du zoomst das Bild kurzfristig um den Faktor 2 oder mehr, verschiebst den Bildausschnitt so, dass der fragliche Punkt sichtbar ist, führst die Linie durch diesen Punkt und setzt den Zoom wieder zurück, siehst dann evtl., dass die Linie somit am Bildrand an einer ungewollten Stelle landet, zoomst also wieder hinein und verschiebst den Punkt etwas usw.
  • Du gehst zum präzisen Setzen der Linie mit den Augen kurz auf 25 cm an den Monitor heran, kontrollierst aus dem Augenwinkel, ob die Linie auch am Bildrand passt, und gehst mit dem Kopf dann wieder zurück

Apple bietet bei aktuellen iMacs (Retina) gerade 15 MPx-Displays. Also etwa auf meiner Linie.
Richtig. Aber liegt es nicht nahe, dass der alleinstehende Monitor eine Klasse über den iMacs angesiedelt sein sollte?
🦖The dinosaurs invented Jesus to test our confidence in science
-1
McErik14.07.18 16:37
Weia

Beispiel: Du sitzt an einer Vektorgrafik und willst eine Linie pixelgenau durch einen bestimmten Punkt führen, aber ansonsten den Überblick über das Bild behalten (z.B. sehen, wo diese Linie dann am Bildrand landet).

Was geht schneller und fühlt sich natürlicher an:
  • Du zoomst das Bild kurzfristig um den Faktor 2 oder mehr, verschiebst den Bildausschnitt so, dass der fragliche Punkt sichtbar ist, führst die Linie durch diesen Punkt und setzt den Zoom wieder zurück, siehst dann evtl., dass die Linie somit am Bildrand an einer ungewollten Stelle landet, zoomst also wieder hinein und verschiebst den Punkt etwas usw.
  • Du gehst zum präzisen Setzen der Linie mit den Augen kurz auf 25 cm an den Monitor heran, kontrollierst aus dem Augenwinkel, ob die Linie auch am Bildrand passt, und gehst mit dem Kopf dann wieder zurück

Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
+2
Moogulator
Moogulator14.07.18 17:00
Alles was Apple abgibt wird fairer im Preis, gern auch ssd und ram wieder von fairen Anbietern
Ich habe eine MACadresse!
+1
Boney14.07.18 18:03
Eine integrierte Grafikkarte halt ich für nicht sinnvoll, da Apple viel für die externe GPU-Unterstützung getan hat. Denn eine integrierte Grafik in einem Monitor! kann man nicht austauschen. Außerdem ist die Wärmeentwicklung einer Hochleistungs-Grafikkarte zu hoch.
Eventus
Warum nicht mit integriertem tv? Dann wäre das Ding auch ohne angeschlossenen Laptop nützlich.

Das ist eine gute Idee. Am besten mit einem Modul, was man herausnehmen kann. Aber leider wird Apple so einen Aufwand wohl nicht betreiben. Überhaupt sollten TVs mit integriertem Apple TV (Lizenzabkommen mit Apple) auf den Markt kommen, sodass auch die TV-Steuerung eine passende Benutzeroberfläche hat. Somit würde man auch nur eine Fernbedienung benötigen.
0
jensche14.07.18 18:17
Das Problem in diesem Markt: Alle Hersteller bauen eigentlich nur Gehäuse für die Panels. Sprich LG und Samsung bringen Panels und es wird ein Gehäuse drum gebaut.

Darum gibts von allen Herstellern praktisch die gleiche Monitorpalette, gleiche Grössen, gleiche Varianten (z.b. Curved ultra Wide) usw.
+2
McErik14.07.18 18:46
jensche
Das Problem in diesem Markt: Alle Hersteller bauen eigentlich nur Gehäuse für die Panels. Sprich LG und Samsung bringen Panels und es wird ein Gehäuse drum gebaut.

Darum gibts von allen Herstellern praktisch die gleiche Monitorpalette, gleiche Grössen, gleiche Varianten (z.b. Curved ultra Wide) usw.

Stimmt! Wobei die Panels von Samsung meist die besseren sind.
Andererseits hätte wohl gerade Apple die Möglichkeit, bei denen etwas selbst Entworfenes zu bestellen. Zumal der Preis bei Apple-Kunden eine eher untergeordnete Rolle spielt (siehe iPhone X!).
+1
Weia
Weia14.07.18 19:33
McErik
Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
Natürlich. Wenn mangels Auflösung zwei Bildpixel zu einem auf dem Bildschirm werden, wie willst Du dann pixelgenau arbeiten?
🦖The dinosaurs invented Jesus to test our confidence in science
-1
McErik14.07.18 19:46
Weia
McErik
Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
Natürlich. Wenn mangels Auflösung zwei Bildpixel zu einem auf dem Bildschirm werden, wie willst Du dann pixelgenau arbeiten?

Das ist ein ganz anderes Argument. Dann machst Du die geforderte Pixelzahl des Bildschirms von der für Deine Grafik erwünschten Pixelzahl abhängig und nicht von der Bildschärfe. Außerdem, wenn es so viele Pixel im Bildschirm gibt, dass Du sie auch in 25 cm Entfernung nicht mehr erkennen kannst (das bedeutet scharfes Bild!), kannst Du auch nicht mehr pixelgenau arbeiten! Das Argument ist verquer!
+4
Weia
Weia14.07.18 19:53
Boney
Eine integrierte Grafikkarte halt ich für nicht sinnvoll, da Apple viel für die externe GPU-Unterstützung getan hat.
Öhm, ja – eben! Technisch gesehen handelt es sich bei einem Monitor mit GPU schließlich um eine eGPU (extern aus Sicht des Computers). Ich würde vermuten, dass ein Monitor mit Grafikkarte Apples Hauptziel in Zusammenhang mit eGPUs ist.

Letztlich ist das vergleichbar den Aktivlautsprechern im Audiobereich. Ursprünglich waren Verstärker und Passivboxen aus rein technikgeschichtlichen Gründen getrennt. Irgendwann kam man dann drauf, dass sich ein optimaleres Ergebnis erzielen ließe, wenn Lautsprecherchassis und Ansteuerelektronik = Leistungsverstärker eine aufeinander abgestimmte Einheit bilden würden. Und so ist das mit („passiven“) Displays und Ansteuerelektronik = Grafikkarte halt auch.
Denn eine integrierte Grafik in einem Monitor! kann man nicht austauschen.
Wie kommst Du auf die seltsame Idee, Apple würde auf austauschbare Grafikkarten Wert legen?
Außerdem ist die Wärmeentwicklung einer Hochleistungs-Grafikkarte zu hoch.
Da muss man sich halt bei der Konstruktion was einfallen lassen.
🦖The dinosaurs invented Jesus to test our confidence in science
-3
Weia
Weia14.07.18 20:14
McErik
Weia
McErik
Braucht man für diesen kurzen Kontrollblick in einer speziellen Aufgabe wirklich insgesamt eine höhere Auflösung?
Natürlich. Wenn mangels Auflösung zwei Bildpixel zu einem auf dem Bildschirm werden, wie willst Du dann pixelgenau arbeiten?
Das ist ein ganz anderes Argument.
Nö, das ist exakt dasselbe.
Dann machst Du die geforderte Pixelzahl des Bildschirms von der für Deine Grafik erwünschte Pixelzahl abhängig und nicht von der Bildschärfe.
Nein, denn das Argument gilt natürlich nur im Rahmen des menschlichen Sehvermögens. 10000 ppi, die eine riesige Grafik auf einem 30"-Display vielleicht bräuchte, um 1:1 aufzulösen, sind natürlich sinnlos. Aber es sollte halt so gut gehen, wie es das menschliche Auge zulässt, und nicht von der Monitorauflösung begrenzt werden. Darüber hinaus muss ich dann vergrößern, schon klar.
Außerdem, wenn es so viele Pixel im Bildschirm gibt, dass Du sie auch in 25 cm Entfernung nicht mehr erkennen kannst (das bedeutet scharfes Bild!), kannst Du auch nicht mehr pixelgenau arbeiten!
Wenn wir von Schärfe in dem Sinne reden, dass ich in 25 cm Abstand wirklich kein Pixel mehr erkennen kann, dann reden wir aber eher über 16k-30"-Monitore oder noch mehr …
🦖The dinosaurs invented Jesus to test our confidence in science
0
McErik14.07.18 20:33
Weia
Ich entnehme dem, dass 8K für Deine Grafikaufgabe ausreicht, 5K aber nicht. Also ist es doch eine Frage Deiner Grafikaufgabe. Also eine sehr spezielle Anforderung Deinerseits an den Bildschirm.
Eine allgemeine Anforderung wäre, dass ein Nutzer in üblicher Entfernung keine Pixel mehr erkennt und somit ein scharfes Bild vor sich hat.
Das wären bei 50 cm vor einem 32“-Schirm 15 MPx, bei 40 cm vor einem 30“-Schirm 21 MPx. Über den Abstand kann man diskutieren (mit großen Auswirkungen auf die geforderte Pixelzahl). Nicht aber über spezielle Anforderungen von Grafikaufgaben.
+1
Weia
Weia15.07.18 01:58
McErik
Ich entnehme dem, dass 8K für Deine Grafikaufgabe ausreicht, 5K aber nicht.
Nö, 16k wären besser, stehen ja aber überhaupt noch nicht zur Diskussion.
Also ist es doch eine Frage Deiner Grafikaufgabe. Also eine sehr spezielle Anforderung Deinerseits an den Bildschirm.
Ich kann absolut nichts Spezielles an meiner Anforderung entdecken. Das mit der Grafik war doch nur ein denkbares Beispiel (ich selbst bin kein Grafiker). Ich erwarte einfach, dass ein 30"-Monitor, um für alle Fälle gewappnet zu sein, auch dann noch ein möglichst scharfes Bild liefert, wenn ich mit der Nase daraufstoße (oder anders formuliert: Die Grenze sollen meine Augen vorgeben, nicht der Monitor). Das ist aus meiner Sicht eine höchst generische Anforderung; ich will nicht bei erstbester Gelegenheit an Hardwaregrenzen stoßen. (Anderen ist deswegen die Leistung der Grafikkarte sehr wichtig. Mir ist das eher schnuppe, weil mir Performance eher egal ist, aber ich verstehe, dass hier bei anderen hohe Reserven eine generische Anforderung sind.)
Eine allgemeine Anforderung wäre, dass ein Nutzer in üblicher Entfernung keine Pixel mehr erkennt
Nein, damit stimme ich überhaupt nicht überein. Wenn die übliche Entfernung bereits die Leistungsgrenze markiert und keinerlei Reserve mehr für Unübliches vorhanden ist, entspricht das nicht meinen Vorstellungen von guter Hardware.
🦖The dinosaurs invented Jesus to test our confidence in science
-1
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.