iPhone Xs Max vs. Pixel 3 XL: Die Fotoqualität der beiden Topmodelle im Vergleich

Das kürzlich von Google präsentierte Pixel 3 XL glänzt – wie schon der Vorgänger – durch eine besonders gute Kameraleistung. Entsprechend liefert sich das Gerät mit der Premium-Konkurrenz einen engen Kampf um die Kamera-Krone im Smartphone-Segment. MacRumors lässt Googles neues Topmodell gegen das iPhone Xs Max antreten und zeigt im Video, in welchen Bereichen das iPhone vorne liegt und wo das Pixel 3 XL mehr überzeugt.


Porträtmodus
Im Gegensatz zum iPhone Xs Max erscheint das Pixel 3 XL mit nur einer 12-Megapixel-Kameralinse auf der Rückseite. Den vom iPhone bekannten Porträtmodus inklusive Tiefenunschärfe ermöglicht Google also nicht über eine zweite Linse, sondern über komplexe Softwareberechnungen. Während die Porträtaufnahmen des iPhone Xs Max insgesamt schärfer erscheinen, gelingt es dem Pixel 3 XL besser, die Abgrenzungen zwischen Hinter- und Vordergrund präzise zu erkennen. Das iPhone stellt zum Teil auch den Randbereich des Vordergrundes unscharf dar.


Quelle: MacRumors

HDR-Aufnahmen
Apple nutzt bei der 2018er iPhone-Generation das neue Feature Smart HDR, das zahlreiche kurz hintereinander angefertigte Aufnahmen zum bestmöglichen Bild kombiniert. Google bietet beim Pixel 3 XL das Äquivalent HDR+. MacRumors bevorzugt die Foto-Ergebnisse des iPhone Xs Max, da sie mehr Details zeigen und auch helle Abschnitte wie den Himmel naturgetreu darstellen. Das Google-Smartphone sei aber nah an den iPhone-Ergebnissen dran.


Low-Light-Fähigkeiten
Beide Geräte liefern vergleichsweise gute Ergebnisse bei schlechten Lichtverhältnissen. Die Fotos des Pixel 3 XL sind zwar ein bisschen heller, zeigen aber auch mehr Bildrauschen als das iPhone. Im Porträtmodus bei Nacht liegt das Pixel 3 XL vorne. Zudem erscheint noch in diesem Jahr ein Update für das Pixel, das die Qualität von Low-Light-Fotos mit dem Feature Night Sight abermals optimieren soll.


Quelle: MacRumors

Front-Kamera
Da das Pixel 3 XL im Gegensatz zum iPhone Xs Max zwei Frontkameras bietet, gibt es beim Google-Gerät mehr Selfie-Features. Dazu gehören Weitwinkel-Aufnahmen, die 184 Prozent mehr an Inhalt erfassen als die Standardvariante. Hinzu kommt der damit zusammenhängende Modus Group-Selfie-Cam, der deutlich mehr Menschen in einer eng beieinander stehenden Menschengruppe darstellt als das neue iPhone.

Kommentare

FlyingSloth16.10.18 16:28
Wie wurde das Pixel noch vor gar nicht langer Zeit belächelt. Heute steht es auf Augenhöhe mit dem iPhone und wird selbst von Mac/iPhone dominierten Seiten als gleichwertig, wenn nicht sogar besser bezeichnet. Wie sich die Zeiten doch ändern.
+7
sonorman
sonorman16.10.18 16:37
Ein paar ebenbürtige Features machen daraus noch kein ebenbürtiges Smartphone.
+1
FlyingSloth16.10.18 16:49
Stimmt da muss Apple noch ne Schippe drauflegen.
sonorman
Ein paar ebenbürtige Features machen daraus noch kein ebenbürtiges Smartphone.
0
sonorman
sonorman16.10.18 16:53
Ho-ho. Netter Kalauer.
-1
Raziel116.10.18 17:00
Die Kommentare der Android Fans zum neuen Pixel sagen genug aus
-2
AndreasDV16.10.18 18:08
Es ist Android drauf. Das absolute KO Kriterium für mich
+7
Boney16.10.18 18:42
FlyingSloth
Wie wurde das Pixel noch vor gar nicht langer Zeit belächelt. Heute steht es auf Augenhöhe mit dem iPhone und wird selbst von Mac/iPhone dominierten Seiten als gleichwertig, wenn nicht sogar besser bezeichnet. Wie sich die Zeiten doch ändern.

Ein iPhone ist ein iPhone, durch iOS.

Wann verstehen das Leute wie du endlich? Ich würde nicht mal für geschenkt Android haben wollen, höchstens um es zu verkaufen.

Ich will diesen verwanzten Google-Mist nicht und außerdem komme ich mit der Bedienung von iOS besser zurecht, die Programme sind besser angepasst und man bekommt jahrelangen Support.

Ich belächel das Pixel, erst Recht zu diesem Preis.
+2
RyanTedder
RyanTedder16.10.18 20:09
Es reicht ja nicht das die Android Fanboys die Apple Nutzer im Alltag und sämtlichen Foren beleidigen und doof anmachen, mitlerweile treiben diese sich auch noch in den Apple Foren rum und gehen selbst da zum Angriff über. Jetzt hat man auch echt nirgendwo mehr seine Ruhe. Langsam wird mir immer mehr bewusst das die Androiden die eigentlichen „Wutbürger“ der Gesellschaft sind. 😉

Für mich ist das Pixel 3 maximal ebenbürtig, aber nicht besser.
-2
Waldi
Waldi16.10.18 20:35
Das Pixel macht knackigere Bilder, das Xs flachere.

Ist auch in anderen Foren schon so empfunden worden...
vanna laus amoris, pax drux bisgoris
+2
Jeronimo
Jeronimo16.10.18 22:42
Diese auch hier wieder mal latent sichtbare iOS-Arroganz ist ein wenig armselig. Android zu ignorieren oder zu belächeln, eben weil es nicht iOS ist, ist engstirnig und albern. Die sind weit gekommen in den letzten Jahren, es gibt eine Menge toller und auch tatsächlich nützlicher Features, was sich Apple angucken könnte (und zum Teil sicher auch wird).
+1
FlyingSloth16.10.18 22:50
Hi Boney,
Ich bin weder Android Fanboy, noch Apple Fanboy. Ich bewege mich nur in beiden Welten. Computerrseitig Mac (Macbook Pros und Mac Minis) und Smartphoneseitg Google (diverse Nexus und Pixel). Tablets nutze ich nicht.

Ich empfinde das reine Android, welches auf den Pixels zu finden ist, das besser OS fuer Smartphones und die Pixel Hardware ebenfalls sehr gelungen. Ein Pixel ist eben eine Pixel wegen dem reinen Android, so wie Du es fuer ein iPhone empfindest.

Warum Google mit dem Pixel goldrichtig liegt und das Pixel trotz verschwindend geringer Stueckzahlen auch fuer iPhone und Apple wichtig ist, wird in diesem Artikel ganz treffend beschrieben. Google treibt mit dem Pixel und Cleanem Android das technisch Machbare voran und zwingt damit auch Apple sich beim Iphone nicht im Kreis zu drehen. Das kommt im Endeffekt dem Endverbraucher zu Gute.
Google versucht kein Geld mit Pixel Hardware zu verdienen, sondern Google verdient Geld als Tech Leader. Apple wird sich nie damit zufrieden geben Zweitbester zu sein. Das sieht man ganz klar an dem Einzug von "Computational Photography" in der neue iPhone Generation. Das wurde von Google eingefuehrt und Apple nimmt es als positive Entwicklung mit auf.

Andersrum lernt Google von Apple indem es OS und Hardware Hand in Hand entwickelt und optimal aufeinander abstimmt. Das war bis zur Einfuehrung von Pixel der enorme Vorteil von Apple.

Wie gesagt, ich bin weder Apple Hater noch Google Fanboy. Ich verwende beides. Fuer mich persoenlich, wie auch fuer viele andere ist Pixel/Android das gelungenere Smartphone System und Apple sowie dem Apple Kunden tut das ebenbuertige System von Google sicher gut.
Wie gesagt, der Verge Artikel oben beschreibt es ganz gut.
Boney
Ein iPhone ist ein iPhone, durch iOS.
Wann verstehen das Leute wie du endlich? Ich würde nicht mal für geschenkt Android haben wollen, höchstens um es zu verkaufen.
Ich will diesen verwanzten Google-Mist nicht und außerdem komme ich mit der Bedienung von iOS besser zurecht, die Programme sind besser angepasst und man bekommt jahrelangen Support.
Ich belächel das Pixel, erst Recht zu diesem Preis.
+7
FlyingSloth16.10.18 22:53
Auf den Punkt gebracht
Jeronimo
Diese auch hier wieder mal latent sichtbare iOS-Arroganz ist ein wenig armselig. Android zu ignorieren oder zu belächeln, eben weil es nicht iOS ist, ist engstirnig und albern. Die sind weit gekommen in den letzten Jahren, es gibt eine Menge toller und auch tatsächlich nützlicher Features, was sich Apple angucken könnte (und zum Teil sicher auch wird).
+2
spheric
spheric16.10.18 22:56
FlyingSloth
Auf den Punkt gebracht
Jeronimo
Diese auch hier wieder mal latent sichtbare iOS-Arroganz ist ein wenig armselig. Android zu ignorieren oder zu belächeln, eben weil es nicht iOS ist, ist engstirnig und albern. Die sind weit gekommen in den letzten Jahren, es gibt eine Menge toller und auch tatsächlich nützlicher Features, was sich Apple angucken könnte (und zum Teil sicher auch wird).
Tatsächlich ist die Reaktion aus der Android-Gemeinde auf das Pixel3 alles andere als euphorisch, Kameraqualität hin oder her.
Früher war auch schon früher alles besser!
+2
dogdoc16.10.18 23:25
Wer ein Pixel kaufen möchte, soll das tun. Selbst schuld, und mir vollkommen egal 😎 ich tu’s nicht, und verstehen wird das der Androide vermutlich sowieso nicht.
-1
Bitsurfer16.10.18 23:32
FlyingSloth
Google versucht kein Geld mit Pixel Hardware zu verdienen, sondern Google verdient Geld als Tech Leader.
Mit was verdient Google nochmal sein Geld? Tech Leader im Auswerten von Kundendaten? Da ist wohl das Pixel und Android nur mittel zum Zweck.
+3
Kapeike
Kapeike16.10.18 23:35
Zitat aus dem Artikel
„Den vom iPhone bekannten Porträtmodus inklusive Tiefenunschärfe ermöglicht Google also nicht über eine zweite Linse, sondern über komplexe Softwareberechnungen.“

Hier wird suggeriert, dass das iPhone das ganze rein optisch löst. Dazu möchte ich anmerken, dass auch das iPhone für den butterweichen Hintergrund-Effekt ordentlich rechnen muss, denn mit nur 58 mm Brennweite (kb-äquivalent) und solch kleinem Sensor sind die raws aus dem iPhone alles andere als butterweich im Hintergrund. Auch bei Apple muss da die Software ran.

Um diesen Effekt wirklich - sagen wir mal - nativ direkt mit einem Handy erzielen zu können, müsste ins Handy (egal in welches) ein wesentlich größerer Sensor rein (z. b. 36x24 mm) oder eine wesentlich längere Brennweite verbaut werden (z. B. 500 mm kb-äquivalent) oder eine wesentlich geringere Blende als die auf dem Papier genannten f1.8 (oder ist es beim Portraitmodus eine f2.0?) verwendet werden Richtung unvorstellbaren f0,1). Oder eine Kombination aus allen dreien, nur nicht so extrem.

Schade, dass eine Nikon D850 mit dem 200 mm f2.0 nicht telefonieren kann, aber so sähe das Handy dann aus.
+4
FlyingSloth16.10.18 23:46
Da wird nichts suggeriert, sondern lediglicht festgestellt, dass das Iphone mit 2 Linsen plus Software arbeitet und das Pixel mit einer Linse plus Software. Das ganze ist wertungsfrei
Kapeike
Zitat aus dem Artikel
„Den vom iPhone bekannten Porträtmodus inklusive Tiefenunschärfe ermöglicht Google also nicht über eine zweite Linse, sondern über komplexe Softwareberechnungen.“
-1
Kapeike
Kapeike16.10.18 23:58
Von einer Wertung im Artikel habe ich auch nicht gesprochen. Eine Wertung wäre, wenn ich dem Artikel unterstellen würde, dass er das iPhone Verfahren als besser erachtet. Das tue ich nicht, der Artikel tut das ja auch nicht.

Dennoch legt die gewählte Konstruktion, Google ermögliche das „also nicht über eine zweite Linse“ nahe, dass das iPhone das ganz alleine optisch bewältigen würde, während das Pixel rechnen muss. Nichts anderes steht im Artikel. Da ist keine Wertung von mir dabei.

Das, was du schreibst, genau das steht eben nicht im Artikel: An keiner Stelle wird gesagt, dass auch das iPhone rechnen muss.
+3
Bitsurfer17.10.18 00:07
die ganze Unschärferei im Hintergrund zwischen den beiden Handys ist einfach zu unterscheiden. Sind im hintergrund viele Spitzlichter, helle Bereiche im dunkeln wie Leuchten etc. sieht man dass das iPhone da ein Bokeh erzeugt wie man es von Lichtstarken Objektiven kennt. Das Pixel macht den Hintergrund einfach unscharf. Unscharf und Bokeh ist nicht dasselbe.
-1
verstaerker
verstaerker17.10.18 00:43
ich frage mich woher sie die tiefeninformation nehmen, wenn sie nur eine Kamera haben.
0
FlyingSloth17.10.18 05:02
Einfach ausgedrueck handelt es sich um eine Subpixel genaue Objekterkennung in Echtzeit, welche es erlaubt Tiefeninformation zu erstellen und daraus ein Bokeh zu errechnen. Und das beste ist, dass Google dies als open source freigegeben hat. Somit haben App entwickler auf die technologie Zugriff.

"Semantic image segmentation, the task of assigning a semantic label, such as “road”, “sky”, “person”, “dog”, to every pixel in an image enables numerous new applications, such as the synthetic shallow depth-of-field effect shipped in the portrait mode of the Pixel 2 and Pixel 2 XL smartphones and mobile real-time video segmentation. Assigning these semantic labels requires pinpointing the outline of objects, and thus imposes much stricter localization accuracy requirements than other visual entity recognition tasks such as image-level classification or bounding box-level detection."
verstaerker
ich frage mich woher sie die tiefeninformation nehmen, wenn sie nur eine Kamera haben.
+1
FlyingSloth17.10.18 05:05
Hier wirds ganz genau erklaert
verstaerker
ich frage mich woher sie die tiefeninformation nehmen, wenn sie nur eine Kamera haben.
+1
gussi77rz17.10.18 09:07
Da gebe ich Dir so was von Recht. Es ist auch immer schön, wie Android Phones alle durch die Bank weg, immer mit einem Iphone verglichen werden. Warum nimmt man nicht einfach zur Gegendarstellung, ein vergleichbares Android Gerät. Stelle ich VW, Ford und Co gegen Porsche, ist es für mich das gleiche!
Boney
FlyingSloth
Wie wurde das Pixel noch vor gar nicht langer Zeit belächelt. Heute steht es auf Augenhöhe mit dem iPhone und wird selbst von Mac/iPhone dominierten Seiten als gleichwertig, wenn nicht sogar besser bezeichnet. Wie sich die Zeiten doch ändern.

Ein iPhone ist ein iPhone, durch iOS.

Wann verstehen das Leute wie du endlich? Ich würde nicht mal für geschenkt Android haben wollen, höchstens um es zu verkaufen.

Ich will diesen verwanzten Google-Mist nicht und außerdem komme ich mit der Bedienung von iOS besser zurecht, die Programme sind besser angepasst und man bekommt jahrelangen Support.

Ich belächel das Pixel, erst Recht zu diesem Preis.
-2
barabas17.10.18 09:34
Ich muss hier mal wieder auf den (gelobten) Portraitmodus einhaken weil dies ja immer wieder als Feature erwähnt wird.
Was bringt mir dies, wenn dessen Tiefenunschärfedarstellung nicht auf ein anderes IOS Gerät oder auf einen Mac (auch nicht mit Mojave bestückt) in dessen Foto Programm übertragen wird ?
Schön das ich anderen (nur) auf meinen Iphone damit erstellte Bilder zeigen kann was für tolle Effekte damit möglich sind aber das wars dann. Solange damit nicht mehr möglich ist, ist und bleibt es nur eine (weitere) nette Spielerei ohne Nachhaltigkeit oder Verwendbarkeit.
-1
barabas17.10.18 09:50
Kapeike
Schade, dass eine Nikon D850 mit dem 200 mm f2.0 nicht telefonieren kann, aber so sähe das Handy dann aus.

Dazu bräuchte es nicht mal diese exquisite Kombination um auch die neuesten Smartphones mit ihren aktuellen Kameras nach wie vor ins Weltall zu katapultieren. Ich habe erst letztens Vergleiche mit besagter Kamera und einer weitaus günstigeren Linse vs. IP XS getätigt, - was dabei bei der normalen Bildschirmdarstellung noch recht gefällig aussieht trennt sich dann umso mehr, je weiter man sich der 100% Darstellung nähert, da liegen dann immer noch Welten dazwischen
Ja die Kompaktheit und das Telefon fehlen mir auch bei den DSLRs
0
FlyingSloth17.10.18 10:05
Komisch auf dem Pixel is das kein Problem
barabas
Ich muss hier mal wieder auf den (gelobten) Portraitmodus einhaken weil dies ja immer wieder als Feature erwähnt wird.
Was bringt mir dies, wenn dessen Tiefenunschärfedarstellung nicht auf ein anderes IOS Gerät oder auf einen Mac (auch nicht mit Mojave bestückt) in dessen Foto Programm übertragen wird ?
Schön das ich anderen (nur) auf meinen Iphone damit erstellte Bilder zeigen kann was für tolle Effekte damit möglich sind aber das wars dann. Solange damit nicht mehr möglich ist, ist und bleibt es nur eine (weitere) nette Spielerei ohne Nachhaltigkeit oder Verwendbarkeit.
0
JoMac
JoMac17.10.18 10:26
barabas
Ich muss hier mal wieder auf den (gelobten) Portraitmodus einhaken weil dies ja immer wieder als Feature erwähnt wird.
Was bringt mir dies, wenn dessen Tiefenunschärfedarstellung nicht auf ein anderes IOS Gerät oder auf einen Mac (auch nicht mit Mojave bestückt) in dessen Foto Programm übertragen wird ?
Meine Portrait-Bilder (iPhone 7+) werden geändert an andere iOS Geräte etc. gesendet.
Oder geht das erst bei den Xs Modellen nicht mehr?
+2
Raziel117.10.18 10:29
JoMac
barabas
Ich muss hier mal wieder auf den (gelobten) Portraitmodus einhaken weil dies ja immer wieder als Feature erwähnt wird.
Was bringt mir dies, wenn dessen Tiefenunschärfedarstellung nicht auf ein anderes IOS Gerät oder auf einen Mac (auch nicht mit Mojave bestückt) in dessen Foto Programm übertragen wird ?
Meine Portrait-Bilder (iPhone 7+) werden geändert an andere iOS Geräte etc. gesendet.
Oder geht das erst bei den Xs Modellen nicht mehr?

Selbstverständlich. Es wird alles gesynced und kann auf allen Geräten editiert werden so wie bei allen anderen Fotoeffekten/Bearbeitungen.

Klare Falschinfo @barabas.

Einzig das Senden des betreffenden Bildes an andere Personen zb per Airdrop entfernt die zusätzlichen Infos (Tiefe, History etc) aus der Datei und man bekommt es quasi als nicht mehr bearbeitbares fertiges Bild, so wie das schon immer war.
+3
barabas17.10.18 10:31
JoMac
barabas
Ich muss hier mal wieder auf den (gelobten) Portraitmodus einhaken weil dies ja immer wieder als Feature erwähnt wird.
Was bringt mir dies, wenn dessen Tiefenunschärfedarstellung nicht auf ein anderes IOS Gerät oder auf einen Mac (auch nicht mit Mojave bestückt) in dessen Foto Programm übertragen wird ?
Meine Portrait-Bilder (iPhone 7+) werden geändert an andere iOS Geräte etc. gesendet.
Oder geht das erst bei den Xs Modellen nicht mehr?

Die Bilder, auch die im Portrait Modus erstellten, werden sehr wohl übertragen, - aber eben ohne jene Effekte die man mit den aktuellen Iphones realisieren kann, eben nur als ganz normale Bilder.
Oh, gerade noch entdeckt, - bei IOS geht es sehr wohl untereinander auch mit Effekten, aber nicht auf den Mac, sorry. Bei letzteren funktioniert dies nur über den Umweg, das man ein solches Bild auf einem IOS Gerät (zb. iPad "Duplizieren u. Bearbeiten" und dann sichern) zunächst (geringfügig) bearbeiten muss.
+1
Kapeike
Kapeike17.10.18 20:55
Zum Editieren der Porträtbilder auf dem Mac kann ich noch etwas beitragen.

Es geht nämlich, wenn man 'Fotos' auf dem Mac verwendet. Mit einem sehr großen ABER allerdings: Schon vor einem Jahr, als ich mein 8 plus bekommen habe, habe ich etwas sehr komisches bemerkt. Damals habe ich 129 Minuten mit Apple und vier verschiedenen Mitarbeitern dort gechattet, gelöst hat es letztlich niemand. Das hier ist meine Erfahrung, lasst euch überraschen:

Fotos am Mac zeigt das Foto, sobald es synchronisiert wurde, erst einmal ohne die Hintergrundeffekte an (was sehr gruselig ist, wenn man sonst mit dem Fuji 56 mm 1.2 auf Partys fotografiert ).

Aber wenn man das Foto in den Bearbeiten-Modus setzt, zeigt Fotos auf dem Mac an, dass es mit dem Porträtmodus aufgenommen wurde und bietet auch an, das Foto in die anderen Modi setzen zu können. Und dann wird es sehr komisch. Ich dokumentiere das hier mit Screenshots.

Das ist ein Porträt-Foto mit Studiolicht, so wie es auf dem iPhone aussieht, ein Screenshot vom iPhone nach der Synchro mit Fotos auf dem Mac, hier bereits in der Mac Fotos App geöffnet und auf BEARBEITEN geklickt.



Als nächstes zeige ich das Original, das vom iPhone von einigen Tagen synchronisiert wurde. Das ist quasi das raw, von Hintergrundunschärfe oder der Schwärze des Studiolichts ist nichts zu spüren. Hier der Screenshot aus der Mac App und nach Klick auf BEARBEITEN:



Ihr seht den Hintergrund relativ klar und ohne wirkliche Schönheit. Ihr seht auch, dass der BEARBEITEN Modus in Fotos (am unteren Rand) den PORTRÄT-Modus bereits andeutet.

Sobald ich jetzt unten auf PORTRÄT klicke und einen der Modi (natürliches Licht, Studiolicht, Bühnenmodus...) auswähle, verändert sich das Bild und die Maskierung erscheint. ALLERDINGS (und das war vor einem Jahr auch schon so) "steht" sie nicht aufrecht wie es sich für den Porträtmodus gehören würde, sondern sie "liegt" in Landscape-Richtung quer über das Bild. Hier der Screenshot dazu mit der Auswahl "Natürliches Licht":



Hier sieht man es noch nicht so deutlich, aber das Hemd hat viel zu viel Unschärfe und die Flaschen rechts sind noch klar wie vorher auch. Da stimmt doch was nicht?!

Vollends skurril wird es dann wirklich, wenn ich Studiolicht mit schwarzem Hintergrund wähle. Das sieht dann so aus:



2017 hat Apple im eingangs erwähnten Chat zum Schluss behauptet, der Porträt-Modus wäre noch eine Beta, da könne man nicht alles erwarten. Ein Jahr und jeweils eine Software-Stufe weiter funktioniert es aber immer noch nicht.

Meine Vermutung: Um die Hintergrundunschärfe oder die gewollte Schwärzung zu berechnen, trennt die Software mit Gesichtserkennungshilfe das Gesicht vom Rest des Bildes (der Photoshoper sagt Maskierung oder Freistellung dazu). Der berechnete Bereich, der nicht zum Gesicht gehört, wird dann weichgezeichnet oder geschwärzt.

Damit auch andere Effekte (Natürliches Licht, Konturenlicht etc) wirken können, liegt die Maskierung in einer eigenen Ebene vor und wird nicht auf das Originalbild direkt angewendet. Dafür spricht auch, dass ich das Original auf dem Mac zunächst in einer völlig unspektakulären raw Version sehe (Bild 2 oben).

Sobald ich aber am Mac auf PORTRÄT Modus gehe, lädt er die mitgelieferte Ebene. Und diese liegt 90 ° zum Bild verdreht, wie auf Bild 3 und 4 zu sehen ist.

Meine Annahme: In der berechneten Ebene wird ein falsches Orientierungspixel abgespeichert.

Für diese Annahme spricht auch, dass Porträts im LANDSCAPE Modus am Mac richtig dargestellt werden.

Ich habe bereits das Netz rauf und runter gesucht und wundere mich, dass das noch nirgendwo anders aufgefallen ist. Schade, dass Apple nach über einem Jahr das nicht behoben hat. Vielleicht wissen sie es ja auch gar nicht...vielleicht liegt es aber auch wieder mal nur an mir

Ich hoffe, es hat euch etwas Spaß gemacht und einen schönen Abend an alle

Euer Kapeike
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen