Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Erster Test: Schärfentiefe-Effekt mit iPhone 7 Plus in iOS 10.1

Mit iOS 10.1, die erste Testversion ist seit dieser Woche verfügbar, erhält das iPhone 7 Plus eine wichtige neue Kamera-Funktion. So lassen sich ausgeprägte Tiefenunschärfe-Effekte erzielen, bei denen das gewünschte Objekt das besonders hervorgehoben ist. Wir haben einen Blick die Tiefeneffekte geworfen, einige Testfotos aufgenommen und uns angesehen, wo momentan noch die Schwächen im Detail lauern.


Da das iPhone 7 Plus aufgrund seiner Abmessungen nicht über ein großes Linsensystem verfügen kann, ist die Tiefenschärfe sehr groß - Objekte im Vordergrund wie auch im Hintergrund erscheinen scharf. Um nun einen Tiefenunschärfe-Effekt (Bokeh) zu erzielen, muss Apple hier auf eine Kombination aus einer Software-Lösung und dem Zwei-Kamera-System setzen. Hierbei versucht Apple, aus den zwei Bildern die Objekte im Vordergrund (welche scharf erscheinen sollen) vom Hintergrund (welcher unscharf dargestellt werden soll) zu trennen.

Für gutartige Fälle produziert Apples Lösung akzeptable Ergebnisse - wenn auch an Kanten deutlich zu erkennen ist, dass es sich dabei um eine Nachbearbeitung durch einen Algorithmus handelt. Bei dem Objekt im Vordergrund gehen leider Details an den Kanten verloren. Achten Sie dazu unter anderem auf die rechte Seite des Blumentopfs sowie die Blattspitze links oben


In komplizierten Fällen mit dünnen Objekten scheitert Apples Algorithmus aber (momentan) vollständig: Es ist dabei sehr schwer, dünne Objekte vom Hintergrund zu trennen - dies führt dazu, dass in Teilen des Bildes weichgezeichnet wird, obwohl sich ein Objekt im Vordergrund befindet. An anderen Stellen wird gar nicht weichgezeichnet, obwohl hauptsächlich der Hintergrund zu sehen ist. Achten Sie dazu auf die Gardinenschnur links neben dem Fensterrahmen:


Die Ergebnisse sind mit Vorsicht zu genießen - es handelt sich um die allererste Testversion des Algorithmus. All zu große Hoffnungen sollte man sich aber nicht machen, der Software-Algorithmus kann ein echtes großes Linsensystem nicht unter allen Umständen simulieren. Bei Porträts arbeitet die Funktion zwar zuverlässiger, aber immer noch fernab von perfekt. Nachträgliches Verändern der Tiefenunschärfe sieht Apples System entgegen einiger Bericht übrigens nicht vor. Zwar wird nicht nur das nachträglich modifizierte, sondern auch das Original-Bild gespeichert, beliebiges späteres Auswählen des Schärfebereichs ist aber nicht möglich.

Kommentare

chill
chill23.09.16 10:44
Kann man bei "Pro Camera" auch machen. Allerdings in sehr engen Grenzen. Das scharfe Obekt darf da ca max ca 50 cm von iPhone entfernt sein. Der Hintergrund wird dann wirklich sehr unscharf wenn man den Focus manuell einstellt. Je näher das Objekt, umso unschärfer der Hintergrund.
MBP M1 256/16 Monterey 12.1 . iPhone 11 128 GB, iOs 15.2
0
sonorman
sonorman23.09.16 10:57
Für einen Software-Effekt gar nicht übel. Aber am Beispiel der Pflanze sieht man doch recht gut, wo die Schwächen liegen. Der Topf ist unnatürlicherweise gleich mit "geblurred" und die Kanten der Blätter werden gesoftet, was eigentlich nicht sein dürfte.

Trotzdem: Finde ich gut, dass Apple versucht, den z.T. sehr unansehnlichen "alles-ist-scharf-Look" für bestimmte Motivsituationen zu kompensieren.
0
aquacosxx
aquacosxx23.09.16 11:02
Schlechte Maskierung. Vielleicht wird's ja noch besser.

Ein Nebeneffekt dieser Funktion könnte sein, dass Leuten, die noch nie was vom fotografischen Gestaltungskonzept Bokeh/Schärfentiefe gehört haben, auf den Geschmack kommen und das mal mit einer richtigen Kamera probieren wollen. Da könnte Apple grundlegende fotografische Entwicklungsarbeit leisten.
0
iGod23.09.16 11:05
Naja, soll der Effekt nicht vor allem für Portraits sprich Personen entwickelt worden sein? Vielleicht arbeitet die Software dann besser, wenn sie eindeutig einen Menschen erkennt.
0
Black Mac
Black Mac23.09.16 11:08
iGod
Naja, soll der Effekt nicht vor allem für Portraits sprich Personen entwickelt worden sein? Vielleicht arbeitet die Software dann besser, wenn sie eindeutig einen Menschen erkennt.
Genauso ist es. Deshalb ist die Funktion ist mit «Portrait» beschriftet und nicht mit «Blumentopf» oder «Playmobil». Ich glaube sogar, dass Apple das irgendwo ausdrücklich betont hat. Schliesslich spielen hier auch die Gesichts- und die neue Körpererkennung eine wichtige Rolle.

Kurz: Die Fotos hier sind für die Tonne.
P.S.: Apple kann keine Dienste.
0
verstaerker
verstaerker23.09.16 11:13
diese post-dof Effekte haben immer dieselben Probleme

ich arbeite im CGI-Bereich, da wird sowas gern eingesetzt ... ohne die Information was hinter dem Objekt im Focus ist wird das an Kantenbereichen immer gewisse Probleme haben ... aber brauchbare Ergebnisse lassen sich dennoch erzielen
0
aquacosxx
aquacosxx23.09.16 11:13
Das Problem bei dem Testbild scheinen die hellen Kanten der durscheinenden Blätter zu sein, den der Algorithmus nicht richtig zuordnen kann und zum Hintergrund zählt. Dürfte bei Porträts in vergleichbarer Lichtsituation nicht anders sein. Dann würde halt z.B. ein Teil der Haare wegretuschiert. Einen Blumentopf kann man damit sicher nicht gewinnen. Aber sonst ist es doch schon ganz hübsch.

Mich würde ja mal interessieren, wie die Ergebnisse der Mitbewerber aussehen, die das ja wohl nur softwaremäßig realisieren und ob das Zweilinsensystem da einen Vorteil bietet.
0
Dayzd23.09.16 11:19
chill
Je näher das Objekt, umso unschärfer der Hintergrund.
Ja, allerdings hängt die Unschärfe vom Hintergrund auch von der Distanz Objekt-Hintergrund ab. Also im Prinzip spielen die Brennweite, die Distanz zum Objekt und die Distanz vom Objekt zum Hintergrund eine Rolle.
0
MKL
MKL23.09.16 11:26
Hm, wieso braucht man denn zwangsläufig zwei Linsen?
Werden dann zwei Fotos gleichzeitig gemacht, die ja minimal versetzte Bilder aufnehmen, so dass die SW daraus das Objekt erkennt?
0
aquacosxx
aquacosxx23.09.16 11:28
Mich erinnert der Bildeindruck an mein altes Nikon AF-D 50/1,4. Da hatte man auch dieses überstrahlen der Kanten (glowing) bei offener Blende. Vielleicht sollte Apple das als Retroeffekt verkaufen.
0
derguteste
derguteste23.09.16 11:34
Die Testberichte und Fotos auf anderen Seiten zeigen das bei Gesichter die Erkennung gut funktioniert und bei Objekten eher mangelhaft.
0
rosss23.09.16 11:35
MKL
Werden dann zwei Fotos gleichzeitig gemacht, die ja minimal versetzte Bilder aufnehmen, so dass die SW daraus das Objekt erkennt?

Genau so.
0
mac minister23.09.16 11:40
aquacosxx
Mich erinnert der Bildeindruck an mein altes Nikon AF-D 50/1,4. Da hatte man auch dieses überstrahlen der Kanten (glowing) bei offener Blende. Vielleicht sollte Apple das als Retroeffekt verkaufen.
Legen Sie sich das 85 1,8G zu, FF, Bezahlbar. Sie werden platt sein.
Ausserdem hat man in der Schärfeebene einer DSLR natürlich immer eine saubere Darstellung im Gegensatz zu sw Lösungen.

Irgendwie beruhigt mich so ein Ergebnis. Ich gehöre zu der Minderheit, die immer noch schweres Gerät herumschleppt, wenn ein gutes Foto erwünscht ist.
Die smartphone Fotografie bleibt wohl noch eine Weile snapshot Knipserei, allerdings mittlerweile auf sehr hohem Niveau.
0
Black Mac
Black Mac23.09.16 11:43
rosss
MKL
Werden dann zwei Fotos gleichzeitig gemacht, die ja minimal versetzte Bilder aufnehmen, so dass die SW daraus das Objekt erkennt?

Genau so.
Nein, genau nicht so, im Gegenteil. Das Foto wird immer mit der 56er-Linse geschossen, während das 28er-Objektiv eine Tiefenkarte erstellt. Diese Karte wird anschliessend verwendet, um den unscharfen Hintergrund via Software zu berechnen.
P.S.: Apple kann keine Dienste.
0
aquacosxx
aquacosxx23.09.16 11:46
mac minister
aquacosxx
Mich erinnert der Bildeindruck an mein altes Nikon AF-D 50/1,4. Da hatte man auch dieses überstrahlen der Kanten (glowing) bei offener Blende. Vielleicht sollte Apple das als Retroeffekt verkaufen.
Legen Sie sich das 85 1,8G zu, FF, Bezahlbar. Sie werden platt sein.
Ausserdem hat man in der Schärfeebene einer DSLR natürlich immer eine saubere Darstellung im Gegensatz zu sw Lösungen.

Habe noch das alte AF-D 85 1,8 mit Stangenantrieb. Super Teil, ich nutze es nur zu selten.
0
Krypton23.09.16 12:07
Black Mac
rosss
MKL
Werden dann zwei Fotos gleichzeitig gemacht, die ja minimal versetzte Bilder aufnehmen, so dass die SW daraus das Objekt erkennt?

Genau so.
Nein, genau nicht so, im Gegenteil. Das Foto wird immer mit der 56er-Linse geschossen, während das 28er-Objektiv eine Tiefenkarte erstellt. Diese Karte wird anschliessend verwendet, um den unscharfen Hintergrund via Software zu berechnen.

Ansichtssache. Es werden beide Kameras verwendet und auch zwei Bilder aufgenommen. Aus der Differenz von Bild A zu Bild B wird die «Tiefenkarte» erstellt, nicht von der 28er Linse alleine (wie sollte sie das auch machen). Mit dieser Tiefenkarte wird dann der Effekt auf das 56er Bild angewandt.
0
Megaseppl23.09.16 12:29
Oha, das sieht ja noch gruselig aus. Nicht nur der Freisteller ist übel, auch das Bokeh ist unschön.
Da gibt es besser Methoden als der flache Weichzeichner den Apple hier einsetzt. Das Ergebnis ist noch ganz weit entfernt von dem was ich als akzeptabel erachten würde.
Mich wundert dass Apple diese Funktion schon in die Beta integriert hat. Ich glaube damit tun die sich keinen Gefallen.
0
Jeronimo
Jeronimo23.09.16 12:55
Black Mac

Danke, Deine Ausführungen verkürzen meine Antwort.

Selten dämlicher "Test", MTN.
0
herrMartin23.09.16 13:15
Das sieht ganz grausam aus. Auch wenn Apple es behauptet, aber es werden dabei niemals beide Linsen verwendet. Davon abgesehen haben die beiden Linsen eh eine stark unterschiedliche Brennweise und zum überlagern hat man auch noch einen parallaxeneffekt, der insbesondere bei Objekten nach an der Kamera besonders groß ist. Physikalisch spricht sehr viel dafür, das das mit den zwei Linsen und Tiefenschärfe berechnen aktuell größtes Marketingblabla ist.
0
Black Mac
Black Mac23.09.16 13:24
Krypton
Ansichtssache. Es werden beide Kameras verwendet und auch zwei Bilder aufgenommen. Aus der Differenz von Bild A zu Bild B wird die «Tiefenkarte» erstellt, nicht von der 28er Linse alleine (wie sollte sie das auch machen). Mit dieser Tiefenkarte wird dann der Effekt auf das 56er Bild angewandt.
Ist das so? Ich habe mich mit der Technik nicht im Detail beschäftigt. Aber zwei Linsen braucht es IMHO nicht zwingend für die Tiefenkarte. Du brauchst ja nur die Distanz bis zum Gesicht, und die kann auch der Autofokus liefern.
P.S.: Apple kann keine Dienste.
0
Megaseppl23.09.16 13:24
Hier ist ein weiterer Test:
Da sieht es nicht ganz so schlimm aus; allerdings fehlen 100%-Ansichten.
0
Dayzd23.09.16 13:30
Megaseppl
Da sieht es nicht ganz so schlimm aus; allerdings fehlen 100%-Ansichten.
Und das ist vielleicht auch ein ganz wichtiger Punkt. Bei Vollansicht auf dem Handy sehen die Bilder gut bzw. mit dem Bokeh-Effekt besser aus. Die Handyknipser, die ihre Bilder auch nur so betrachten und nicht an einem Großbildschirm oder mit einer Lupe, freuen sich über die Funktion und für die erfüllt sie ihren Zweck schon sehr gut. Apple hat sicher auch auf die ganzen Instagramer und Pinterest-Nutzer als Zielgruppe im Visier. Für diese Daily-Poster, die alles mit dem Handy machen, reicht die Qualität des Alogrithmus vollkommen.
0
strellson23.09.16 13:32
ach du schei**e

6 setzen
0
Jeronimo
Jeronimo23.09.16 13:57
Black Mac
Krypton
Ansichtssache. Es werden beide Kameras verwendet und auch zwei Bilder aufgenommen. Aus der Differenz von Bild A zu Bild B wird die «Tiefenkarte» erstellt, nicht von der 28er Linse alleine (wie sollte sie das auch machen). Mit dieser Tiefenkarte wird dann der Effekt auf das 56er Bild angewandt.
Ist das so?

Exakt so ist das, ja.

Black Mac
Aber zwei Linsen braucht es IMHO nicht zwingend für die Tiefenkarte. Du brauchst ja nur die Distanz bis zum Gesicht, und die kann auch der Autofokus liefern.

Aber dann weisst Du nicht, wie weit der Hintergrund weg ist, bzw. was überhaupt zum Hintergrund zählt. Und übrigens auch zum Vordergrund, auch der wird abgesoftet. Natürlich per Algorithmus, und natürlich sieht man das bei vielen Beispielen (außerdem, wie gesagt: beta). Aber, hey, ruhig bleiben, liebe Fotoprofis – es soll und wird keine DSLR ersetzen.
0
Black Mac
Black Mac23.09.16 14:06
Jeronimo
Aber, hey, ruhig bleiben, liebe Fotoprofis – es soll und wird keine DSLR ersetzen.
Ich bleibe überhaupt nicht ruhig! (Bin ja auch kein Profi.) Aber ich habe gerade ein paar Fotos mit dem Portrait-Modus geschossen. Das ist das erste Mal seit dem ersten iPhone überhaupt, dass es sich anfühlt, als hätte ich eine vollwertige Kompaktkamera in der Hosentasche. Und die redet mir so schnell keiner schlecht. Aber es macht mich freudig-hippelig!

Und an all die Motzer, die das schon mit ihrem Nokia vor der Jahrtausendwende konnten: Der Portrait-Modus ist ein Game-Changer, an dem die Konkurrenz ganz schön zu beissen haben wird – sobald er auf die grosse Masse losgelassen wird.
P.S.: Apple kann keine Dienste.
0
valcoholic
valcoholic23.09.16 14:21
Black Mac
iGod
Naja, soll der Effekt nicht vor allem für Portraits sprich Personen entwickelt worden sein? Vielleicht arbeitet die Software dann besser, wenn sie eindeutig einen Menschen erkennt.
Genauso ist es. Deshalb ist die Funktion ist mit «Portrait» beschriftet und nicht mit «Blumentopf» oder «Playmobil». Ich glaube sogar, dass Apple das irgendwo ausdrücklich betont hat. Schliesslich spielen hier auch die Gesichts- und die neue Körpererkennung eine wichtige Rolle.

Kurz: Die Fotos hier sind für die Tonne.

90%n der User werden das aber logischerweise nicht verstehen, weil die einfach nur einen Modus sehen, bei dem sie auch Tiefenunschärfe bekommen und sich dann wundern, warum das so seltsam aussieht. Kein Mensch abseits der Geek-Szene macht sich da ernsthaft über die Hintrgründe und die 'regeln' der technik schlau. Warum auch. Sowas funktioniert entweder so gut, dass das nicht Notwendig ist, oder Apple hat Mist gebaut.
Die Wahrheit liegtvermutlich irgendwo dazsichen, aber selbst bei den Keynote-Portrait-Bildern, welche als Beispiele hergehalten haben, sah man diesen Fehler.
Auf den ersten Blick eine sehr interessante Sache, auf den zweiten Blick mal wieder weder Fisch noch Fleisch.
0
Black Mac
Black Mac23.09.16 14:34
valcoholic
Sowas funktioniert entweder so gut, dass das nicht Notwendig ist, oder Apple hat Mist gebaut.

Genau aus diesem Grund gibt es wohl keine DNG-Aufzeichnung in der Kamera-App, weil irgendjemand irgendetwas falsch machen könnte. Aber wenn die Leute das Wort “Portrait” nicht verstehen, ist ihnen nicht mehr zu helfen. Da ist Apple wirklich unschuldig.
valcoholic
Auf den ersten Blick eine sehr interessante Sache, auf den zweiten Blick mal wieder weder Fisch noch Fleisch.

Ich spiele gerade mit dem Portrait-Modus rum und sehe mir die Fotos am iMac 5K an. Die Meinung ist noch nicht gemacht, aber das scheint mir etwas ganz Grosses. Und selbst wenn etwas danebengeht: Es wird immer ein unmodifiziertes JPEG mitgesichert. Es gibt also nichts zu verlieren.
P.S.: Apple kann keine Dienste.
0
feuerasche23.09.16 17:57
Hallo Jungs,ich dache ich hätte ein Handy gekauft und keine Fotoapparat,wer gute Bilder machen will ohne zu telefonieren sollte sich eine Leica kaufen
0
Jeronimo
Jeronimo23.09.16 17:59
feuerasche
Hallo Jungs,ich dache ich hätte ein Handy gekauft und keine Fotoapparat,wer gute Bilder machen will ohne zu telefonieren sollte sich eine Leica kaufen

Wenn Du tatsächlich dachtest, Du hättest mit dem iPhone hauptsächlich ein Telefon erworben, dann ist wohl im Vorfeld der Kaufentscheidung schon so einiges schief gelaufen.
0
feuerasche23.09.16 20:22
Hi,du bis ganz schön schlau,ich leider nicht,ich dachte es ist nur ein handy
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.