Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Phone Xs: Tiefenschärfe demnächst direkt beim Fotografieren einstellen

Im Porträtmodus ermöglicht das iPhone Xs bzw. Xs Max, die Tiefenschärfe im Nachhinein zu korrigieren. Diese Funktion soll im kommenden iOS-Update auch in der Kamera-App integriert sein. In der Beta für iOS 12.1 kann man bereits sehen, wie Apple das Feature umsetzen will. Der iPhone-Produzent will das entsprechende Update noch in diesem Jahr herausbringen.


Tiefenschärfe ohne Blende
Die Neuerung klingt im ersten Moment komisch, denn die Blende der Objektive konnten Fotografen schon über 100 Jahren verändern, um den Hintergrund (un-)schärfer zu stellen. Doch hinter der neuen iOS-Funktion stecken ausgeklügelte Berechnungen, denn die Blendenöffnung der eingebauten Objektive bleibt unveränderbar. Apple verwendet vielmehr einen Algorithmus, der denselben Effekt simuliert. Dabei verwendet es Bildinformationen beider Linsen. Um die Berechnungen in Echtzeit ausführen zu können, ist entsprechende Prozessor-Power nötig, die die neuen Modelle jedoch offensichtlich zur Verfügung stellen können. Auch das XR-Modell soll die Funktion beherrschen, obwohl seine Rückseite nur ein Objektiv statt zweien trägt.


Auch Teile des Hemdes zeichnet Apples Algorithmus unscharf, bei anderen System ist es häufig nur der Hintergrund.

Virtuelle Blende trennt nicht immer exakt
Die "virtuelle Blende" Apples maskiert dabei nicht einfach den Hintergrund unscharf, sondern vergrößert auch die Unschärfe der Details im Vordergrund – ähnlich einer Aufnahme mit einem Objektiv mit offener Blende. Apples Software-Camera-Chef Sebastian Marinaeu-Mes erklärt dazu in einem Interview: "Wir haben das Modell einer Linse in mathematische Formeln überführt und diese auf das Bild angewendet. Niemand sonst tut das, was sie tun. Die anderen zeichnen nur den Hintergrund unscharf." Auch diese komplexen Berechnungen, schaffe die (neue) iPhone-Hardware in Echtzeit, bestätigt er an anderer Stelle. Tester berichten, die saubere Trennung von Vorder- und Hintergrund bereite der neuen Funktion zuweilen Schwierigkeiten.


Apple beschriftet die Tiefen(un)schärfe-Skala mit Blendenwerten. Quelle: medium.com

Hardware und Software Hand-in-Hand
In den Xs-Modellen verbaut Apple neben der Foto-Hardware des Vorgängers einen neuen Bildsensor, auch die Linse sowie den Bildsignalprozessor findet man in keinem weiteren Gerät. Letzterer bildet mit anderen Komponenten zusammen den Chipsatz des "A12 Bionic", den Apple zusammen mit den neuen iPhones vorstellte. Entscheidend sei die Zusammenarbeit zwischen den Abteilungen, betonen die drei "Väter" des Kamerasystems Sebastian Marinaeu-Mes, Kamera-Hardwarechef Graham Townsend und Marketingleiter Phil Schiller bei einem Interview über die Entwicklung der Lösung. Townsend: "Wir haben das Privileg, alles gestalten zu können, vom Photon, das zuerst in das Objektiv eintritt, bis hin zum Format der aufgenommenen Datei." Die Hard- und Software-Teams von Apple treffen sich regelmäßig intern, um die Imaging-Funktionen zu definieren, die sie durch neue Hardware (etwa den A12 Bionic, dessen Entwicklung drei Jahre gedauert haben soll) entwickeln können.

Kommentare

basisbild
basisbild24.09.18 11:27
Finde ich sehr schade, dass sie das nicht auch für das iPhone X verfügbar machen, die Rechnenpower reicht dafür ja absolut aus.
Die Focos-App kann genau diese Blenden- und Tiefenschärfe-Spielereien schon lange und mit wesentlich mehr Optionen und Einstellungsmöglichkeiten:

+7
TerenceHill
TerenceHill24.09.18 11:42
basisbild
Finde ich sehr schade, dass sie das nicht auch für das iPhone X verfügbar machen, die Rechnenpower reicht dafür ja absolut aus.
Die Focos-App kann genau diese Blenden- und Tiefenschärfe-Spielereien schon lange und mit wesentlich mehr Optionen und Einstellungsmöglichkeiten:


Diese Focus App nutze ich auch. Diese finde ich besser als Apples Einstellmöglichkeiten im XS. Schon alleine die virtuellen Lampen lassen gute Effekte zu. Absolute Empfehlung für alle iPhones mit Dual-Kamera.
+5
stesoell24.09.18 11:44
Heidewitzka, ordentlich Bullshit Bingo - Marketingedition.
-2
Stresstest24.09.18 12:04
Schärfentiefe bitte

+1
Dandiccf24.09.18 12:26
Stresstest
Schärfentiefe bitte


Aber du hast schon gesehen dass in deiner Quelle angegeben ist dass die beiden Bezeichnungen längst ein Synonym sind ...
+1
sonorman
sonorman24.09.18 12:54
basisbild
Finde ich sehr schade, dass sie das nicht auch für das iPhone X verfügbar machen, die Rechnenpower reicht dafür ja absolut aus.
Kannst Du das beweisen? Ich will Dir nichts unterstellen, aber das lässt sich nun mal schwer nachweisen. Also ist das entweder nichts weiter als eine Behauptung, oder Apple lügt.

Ich kann mir schon denken, welche der Optionen die meisten für wahr halten.
0
basisbild
basisbild24.09.18 14:08
sonorman
basisbild
Finde ich sehr schade, dass sie das nicht auch für das iPhone X verfügbar machen, die Rechnenpower reicht dafür ja absolut aus.
Kannst Du das beweisen? Ich will Dir nichts unterstellen, aber das lässt sich nun mal schwer nachweisen. Also ist das entweder nichts weiter als eine Behauptung, oder Apple lügt.

Ich kann mir schon denken, welche der Optionen die meisten für wahr halten.

Na ja, das kann jeder mit der Focos App auf dem iPhone X ausprobieren.
Funktioniert wunderbar und greift auf die gleiche Technologie zurück: AVDepthData.
Apple wird das natürlich etwas anders umgesetzt haben für die neuen Phones, aber es funktioniert auf dieser Basis-Technologie (der Dual-Cameras) bereits seit dem iPhone 7Plus.

+4
sonorman
sonorman24.09.18 14:18
basisbild

Das sind aber nicht die selben Algorithmen, wie die von Apple. Siehe Beschreibung oben:
MTN
"Wir haben das Modell einer Linse in mathematische Formeln überführt und diese auf das Bild angewendet. Niemand sonst tut das, was sie tun. Die anderen zeichnen nur den Hintergrund unscharf."
-1
RyanTedder24.09.18 15:07
basisbild
Finde ich sehr schade, dass sie das nicht auch für das iPhone X verfügbar machen, die Rechnenpower reicht dafür ja absolut aus.
Die Focos-App kann genau diese Blenden- und Tiefenschärfe-Spielereien schon lange und mit wesentlich mehr Optionen und Einstellungsmöglichkeiten:


Kann mir auch keiner erzählen das iPhone X wäre nicht Leistungsfähig genug dafür. Können das nicht die ganzen Androids auch schon seit Ewigkeiten? Und die sind Leistungstechnisch ja noch schwächer als die iPhones. Naja was solls, dann hol ich halt mit Drittanbieter Apps das gleiche aus meiner Kamera raus
+4
olilech24.09.18 15:20
Dandiccf
Stresstest
Schärfentiefe bitte


Aber du hast schon gesehen dass in deiner Quelle angegeben ist dass die beiden Bezeichnungen längst ein Synonym sind ...

Man muss es nur oft genug falsch sagen, dann wirds halt "Volksmund".
0
barabas24.09.18 15:20
Für mich interessant, kann man diese Manipulationen auch von IOS auf den Mac übertragen?
Das scheint leider, wie ich schon an anderer Stelle anmerkte, nicht Selbstverständlich zu sein.
+1
mac_heibu24.09.18 15:30
olilech
Dandiccf
Stresstest
Schärfentiefe bitte


Aber du hast schon gesehen dass in deiner Quelle angegeben ist dass die beiden Bezeichnungen längst ein Synonym sind ...

Man muss es nur oft genug falsch sagen, dann wirds halt "Volksmund".
Das ist – mit Verlaub – auch nicht richtig. Der Begriff „Tiefenschärfe“ ist wesentlich(!) älter als der der „Schärfentiefe.
Also, wenn, dann würde eher umgekehrt ein Schuh draus: Man muss dem „Volksmund“ nur oft genug über denselben fahren, dann wird’s salonfähig …
+2
sonorman
sonorman24.09.18 15:33
RyanTedder
…Können das nicht die ganzen Androids auch schon seit Ewigkeiten? …
Nein! Lies doch mal die diversen Beschreibungen, inkl. dem Text oben.

Apple sagt erstens, dass die optischen Eigenschaften der Linse erstmals softwaretechnisch, also virtuell, nachempfunden haben. Das verleiht dem Look ganz andere Eigenschaften, als bei dem, was die anderen machen. Die versuchen nämlich nur, das Hauptmotiv von Hintergrund zu unterscheiden und letzteren einfach gleichmäßig unscharf zu zeichnen. Das sieht aber nicht natürlich aus, weil das Hauptmotiv dann wie auf den Rest des Bildes „aufgeklebt“ aussieht.

Apple sagt außerdem, dass sie diese Eigenschaften stark mit der Hardware verknüpft haben. Also beispielsweise die Eigenschaften der verbauten Linse(n) berücksichtign, statt nur eine mehr oder weniger zufällige Unschärfe zu simulieren. Neben den Tiefeninformationen werden auch noch andere Parameter berücksichtigt und diese alle in ECHTZEIT während der Aufnahme verarbeitet.

Guck Dir doch mal an, was Phil Schiller dazu in der Keynote ab Timecode 1:08:00 erzählt.


Und das macht eben KEIN Android bis jetzt. Und auch die älteren iPhones bringen Hard- und Software nicht auf diese Weise zusammen.
+1
basisbild
basisbild24.09.18 15:59
barabas
Für mich interessant, kann man diese Manipulationen auch von IOS auf den Mac übertragen?
Das scheint leider, wie ich schon an anderer Stelle anmerkte, nicht Selbstverständlich zu sein.

Das wäre mal ein cooles zukünftiges Feature für die Fotos-App auf dem Mac, für die nachträgliche Bearbeitung der auf dem iPhone X geschossenen Bilder.
0
barabas24.09.18 16:21
basisbild
barabas
Für mich interessant, kann man diese Manipulationen auch von IOS auf den Mac übertragen?
Das scheint leider, wie ich schon an anderer Stelle anmerkte, nicht Selbstverständlich zu sein.

Das wäre mal ein cooles zukünftiges Feature für die Fotos-App auf dem Mac, für die nachträgliche Bearbeitung der auf dem iPhone X geschossenen Bilder.

An sich geht das mit Fotos ja schon heute. Sobald ich Zuhause bin werden alle neuen Bilder auf meine anderen Macs und iPads über WLAN verteilt und können mit diesem oder anderen Foto-Apps weiter bearbeitet werden.
Das Problem, die neuen Manipulationen der XS-Modelle werden hier nicht übernommen, sondern erscheinen als "normale" Bilder. Einzig, bearbeitet man diese in IOS und werden dort gesichert sieht man diese dann auch auf den Rechner in Fotos.
0
Alexhibition24.09.18 18:53
Alter Schwede, ich habe mir diese Focos App angeschaut und die kann echt viel. Kann ich jedem nur empfehlen.
+1
RyanTedder24.09.18 20:32
sonorman
RyanTedder
…Können das nicht die ganzen Androids auch schon seit Ewigkeiten? …
Nein! Lies doch mal die diversen Beschreibungen, inkl. dem Text oben.

Apple sagt erstens, dass die optischen Eigenschaften der Linse erstmals softwaretechnisch, also virtuell, nachempfunden haben. Das verleiht dem Look ganz andere Eigenschaften, als bei dem, was die anderen machen. Die versuchen nämlich nur, das Hauptmotiv von Hintergrund zu unterscheiden und letzteren einfach gleichmäßig unscharf zu zeichnen. Das sieht aber nicht natürlich aus, weil das Hauptmotiv dann wie auf den Rest des Bildes „aufgeklebt“ aussieht.

Apple sagt außerdem, dass sie diese Eigenschaften stark mit der Hardware verknüpft haben. Also beispielsweise die Eigenschaften der verbauten Linse(n) berücksichtign, statt nur eine mehr oder weniger zufällige Unschärfe zu simulieren. Neben den Tiefeninformationen werden auch noch andere Parameter berücksichtigt und diese alle in ECHTZEIT während der Aufnahme verarbeitet.

Guck Dir doch mal an, was Phil Schiller dazu in der Keynote ab Timecode 1:08:00 erzählt.


Und das macht eben KEIN Android bis jetzt. Und auch die älteren iPhones bringen Hard- und Software nicht auf diese Weise zusammen.

Naja bis auf das übliche marketing Gerede, gibt es keinen einzigen Beweis das nur der A12 dazu in der Lage ist. Das Apple mir das so erzählt ist halt kein Beweis. Für mich gibt es bisher auch keine logische Erklärung die dem X zu wenig Leistung für diesen Effekt bescheinigt, somit verzichtet Apple nur aus marketing Gründen auf den Effekt für ältere Modele. Insgesamt richt es mir viel zu stark danach das die neue Kamera rein softwareseitig verbessert wurde, damit es sich überhaupt irgendwie vom X unterscheidet, denn ansonsten ist da ja nicht viel. Aber vielleicht kommt ja noch ein guter Bericht der mir die Erleuchtung bringt 🤷‍♂️
+1
basisbild
basisbild24.09.18 22:11
Alexhibition
Alter Schwede, ich habe mir diese Focos App angeschaut und die kann echt viel. Kann ich jedem nur empfehlen.

Ja, ist wirklich top - seit ich die App und das iPhoneX habe nehme ich keine Dslr mehr mit in den Urlaub ..
0
sonorman
sonorman24.09.18 22:37
Ryan Tedder

Es gibt aber auch keinen Beweis für Deine Behauptung. Also steht Aussage gegen Aussage. Entweder, Apple lügt, oder Du hast eine schöne Verschwörungstheorie. 🤨🤪

Ich will ja gar nicht behaupten, dass es technisch völlig unmöglich ist, das auch mit vorherigen iPhone-Generationen hinzubekommen. Mit ausreichend Software-Optimierung lässt sich das womöglich auch mit schwächerer Hardware realisieren. Und ich will auch nicht sagen, dass Apples Lösung damit perfekt wäre und allen anderen Smartphone-Knipsen uneinholbar überlegen ist. Die Entwicklung geht immer weiter.
0
mazun
mazun25.09.18 06:16
sonorman, Ryan Tedder
Ich kann den Unmut da schon verstehen. Leider finde ich die Quelle nicht, aber als das X rauskam gab es ein Interview mit Jon Ivy, der da behauptete, nun sei das Smartphone derart fertig entwickelt, dass es nur noch auf die Software ankäme. Weil es jetzt eben quasi nur noch aus Bildschirm besteht und eh leistungsfähig genug für alles kommende sei.
Hätte ich mir letztes Jahr ein X gekauft, würde ich auch erwarten, dass Apple im nachgang so viele neue Funktionen wie möglich auf dieses tolle Gerät bringt. Tja, und kaum ist der Nachfolger raus, darf man wieder in die Röhre gucken.
Ich glaube zwar auch, dass es in diesem Fall sehr stark mit der Kombination von neuem Prozessor und Kamera zusammenhängt, dennoch dürfte eine ähnliche Lösung am X durchaus machbar gewesen sein.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.