Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Im Detail: Mit Deep Fusion zu besseren Fotos

Bei den ersten iPhone-Modellen stand die Kamera nicht so sehr im Fokus: Die Knipse des ersten iPhones taugte bestenfalls für Schnappschüsse bei optimalen Lichtverhältnissen – erst mit den Folgegenerationen konnte die integrierte Kamera nach und nach eine Kompaktkamera komplett ersetzen. Heute ist die Kamera-Funktion eines der zentralen Verkaufsargumente geworden und alle Hersteller investieren massiv in die Hardware wie auch Software. Die Hardware ist allerdings mittlerweile an physikalische Grenzen gestoßen, da der Platz für Optik und Sensor sehr beschränkt ist – doch intelligente Software-Algorithmen holen immer mehr aus der Miniatur-Hardware heraus.


Night Mode jetzt – Deep Fusion mit iOS 13.2
Als Apple das iPhone 11 und 11 Pro ankündigte, wurden zwei neue Kamera-Funktionen vorgestellt: Night Mode und Deep Fusion. Der Night Mode stand schon ab Verkaufsstart der neuen Modelle bereit und ermöglicht beeindruckende Aufnahmen bei schlechten, nächtlichen Belichtungsverhältnissen. Auch im MTN-Test konnte der Night Mode überzeugen: Selbst bei sehr dunklen Szenen lieferte ein iPhone 11 brauchbare Aufnahmen, welche auf einem iPhone X und XR vollständig misslangen. Deep Fusion soll erst in Form von iOS 13.2 nachgereicht werden – eine erste Vorabversion soll in Kürze zum Download für eingetragene Entwickler bereitstehen.

Drei Kamera-Modi – je nach Belichtungsverhältnissen
Auf dem iPhone 11 und 11 Pro stehen mit iOS 13.2, welches wahrscheinlich noch in diesem Jahr erscheinen wird, folglich insgesamt drei Foto-Verbesserungsalgorithmen bereit: Smart-HDR für kontrastreiche Szenen mit über- und unterbelichteten Bereichen, Night Mode für Nachtaufnahmen und nun auch Deep Fusion für mittel bis dunkles Ausgangsmaterial. Bei Deep Fusion handelt sich um den mit Abstand komplexesten Modus, welchen Apple einsetzt.

Welchen Modus die Kamera verwendet, hängt aber stark von der ausgewählten Zoom-Stufe ab: Mit der Standard-Linse stehen alle drei Modi zur Verfügung, die Tele-Linse verwendet hauptsächlich Deep Fusion, kann aber in Grenzfällen auch auf Smart-HDR oder Night Mode ausweichen. Die Weitwinkel-Kamera unterstützt aber nur Smart-HDR, nicht jedoch den Nacht-Modus oder Deep Fusion.


Beeindruckendes Bild, erzeugt mit Deep Fusion.
Die Details der Haare und der Strickjacke stechen hervor

Wie Deep Fusion funktioniert
Wenn die Kamera eine Szene erkannt hat, welche sich für Deep Fusion eignet, werden kontinuierlich Bilder gemacht und wieder verworfen. Betätigt der Nutzer allerdings den Auslöser, werden die letzten drei Aufnahmen, welche mit kurzer Belichtungszeit erstellt wurden, aufgehoben.

Genau beim Betätigten des Auslösers werden noch einmal drei Bilder mit normaler Belichtungszeit erstellt – und zusätzlich ein Foto mit sehr langer Belichtungsdauer. Diese Fotoserie bildet dann das Ausgangsmaterial für Deep Fusion.


Aus den drei Fotos mit normaler Belichtungsdauer und der Langzeitbelichtung wird ein einzelnes, zusammengefasstes Bild erzeugt – Apple nennt dies "Synthetic Long". Aus den Bildern vor Betätigung des Auslösers wird das Bild mit den meisten Details ausgewählt. Dieses Bild zusammen mit dem "Synthetic Long" bildet das Ausgangsmaterial von Deep Fusion.


Details herausarbeiten
Nun gilt es, möglichst viele Details in den Aufnahmen herauszuarbeiten, ohne das Rauschen zu erhöhen. Dazu verwendet Apple insgesamt vier Schritte, um Bereiche mit hohem Kontrast wie zum Beispiel Haare und Stoff von Bereichen mit niedrigem Kontrast wie dem Himmel zu trennen. Pixel für Pixel wird so verglichen, um ein möglichst rauschfreies Bild zu erzeugen, welches aber keine Details "verschluckt".

Erheblich mehr Rechenaufwand – kein Burst Mode mehr möglich
Dieses komplexe Prozedere liefert faszinierende Aufnahmen – leider benötigt es auch eine Menge Rechenzeit. Obwohl der A13-Prozessor des iPhone 11 beeindruckende Rechenleistung bereitstellt, benötigt jedes Deep-Fusion-Bild etwa 0,25 bis 0,5 Sekunden. Daher ist es nicht mehr möglich, den "Burst Mode" in der Kamera-App zu nutzen, sobald Deep Fusion aktiv ist. Mit dem Burst Mode lassen sich durch Halten des Auslösers etwa 10 bis 20 Bilder pro Sekunde zu schießen – und danach das beste auszuwählen.

Kommentare

eiq
eiq02.10.19 09:58
Nicht ein Link zum Originalartikel von The Verge? Das ist aber nicht die feine englische Art, wenn man sogar deren Fotos verwendet.
-5
tobias.reichert02.10.19 10:05
eiq
Nicht ein Link zum Originalartikel von The Verge? Das ist aber nicht die feine englische Art, wenn man sogar deren Fotos verwendet.

Die Fotos sind von Apple.
+3
Tope02.10.19 10:34
Was soll an den verlinkten Fotos eigentlich so beeindruckend sein? Ich kann darauf überhaupt gar nichts entdecken was mich staunen lässt.
-4
Mendel Kucharzeck
Mendel Kucharzeck02.10.19 11:53
eiq
Fotos sind wirklich von Apple direkt – und die Informationen stammen auch nicht von Verge direkt, sondern wurden dort nur aufgesammelt. Ich konnte Teile der Informationen auf einige Posts von Reddit zurückverfolgen, Teile davon stammen direkt von Apples Keynote. Aber eine "Originalquelle" gab es nicht, sonst hätte ich die verlinkt.
+5
Radetzky02.10.19 12:39
So etwas wie dieser Deep Mode müsste doch in modernen Kameras (Nikon, Canon, Sony etc) auch einbauen lassen, oder bei Nachbearbeitungsprogrammen wie Lightroom.
Ist da diesbezüglich irgendwas zu hoffen?
-1
cab02.10.19 14:04
Radetzky
So etwas wie dieser Deep Mode müsste doch in modernen Kameras (Nikon, Canon, Sony etc) auch einbauen lassen,

Dazu müssten die modernen Kameras viel mehr Rechenleistung und bessere Software bekommen. Also vorerst wahrscheinlich nicht.
oder bei Nachbearbeitungsprogrammen wie Lightroom.
Ist da diesbezüglich irgendwas zu hoffen?

Lightroom ist dazu völlig verkehrt, weil es nur die fertigen Daten bearbeitet. Es kann ja nicht sehen und live Bildinformationen verschmelzen.
+5
eiq
eiq02.10.19 16:23
Mendel Kucharzeck
eiq
Fotos sind wirklich von Apple direkt – und die Informationen stammen auch nicht von Verge direkt, sondern wurden dort nur aufgesammelt. Ich konnte Teile der Informationen auf einige Posts von Reddit zurückverfolgen, Teile davon stammen direkt von Apples Keynote. Aber eine "Originalquelle" gab es nicht, sonst hätte ich die verlinkt.
Oh, dann nehme ich alles zurück und behaupte das Gegenteil. Ich hatte es erst bei The Verge überflogen und meinte auf dem zweiten Bild auch einen Mitarbeiter von denen zu erkennen, was ich mir dann wohl eingebildet habe. Bitte entschuldigt meine voreilig gezogenen Schlüsse.
+4
pparler04.10.19 11:38
Sicher wird hier auch mit unterschiedlichen Focus-Einstellungen gearbeitet und die verschiedenen “Versuche“ dann zusammengesetzt.

Trotzdem sehen die gezeigten XR-Fotos irgendwie verwaschen aus. Gab es nicht beim XS/XR so eine Art Portrait-Automatik die Porträts erkennt und z.B. die Haut nicht so detailliert erscheinen lässt?

BTW: Lässt sich denn Deep Fusion auch abschalten?
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.