Deep Fusion: Vergleichsfotos zeigen, was der neue Algorithmus leistet

Neben Smart HDR und Night Mode bringen die neuen 2019er iPhone-Modelle einen weiteren Foto-Modus mit, welcher aufwändiger ist als alle bisherigen Optimierungsalgorithmen von Apple: Deep Fusion. Damit bringt das iPhone 11 und 11 Pro für jeden Fall den optimalen Modus mit: Smart HDR für stark unterschiedlich belichtete Fotos, Deep Fusion für mittel bis dunkle Szenen und Night Mode für Fotos bei Nacht. In einem gesonderten Artikel haben wir bereits die generelle Funktionsweise des neuen Algorithmus erklärt. Am Mittwoch Abend veröffentlichte Apple die erste Vorabversion von iOS 13.2 – samt Deep Fusion. Die neue Funktion lässt sich aber nur auf der 2019er iPhones nutzen, ältere Modelle bleiben außen vor. Doch was bringt die neue Software wirklich?


Tyler Stalman veröffentlichte einige Vergleichsfotos, auf denen recht gut zu erkennen ist, welche Verbesserungen Deep Fusion vornimmt. Besonders auffällig ist die verbesserte Qualität bei feinen Strukturen wie zum Beispiel Stoff: Solche Oberflächen zeigen nun erheblich mehr Details im Vergleich zu Fotos ohne Deep Fusion:


Aber auch Bärte und Haut bekommen durch Deep Fusion erheblich mehr Schärfe, ohne das Rauschen zu erhöhen. Schaut man sich die Aufnahmen vergrößert an, wird schnell klar, wie viel mehr Details durch Deep Fusion erhalten bleiben:


Zukunft: Software-Filter?
Apple und andere Hersteller verbessern zwar auch die Hardware der Kameras immer weiter und in jüngerer Vergangenheit statten Unternehmen Handys mit zwei, drei oder gar vier Kameras mit unterschiedlichen Linsen und Sensoren aus – doch der Platz ist und bleibt beschränkt und langsam nährt sich die Sensor-Technologie des physikalisch Machbaren. Immer mehr Hersteller setzen daher auf komplexe Algorithmen, um Fotos zu verbessern und die Nachteile der kleinen Sensoren auszugleichen. Apple kam zwar erst nach Google mit einem Night Mode und dem komplexen Deep-Fusion-Algorithmus auf den Markt – doch die Ergebnisse können sich wohl auch in der Praxis sehen lassen wie die obigen Bilder zeigen.

Kommentare

Mibra04.10.19 09:08
Wow sieht man ja wirklich sehr deutlich! Hätte ich so nicht erwartet!
+7
Mendel Kucharzeck
Mendel Kucharzeck04.10.19 09:14
Mibra
Hat mich auch überrascht. Sieht weiterhin natürlich aus, trotzdem viel mehr Details.
+7
NONrelevant
NONrelevant04.10.19 09:17
Wenn das in der Praxis auch so funktioniert, bin ich begeistert.
Bei der Portraitfunktion hat mein iPhone momentan arge Probleme die Kanten zu erkennen, oder wurde das gefixt mit dem letzten Update?
NONrelevant - Wer nicht selber denkt, für den wird gedacht.
+2
Urkman04.10.19 09:25
Der Vergleich hinkt allerdings, da ein XR mit einem 11 verglichen wird.
Hier müsste ein 11er mit 13.1 und 13.2 verglichen werden...
+4
MacPit04.10.19 09:40
NONrelevant
Bei der Portraitfunktion hat mein iPhone momentan arge Probleme die Kanten zu erkennen, oder wurde das gefixt mit dem letzten Update?

Genau das hat mich vom Kauf der neuen Generation abgehalten. Sobald die das so gut wie beim Google Pixel hinbekommen, denke ich nochmal drüber nach.
Derzeit halte ich den Preis, nach wie vor, arg überzogen. Auch wenn ich mich wiederhole.
-2
Konqi
Konqi04.10.19 09:42
Ein deutlicher Unterschied, doll!
+2
ApfelHandy4
ApfelHandy404.10.19 09:51
Urkman
Der Vergleich hinkt allerdings, da ein XR mit einem 11 verglichen wird.
Hier müsste ein 11er mit 13.1 und 13.2 verglichen werden...

Hat er auch gemacht. Der Unterschied bleibt enorm!
+9
barabas04.10.19 10:30
Schön, allerdings ist es nicht erklärbar warum die älteren IOS Geräte von dieser Technologie nicht ebenfalls profitieren könnten, an der Rechenpower der letzten Generation kann es ja eigentlich nicht liegen.
+2
Embrace04.10.19 10:35
Alleinstellungsmerkmal der neuen Geräte ist sicherlich ein Grund. Aber vielleicht auch die Veränderte Kameraarchitektur (vor dem eigentlichen Auslösen mehrere Bilder machen und auch danach). Liegen alle Daten vor, könnte natürlich auch das allererste iPhone ein Deep Fusion Bild berechnen.
+3
pan12345604.10.19 10:55
barabas
Schön, allerdings ist es nicht erklärbar warum die älteren IOS Geräte von dieser Technologie nicht ebenfalls profitieren könnten, an der Rechenpower der letzten Generation kann es ja eigentlich nicht liegen.
Ich habe ja noch das iPhone 6S und da wird der Rechenpower wohl nicht reichen.
Abgesehen davon sollen wir ja was Neues kaufen.
Das iPhone 11er gefällt mir schon sehr gut (pro muss nicht sein) und zu meinem 6S werde ich bestimmt einen großen Sprung zu mehr Bildqualität machen. Und endlich Video UHD mit 50p und 60p haben.
+2
barabas04.10.19 11:06
Embrace
Alleinstellungsmerkmal der neuen Geräte ist sicherlich ein Grund. Aber vielleicht auch die Veränderte Kameraarchitektur (vor dem eigentlichen Auslösen mehrere Bilder machen und auch danach).

An der Sensorqualität der letzten Generation kann es eigentlich nicht liegen, sind es doch eigentlich nur die Rohdaten die jene Software dann verarbeiten muss, und Multibilder werden zb. beim XS (Max) eigentlich ja schon gespeichert seit Apple Smart HDR eingeführt hat. Also lägen die Daten im Grunde eigentlich schon seit der letzten Generation vor um auch hier Deep Fusion anwenden zu können. Zudem, die Rechenpower eines iPhone X oder XS würde hier sicherlich ebenfalls locker ausreichen.
Für mich bleibt eigentlich deshalb nur der erste Satz relevant, - Apple versucht mit diesem Alleinstellungsmerkmal die Hardwareverkäufe weiter anzukurbeln. Als Nutzer der älteren Generation sieht man hier in die Röhre und für diese bleibt mal wieder eigentlich nur die Hoffnung das Fremdhersteller hier eventuell etwas ähnliches Entwickeln.
+3
barabas04.10.19 11:12
pan123456
Ich habe ja noch das iPhone 6S und da wird der Rechenpower wohl nicht reichen.
Abgesehen davon sollen wir ja was Neues kaufen.

Gut, das die Rechenpower ab einer gewissen Generation hier mal ebenfalls an ihre Grenzen stösst ist nachvollziehbar, aber sicherlich nicht jene ab der X-Generation in den letzten beiden Jahren. Hier fühlt man sich dann doch etwas veräppelt...
+2
uni.solo04.10.19 11:51
Bei Rechenpower dürfen wir nicht allein die arithmetische CPU Leistung berücksichtigen. Deep Fusion beruht auf den ML-Fähigkeiten des Prozessors, das sind extra Rechenwerke auf der CPU (neural engine). Eingeführt mit dem A11 haben diese in den letzten zwei Prozessorgenerationen über die Maßen zugelegt.

Ich denke, es bedarf mindestens zweier Kameras und eines Bionic-Prozessors um Deep Fusion überhaupt in Betracht zu ziehen.
-1
RyanTedder
RyanTedder04.10.19 12:09
Das komplette Foto sieht mit Deep Fusion viel schärfer aus, hätte ich nicht gedacht. Aber gut zu wissen das dass normale 11er diese Funktion auch beherrscht
+3
pparler04.10.19 19:18
Wieso wurde mein Kommentar gelöscht?
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.