Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

SmartCamera: Apples Pläne für noch bessere Smartphone-Fotos

Häufig wird betont, dass ein gutes Fotos nicht nur von guter Foto-Hardware, sondern in erster Linie vom Auge des Fotografen abhängen. Dies ist sicherlich richtig, denn auch die beste Kamera wird aus schlecht gewählten Motiven kein Meisterwerk machen. Gerade im Smartphone-Bereich geht die Entwicklung aber noch einen weiteren Schritt. Waren Smartphone-Kameras einst ausschließlich für spontane Schnappschüsse zu gebrauchen, so haben die kleinen Systeme inzwischen eine Fotoqualität erreicht, die sich sogar bei nicht ganz perfekten Lichtverhältnissen kaum noch verstecken muss. Aufwändige, softwareseitige Nachbehandlung und komplizierte Bildanalyseverfahren sorgen dafür, dem Nutzer Ergebnisse zu präsentieren, für die vor einigen Jahren noch größere Kameras erforderlich waren. Anfang der Woche wurde dieses Thema übrigens schon einmal diskutiert, Anlass waren die verärgerten Äußerungen eines ehemaligen Google-Managers, wie massiv Android den Anschluss im Fotobereich verloren habe:


Mit der kommenden iPhone-Generation und iOS 11 fügt Apple Funktionen hinzu, die man schon sehr lange von herkömmlichen Kameras kennt. Firmware-Schnipsel weisen darauf hin, dass eine Analyse der Szene stattfindet, um dann das passende Preset auszuwählen. Diese "SmartCamera"-Funktion soll automatisch die besten Kameraeinstellungen finden. Die wichtige Verbesserung dabei ist, nicht nur stur nach dem Motto vorzugehen "wenn es dunkler wird, muss eben länger belichtet werden". Stattdessen kann die SmartCamera alle Einstellungen genau auf die jeweilige Situation anpassen.


Bislang bekannt wurden folgende Kontexte, die automatisch erkannt werden können: Baby, helle Bühne, Dokument, Feuerwerk, Haustier, einzelne helle Lichtquelle, Himmel, Schnee, Sport und Sonnenaufgang/untergang. Eine weitere Referenz nennt "freezeMotion" - möglicherweise eine Funktion, um automatisch den perfekten Moment für ein Foto zu bestimmen. In der Praxis könnten die Funktionen für ganz erheblich bessere Fotos sorgen - weniger aufgrund der technischen Qualität, sondern weil dem Nutzer viele Probleme ganz abgenommen werden.

Auch die aktuelle iOS-Version kann schon Objekte auf Fotos erkennen. Allerdings findet die Analyse erst in der Fotos-App statt und nicht schon zum Zeitpunkt der Aufnahme. Die Wahl von Blende, Verschlusszeit und weiterer Aspekte erfolgt nicht kontextabhängig, sondern nach klassischen Verfahren. Noch nicht bekannt ist, ob die SmartCamera auf allen Geräten mit iOS 11 funktioniert, oder ob es dazu eines aktuellen Modells bedarf.

Kommentare

trigunas10803.08.17 13:16
Ich fände es schon toll wenn Apple in ihrer aktuellen InCamera "Bildoptimierung" weniger an den Bildern rumschrauben würde. Viel zu oft weisen die Bilder bei 100% Betrachtungsgröße einen Mosaikeffekt zum Beispiel in Gesichtern auf das es einfach gruselig ist. Einzige Möglichkeit dem zu entgehen ist in RAW in anderen Apps zu fotografieren. Ja dann rauschen die Bilder wieder mehr aber das wirkt wesentlich natürlicher als dieser Mosaik Effekt.
+3
Keepo
Keepo03.08.17 14:38
trigunas108
...in RAW in anderen Apps zu fotografieren...

Kannst du da eine empfehlen?

LG Keepo
Er kam, sah und ging wieder.
+2
Hans Hoos
Hans Hoos03.08.17 18:00
Wie wäre es denn mal mit einer Motiv-Klingel? Damit jeder weiß, wann er auslösen/abdrücken muss.
-1
Midi3e03.08.17 18:17
Adobe Lightroom


Keepo
trigunas108
...in RAW in anderen Apps zu fotografieren...

Kannst du da eine empfehlen?

LG Keepo
-1
trigunas10803.08.17 22:01
Bin mit ProCamera ziemlich zufrieden.

Keepo
trigunas108
...in RAW in anderen Apps zu fotografieren...

Kannst du da eine empfehlen?

LG Keepo
+1
nykel04.08.17 09:25
RAW als Option in der Camera App wäre natürlich schön, aber generell sind die Bilder des iPhone sehr sehr gut optimiert, etwas stärker aber nicht übersättigt, was dem Allgemeingeschmack entgegen kommt. Bei gutem Licht ist die Qualität so gut, daß nur Pixelpeeping einen Unterschied zu großen Kameras sehen läßt, verstärkte Artefakte und Rauschen kann man eigentlich nur bei Szenen mit wenig Licht finden, ansonsten wird aus dem kleinen Sensor erstaunlich viel heraus geholt. Einen Mosaikeffekt auf Gesichtern kann ich jedenfalls nicht bestätigen, vielleicht wenn das Gesicht 20 m weg ist und man zoomt am Monitor auf 400% ran ... Ich habe ein iPhone SE.
-1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.