Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

iPhone-Kameras: Apple gibt Einblicke in Entwicklung und Design-Philosophie

Sämtliche Fotos und Videos, die mit einem iPhone aufgenommen werden, sind stets das Ergebnis eines ausgefeilten Zusammenspiels von Objektiven, Sensoren, Prozessoren und Software. Bei der Entwicklung der Kameramodule verfolgt Apple daher einen ganzheitlichen Ansatz, um diese Komponenten möglichst perfekt zu kombinieren. Jetzt gewährte der iPhone-Konzern einen Einblick in die Design-Philosophie und die Visionen, mit denen man sich in diesem Zusammenhang in Cupertino beschäftigt.


iPhone-Nutzer im Mittelpunkt aller Überlegungen
Im Mittelpunkt aller Überlegungen stehen dabei die iPhone-Nutzer: "Wir wollen, dass sie Bilder ihres Lebens anfertigen können, ohne dabei von der Technik abgelenkt zu werden." Das sagten jetzt Francesca Sweet, bei Apple als Product Line Manager zuständig für das iPhone, und Vice President Jon McCormack, der Leiter des Kamera-Teams, im Gespräch mit PetaPixel. Als Fotografen neigten sie selbst dazu, viel über Dinge wie ISO-Einstellungen, Objekt-Bewegungen oder Belichtungszeiten nachzudenken, so die beiden. Mit diesen und anderen möglicherweise ablenkenden technischen Aspekten will Apple die Nutzer nicht belasten: Sie sollen einfach ein "großartiges" Foto machen und sich dann wieder dem zuwenden, was sie gerade tun.


Foto: Apple

Bildoptimierungen selbst in kleinsten Details
Diese Vision führte schließlich zu den heute eingesetzten Verfahren, welche Apple unter dem Begriff "Computational Photography" zusammenfasst. Mit Techniken wie beispielsweise Deep Fusion, dem Nachtmodus und High Dynamic Range (HDR) bildet Apple dabei laut McCormack und Sweet einige Verfahren nach, welche Fotografen üblicherweise erst während der (digitalen) Bildentwicklung einsetzen. Mithilfe von Maschinellem Lernen nimmt ein iPhone daher Optimierungen vor, welche bis in einzelne Details reichen: "Hintergrund und Vordergrund, Augen, Lippen, Haar, Haut und Kleidung sowie der Himmel werden jeweils einzeln analysiert und digital bearbeitet", sagt McCormack. Durch eine Kombination zahlreicher Anpassungen etwa im Hinblick auf Helligkeit, Kontrast und Farbsättigung entsteht so nahezu in Echtzeit das fertige Bild.

Großer Sensor ist ein Baustein unter vielen
Der neue größere Sensor der Weitwinkel-Kamera des iPhone 12 Pro Max (damit meint Apple den Standard-Weitwinkel, nicht das Ultraweitwinkel-Objektiv) trägt ebenfalls zu diesem ganzheitlichen Ansatz bei, ist aber nur ein Baustein unter vielen. Er fängt mehr Licht in kürzerer Zeit ein und verringert das Rauschen, was bessere Aufnahmen bei schlechten Lichtverhältnissen erlaubt. Allerdings betrachtete man bei Apple auch diese Verbesserung stets nur im Zusammenspiel mit den anderen Aspekten des Kamerasystems und der weiteren Komponenten des iPhone 12. Erst dieser ganzheitliche Ansatz erlaube es dem Unternehmen, immer wieder Innovationen in Sachen Foto und Video hervorbringen zu können, so Sweet und McCormack.

Kommentare

d2o11.11.20 15:21
Das setzt aber auch voraus, dass Apple glaubt zu wissen, wie mein Bild nachher auszusehen hat. Ich bin sehr froh über die RAW Datei, denn da kann ich das Bild so entwickeln, wie ich es nachher möchte bzw. wie ich möchte das es aussieht.
Es spricht natürlich nichts dagegen, wenn man dabei Unterstützung bekommt.
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.