Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Dynamikumfang wie menschliches Auge – Apple-Patent weckt Hoffnung auf deutlich bessere iPhone-Kameras

Bei Foto- und Videoaufnahmen stellen starke Helligkeitsunterschiede stets ein Problem dar. Eine goldene Regel beim Fotografieren lautet, dass Fotografen immer die Sonne (oder das Fenster) im Rücken halten sollen, damit die Gesichtszüge der abgelichteten Person zu erkennen sind. Wer mit dem iPhone aufnimmt, kennt diese Regel vielleicht nicht, will aber trotzdem schöne Aufnahmen erzielen. Aktuell gleichen Apples HDR-Funktionen dieses Manko dadurch aus, dass mehrere Bilder mit unterschiedlichen Belichtungseinstellungen zu einem Bild zusammengerechnet wird. Ein Patent 12342091, welches Apple jüngst zugesprochen wurde, will das Problem direkt im Sensor lösen. Dafür kommt ein veränderter Aufbau der einzelnen Pixelsensoren zur Anwendung.


Das Patent beschreibt eine Methodik, die von einem vereinfachten Aufbau der einzelnen CMOS-Sensoren ausgeht. Üblicherweise verwenden aktuelle Smartphone-Kameras eine Struktur mit vier Transistoren (4T): Transfer Gate, Reset Gate, Selection Gate und Source-Follower Readout Transistor. Der einfachere Aufbau (3T) verzichtet auf das Transfer Gate; dies führt üblicherweise zu höherem Bildrauschen. Zwei neue Komponenten gleichen dieses Manko aus: ein Lateral Overflow Integration Capacitor (LOFIC) sowie ein Speicherschaltkreis. Letzterer dient dazu, das aktuelle Rauschniveau zu bestimmen. Auf diese Weise kann ein einzelner Punktsensor laut Patent Licht in einem Dynamikumfang von 120 Dezibel wahrnehmen.

20 Belichtungsstufen anstatt 10 bis 13
Einem Kameranutzer tritt der Dynamikumfang in Form von Blendenstufen (F-Stops) in Erscheinung. Das menschliche Auge ist in der Lage, Unterschiede im Rahmen von 20 bis 30 Blendenstufen wahrzunehmen. Gebräuchliche CMOS-Sensoren in Smartphones und Digitalkameras decken meist einen Bereich von zehn oder mehr Blendenstufen ab. Eine für Kinoqualität optimierte Kamera wie Arri Alexa 35 fängt einen Dynamikumfang von 17 Blendenstufen ein. Mit einem solchen verbesserten Kamerasensor entstehen mit einem iPhone Fotos und Videos, die mit Aufnahmen aus modernem Hollywood-Equipment mithalten, ja dieses sogar übertreffen können.

Weitere Patente rund um iPhone-Kamera
Das Patent wurde vom Branchenportal Y.M. Cinema Magazine entdeckt; dieses bringt es mit weiteren Innovationen in Zusammenhang: Ein optimiertes Kühlsystem und Patent 20250208484 zu einer variablen Blende aus einem weichen Membranmaterial. In Kombination würden diese drei Innovationen die Fähigkeiten der iPhone-Kamera im Bereich der professionellen Videoaufzeichnung deutlich steigern.

Kommentare

bergdoktor04.07.25 09:21
Oft sichern solche Patente nur eine Idee auch ohne dass es bereits eine technische Umsetzung gibt. Ich könnte mir aber durchaus vorstellen, dass Apple diesen Sensor bereits in den "iPhone Kameras" beim F1 Film getestet hat und der Sensor bereits mehr oder weniger serienreif ist.
0
Esterel
Esterel04.07.25 12:07
bergdoktor
Oft sichern solche Patente nur eine Idee auch ohne dass es bereits eine technische Umsetzung gibt. Ich könnte mir aber durchaus vorstellen, dass Apple diesen Sensor bereits in den "iPhone Kameras" beim F1 Film getestet hat und der Sensor bereits mehr oder weniger serienreif ist.

Apple entwickelt keine eigenen Bildsensoren, sondern verwendet – wie rund 90 % der Branche – Sensoren von Sony.

Einen Dynamikumfang von 20 Blendenstufen mit nur einem einzigen Foto (ohne HDR) und einem so kleinen Sensor halte ich für unrealistisch. Wäre das so einfach, hätte ein Mittelformat-Sensor mit 100 Megapixeln nicht nur 15 Blendenstufen.

Ein Dynamikumfang von 14 bis 17 Blendenstufen ist mit erheblichen technischen Aufwand erreichbar. Die darüber hinausgehenden 3 Blendenstufen erfordern jedoch weitaus wissen und einen erheblichen technischen Aufwand, der steht uns im moment nicht zur verfügung-

Zur Einordnung: Ein Unterschied von 3 Blendenstufen entspricht beispielsweise dem Unterschied zwischen einer Objektiv mit Blendenöffnung von f/1.4 und f/4


Hier findest du alle Infos welche Kameras für den F1 Film verwendet wurden. sehr interessant.
https://www.newsshooter.com/2025/06/28/the-custom-in-car-camera-used-on-f1/#:~:text=The%20F1%20movie%20was%20primarily,10mm%20F5.6%20Voigtl%C3%A4nder%20lens.
+3
uni.solo04.07.25 12:46
Esterel

Warum sollte Apple nicht an der Entwicklung von Bildsensoren interessiert sein? Dass sie Chips können zeigen die A- und M-Prozessoren recht deutlich und Bildsensoren sind auf Chip-Ebene gar nicht so viel anders. Daher denke ich, dass Apple mit entsprechenden Patenten den Weg bereiten könnte, und dass die Patente angemeldet wurden, heißt auch, dass Sony & Co. dort noch was übrig gelassen haben oder in Detailfragen der klassichen Technik vertieft sind.

Und was Du oder ich hier für realistisch oder unrealistisch halten, ist irrelevant außer es gibt Beweise oder physikalische Grundsätze die dem entgegenstehen. Innovationen zielen darauf ab, Neues möglich zu machen – und entstehen meist dort, wo die Mehrheit noch nicht hinsieht oder etwas für unmöglich hält.

Ich finde es amüsant, wie angesichts der Diskussionen der letzten Tage hier die Innovationsmüdigkeit von Apple immer wieder strapaziert wurde. Jetzt bringen sie evtl. mal einen echten Game-Changer, dann zeigt so eine Reaktion einmal mehr wie naiv viele unterwegs sind ...
+4
MacNu9204.07.25 12:47
Esterel
Apple entwickelt keine eigenen Bildsensoren, sondern verwendet – wie rund 90 % der Branche – Sensoren von Sony. ...

Ein paar Ergänzungen:

Auch wenn die meisten Sensoren weltweit von Sony gefertigt werden, heißt das nicht, dass Kamerafirmen keine Eigenentwicklung betreiben. Der Sensor der OM1 basiert zB auf einer Eigenentwicklung von Olympus, die Sony dann 2 Jahre lang exklusiv für Olympus/OM System fertigen durfte.

Konzepte zur Erhöhung des DU gab es auch von Fuji, die zB große mit kleinen Pixeln kombiniert haben. Ich kann mir vorstellen, dass es da noch völlig andere technologische Ideen gibt. Genau davon war ja oben die Rede.

Ein Unterschied von 3 Blendenstufen ist in der Tat immens, mehr als die reinen Blendenzahlen vermuten lassen: Jede einzelne Blendenstufe bedeutet ja eine Verdoppelung der Lichtmenge.
+3
Skywalker0404.07.25 12:52
Esterel
bergdoktor
Oft sichern solche Patente nur eine Idee auch ohne dass es bereits eine technische Umsetzung gibt. Ich könnte mir aber durchaus vorstellen, dass Apple diesen Sensor bereits in den "iPhone Kameras" beim F1 Film getestet hat und der Sensor bereits mehr oder weniger serienreif ist.

Apple entwickelt keine eigenen Bildsensoren, sondern verwendet – wie rund 90 % der Branche – Sensoren von Sony.

Einen Dynamikumfang von 20 Blendenstufen mit nur einem einzigen Foto (ohne HDR) und einem so kleinen Sensor halte ich für unrealistisch. Wäre das so einfach, hätte ein Mittelformat-Sensor mit 100 Megapixeln nicht nur 15 Blendenstufen.

Ein Dynamikumfang von 14 bis 17 Blendenstufen ist mit erheblichen technischen Aufwand erreichbar. Die darüber hinausgehenden 3 Blendenstufen erfordern jedoch weitaus wissen und einen erheblichen technischen Aufwand, der steht uns im moment nicht zur verfügung-

Zur Einordnung: Ein Unterschied von 3 Blendenstufen entspricht beispielsweise dem Unterschied zwischen einer Objektiv mit Blendenöffnung von f/1.4 und f/4


Hier findest du alle Infos welche Kameras für den F1 Film verwendet wurden. sehr interessant.
F1 movie was primarily,10mm F5.6 Voigtländer lens.

Wer was entwickelt und wer es letztlich herstellt fällt ja meist auseinander. Apple entwickelt und verwendet seine Chips, stellt sie aber nicht her. Apple entwickelt Displays (u.a. jene von iPhone und Vision Pro), stellt sie aber nicht selbst her, weil es darauf spezialisierte Firmen wie Samsung gibt. Ja, es ist ein „Samsung-Display“ aber eines, das sich von denen in den Galaxy Modellen unterscheidet. Insofern kann niemand wissen, was Apple noch entwickelt oder nicht nicht entwickelt, sofern man keine exklusiven Einblicke in Labore hat.

Was man nun an dieser Entwicklung für realistisch hält, kann man wohl ohne die Einblicke
+2
anaximander04.07.25 13:03
'Apple’s new sensor is making waves, and it might just shake up the entire cinema industry! With a groundbreaking 20 stops of dynamic range, could this mean the end of clipping and a whole new level of realism in filmmaking and beyond? From Apple Vision Pro to cinema cameras, the possibilities are endless—and we’re breaking it all down in this exciting episode!

Brandon’s back, and we’re diving into how Apple’s tech could rival camera giants like Sony, Canon, and Nikon. Is this the future of video production and content creation? AI for video, Nikon Z6 iii, and Canon rumors are all on the table! You won’t want to miss this episode packed with insights, laughs, and the latest in filmmaking and camera gear.'



0
globalls
globalls04.07.25 18:15
Wie hiess es noch im analogen Zeitalter der Fotografie?
Sonne lacht, Blende 8
Muss ich denn alles selber machen?
0
MacNu9204.07.25 20:52
Ich weiß noch, wie wir vor ca. 15 Jahren aufwändig manuelle Belichtungsreihen und Tonemapping gemacht haben, um den hohen Kontrastumfang mancher Szenen in ein jpg zu quetschen. Heute sind die Sensoren insbesondere von Sony und Nikon Kameras derart gut, dass man korrekt auf die Lichter belichten und dann in der Nachbearbeitung ziemlich heftig die Schatten hochziehen kann, ohne dass das Ergebnis unansehnlich wird. Da hat sich bereits sehr viel getan.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.