Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Weiterer Bericht: Zukünftige iPhone-Kamera mit 200 Megapixel

Schon seit vergangenem Jahr wird immer wieder darüber berichtet, dass Apple den nächsten großen Schritt bei der Kamera-Auflösung plant. Während aktuelle iPhones 48 Megapixel bieten, sollen es im nächsten oder spätestens übernächsten Jahr sogar 200 MP sein. Dem bekannten Leaker Digital Chat Station zufolge hat die Entwicklung Fahrt aufgenommen, sodass die Marktreife bereits 2027 erfolgen könnte. Neu ist zudem die Aussage hinsichtlich eines 200-MP-Sensors im 1/1,12"-Format für die Tele- und eben nicht für die Hauptkamera. Hier befinde sich Apple in einem fortgeschrittenen Stadium und wolle auf dieselbe Konfiguration wie Oppo im Find X9 Ultra setzen.


Viel mehr Megapixel für bessere Verarbeitung
200 Megapixel auf dem Sensor bedeuten allerdings nicht automatisch auch gewaltige 200 MP im gespeicherten Foto. Der Sensor liefert zunächst sehr viele Rohdaten, daraus kann das System kleinere, sauberere Bilder errechnen ("Computational Photography"), etwa mit weniger Rauschen und höherer Detaildichte. Genau darin liegt oft der eigentliche Nutzen solcher Sensoren. Generell gilt: Mehr Megapixel führen nicht automatisch zu besserer Bildqualität. Wenn man auf gleicher Sensorfläche immer mehr Pixel unterbringt, müssen zwangsläufig die einzelnen Pixel schrumpfen. Das kann vor allem bei schlechteren Lichtverhältnissen zusätzliches Rauschen herbeiführen und somit ungewollte Effekte verursachen.

Außerdem größerer Sensor?
Ein interessanter Punkt ist deshalb die angeblich größere Sensorfläche mit rund 93,2 mm², wohingegen es der Hauptsensor der aktuellen Pro-Modelle nur auf 71,5 mm² bringt. Ein größerer Sensor kann einen Teil des Nachteils der höheren Pixeldichte wieder ausgleichen, weil mehr Licht eingefangen wird. Es klingt durchaus schlüssig, dies für die Tele- statt die Hauptkamera umzusetzen. Gerade dort würden sich durch die sehr hohen Auflösungen Vorteile ergeben, weil sie zusätzlichen Spielraum für Crop-Zoom, digitale Zwischenstufen und feinere Detailerfassung bieten.

iPhone 18: Auflösung bleibt, aber variable Blende
Für die 2026er Generation des iPhones gab es ebenfalls bereits zahlreiche Meldungen. Apple setzt demnach im iPhone 18 Pro erstmals auf eine variable Blende, wie es aus übereinstimmenden Berichten der namhaften Leaker heißt.

Kommentare

CJuser27.03.26 09:00
Ich hätte jetzt eher vermutet, dass es sich hierbei um die Konstellation des Xiaomi 17 Ultra handelt.
Aber es ist auf jeden Fall erfreulich, dass man jetzt schneller auf die Technik der Mitbewerber aufschließen will. Mal schauen, auf welche Brennweite es bei der Telekamera hinausläuft. Trotzdem würde sich der Sensor auch für die Weitwinkelkamera gut machen. Da würde selbst bei einem 2x Crop eine Auflösung von 50 MP rauskommen.
+1
flyingangel27.03.26 09:15
Was bringen die vielen Pixel, wenn dafür die Lichtstärke - und damit die Gesamtqualität - runtergeht? Meine Nikon Spiegelreflex mit 12,3MP macht trotzdem noch immer bessere Bilder. Auflösung ist halt nicht alles - nur ein Eyecatcher!
+5
holk10027.03.26 09:21
Nach den bisherigen Erfahrungen mit Apple werden die hier nicht nur einfach wie andere Hersteller mit vielen Megapixel werben wollen, sondern das in einem Gesamtkonzept zu besseren Fotos führen. Besonders interessant könnte diese Technik mit mehr Megapixel für das iPhone Air sein, das wohl auch in Zukunft kein Teleobjektiv erhalten wird, dann aber den Zoom über Bildausschnitte erreichen kann, die dann immer noch scharf sind.
+3
globalls
globalls27.03.26 09:44
Aus meiner Sicht vollkommen aufgeblasen und eigentlich nur vom Markt getrieben. Ja, so bekommt man Speicher voll, da muss natürlich mehr iCloud Speicher her. Ich red da jetzt von den Millionen Normalos, die tausende Fotos rausballern und irgendwo eben speichern müssen.
Spiegelreflex Benutzer wie flyingangel schauen auf jedes einzelnes Bild und erkennen den Unterschied. Heute ist ja ein Foto schon mißlungen, wenn jemand irrtümlich den Porträt Modus eingeschaltet hat, kennt ja keiner mehr! So wie die wenigsten den Begriff Schärfentiefe kennen oder jemals kennenlernen werden...leider!
Muss ich denn alles selber machen?
+5
Creativer
Creativer27.03.26 09:49
Warum nur 200 Megapixel?

btw. meine Canon Ixus für schlappe 1.000 DM hatte 2,1 Megapixel.
Damals von meinem Ausbildunglohn gekauft… mir wurde damals an der Kasse kurz schwindelig von dem Betrag
+3
uni.solo27.03.26 10:05
flyingangel
Was bringen die vielen Pixel, wenn dafür die Lichtstärke - und damit die Gesamtqualität - runtergeht? Meine Nikon Spiegelreflex mit 12,3MP macht trotzdem noch immer bessere Bilder. Auflösung ist halt nicht alles - nur ein Eyecatcher!
Nun, wenn man viel Zeit und Ruhe für ein ruhendes Motiv hat mag das stimmen. Das finale Bild ist mit 12MP ausreichend gut, wenn man sein Handwerk versteht. Allerdings schätze ich es schon, dass ich 25MP zur Verfügung hab und mir nachträglich noch ein paar Optionen zur Bildgestaltung bleiben.

Dass mit erhöhter Pixelzahl die Bildqualität runter geht ist schon eine steile These. Moderne Sensoren haben eine viel höhere Quanteneffizienz auf dem Chip, bessere Signalverstärker, d.h. können mit weniger Licht auch Signale mit viel weniger Rauschen produzieren als frühere Generationen. Ganz zu Schweigen von Autofokus-Geschwindigkeiten und -steuerungen für schnelle Motive oder in kontrastarmen Situationen. Es gibt genügend Nutzer jenseits Deines Horizonts, die das zu schätzen wissen.

Ich stimme nur insofern zu, dass 200MP im Vergleich zu 48MP für die optische Abbildung keinen großen Mehrwert haben. Aber ein höher aufgelöstes Helligkeits- und Farbmapping werden bei computational fotography ein subtile aber wesentliche Rolle spielen, auch wenn das Ergebnis vermutlich ein 20 oder 48MP-Bild sein wird.
+5
Claus Becker
Claus Becker27.03.26 10:50
Ich brauche keine 200MP ich würde mich freuen wenn der Akku wieder 1 Woche halten würde wie damals mein altes Siemens S25.
Aber es scheinen sich irgend wie alle damit arrangiert zu haben, jeden Tag oder jeden zweiten Tag das Handy aufzuladen?!
+2
TMS
TMS27.03.26 11:03
Eine Frage an die Fotoprofis (@@sonorman ?)

Was ist der Vorteil, wenn auf der gleichen Chipfläche mehr Pixel anschließend wieder zu weniger Pixel zurückgerechnet werden? Die Menge des Lichts ändert sich ja nicht, wenn man statt der angepeilten 12,5 MPixel etwa 50 MPixel (aktuell) oder 200 Pixel nimmt und je 4 oder 16 Pixel wieder zu einem Pixel mittelt, sodass wieder 12,5 Pixel dabei herauskommen. Das Rauschen sinkt zwar durch Mittelung, aber eben nur gegenüber den kleineren Pixeln, nicht gegenüber dem großen Pixel, wenn man gleich große Pixel genommen hätte.
Ist das bloßes Marketing mit großen Zahlen?
Zudem: Keine Handy-Linse ist so gut, dass sich wirklich 200 Pixel damit abbilden lassen würden.
+5
Apple Mik27.03.26 11:24
Du hast mehr details in deiner Aufnahme und es wird größer!
Durch die kleinen Pixel aber auch mehr Rauschen.
200mp sind mehr Marketing als alles andere.
TMS
Eine Frage an die Fotoprofis (@@sonorman ?)

Was ist der Vorteil, wenn auf der gleichen Chipfläche mehr Pixel anschließend wieder zu weniger Pixel zurückgerechnet werden? Die Menge des Lichts ändert sich ja nicht, wenn man statt der angepeilten 12,5 MPixel etwa 50 MPixel (aktuell) oder 200 Pixel nimmt und je 4 oder 16 Pixel wieder zu einem Pixel mittelt, sodass wieder 12,5 Pixel dabei herauskommen. Das Rauschen sinkt zwar durch Mittelung, aber eben nur gegenüber den kleineren Pixeln, nicht gegenüber dem großen Pixel, wenn man gleich große Pixel genommen hätte.
Ist das bloßes Marketing mit großen Zahlen?
Zudem: Keine Handy-Linse ist so gut, dass sich wirklich 200 Pixel damit abbilden lassen würden.
+2
uni.solo27.03.26 11:29
TMS
Eine Frage an die Fotoprofis (@@sonorman ?)

Was ist der Vorteil, wenn auf der gleichen Chipfläche mehr Pixel anschließend wieder zu weniger Pixel zurückgerechnet werden? Die Menge des Lichts ändert sich ja nicht, wenn man statt der angepeilten 12,5 MPixel etwa 50 MPixel (aktuell) oder 200 Pixel nimmt und je 4 oder 16 Pixel wieder zu einem Pixel mittelt, sodass wieder 12,5 Pixel dabei herauskommen. Das Rauschen sinkt zwar durch Mittelung, aber eben nur gegenüber den kleineren Pixeln, nicht gegenüber dem großen Pixel, wenn man gleich große Pixel genommen hätte.
Ist das bloßes Marketing mit großen Zahlen?
Zudem: Keine Handy-Linse ist so gut, dass sich wirklich 200 Pixel damit abbilden lassen würden.
Vielleicht ein paar Stichpunkte: Oversampling: Teilt man ein Pixel in 4 auf und addiert die Signale dann kommt nicht nur die vorherige Lichtmenge des großen Pixels zustande. Das Signalrauschen sinkt um den Faktor 1/Wurzel(4) ist also nur halb so groß. Das Ergebnis ist weniger Rauschen des gesampelten Pixels und ein verbesserter Dynamik-Umfang. Die vier Pixel zeigen räumliche Nuancen in Farbe und Helligkeit, die das eine Pixel nicht darstellen kann. Davon profitiert die computational photography.

Die Smartphone-Bilder sind automatisch erzeugte Tone-Mapping / HDR-Aufnahmen (high dynamic range). Diese Verfahren profitieren von Redundanz und verbesserter räumlicher Auflösung von Helligkeit und Farbe, ermöglichen u.a. eine bessere Kontrastkontrolle.

Zusammenfassend: Es sind z.T. statistische Effekte aber auch die Rekonstruktionsqualität profitiert sichtbar von der höheren Auflösung. Was nicht unmittelbar profitiert ist das optische Auflösungsvermögen also der sichtbare Unterschied zweier benachbarter Linien bei hoher Liniendichte. Hier kommt die klassische Optik ins Spiel und hier sind Kameras mit guten Objektiven auf absehbare Zeit weiter deutlich im Vorteil.
+3
uni.solo27.03.26 11:42
Nachtrag: Man könnte durch das 4fache Auslesen des klassischen Pixels das Rauschen auch um den Faktor 2 reduzieren (allgemein n Messungen reduzieren die Messunsicherheit um 1/Wurzel(n) ), das geschieht ja u.a. im Nachtmodus (da weiß ich nicht wie oft ausgelesen wir, sicher deutlich mehr). Aber die räumliche Auflösung der Farb- und Helligkeitsnuancen hat man damit eben noch nicht.
+2
MacNu9227.03.26 12:23
@uni.solo

Hilfreiche Erklärung! Und an die anderen: Einfach nochmal den Artikel lesen. Es geht nicht um 200MP-Fotos, sondern darum, eine feiner aufgelöste Datenbasis zu saubereren Bildern zu verarbeiten. Dass das gut funktioniert, zeigen ja die 48MP-Kameras von Apple. Daraus werden meist ja auch nur 12 oder 24MP-Fotos generiert.
+3
TMS
TMS27.03.26 12:55
Apple Mik
Du hast mehr details in deiner Aufnahme und es wird größer!
Durch die kleinen Pixel aber auch mehr Rauschen.
200mp sind mehr Marketing als alles andere.
Das genau ist definitiv nicht der Fall, darüber kann man garnicht diskutieren. Das ist Fakt. Durch Erhöhung der Anzahl der Pixel und anschließender Mittelung gibt es exakt die gleichen Details und das Rauschen wird zwar nicht geringer, aber auch nicht größer. Physik.

uni.solo
Vielleicht ein paar Stichpunkte: Oversampling: Teilt man ein Pixel in 4 auf und addiert die Signale dann kommt nicht nur die vorherige Lichtmenge des großen Pixels zustande. Das Signalrauschen sinkt um den Faktor 1/Wurzel(4) ist also nur halb so groß. Das Ergebnis ist weniger Rauschen des gesampelten Pixels und ein verbesserter Dynamik-Umfang. Die vier Pixel zeigen räumliche Nuancen in Farbe und Helligkeit, die das eine Pixel nicht darstellen kann. Davon profitiert die computational photography.
...
Überzeugt mich nicht, da eine Logik nicht stimmt. Das Rauschen hängt nur von der Fläche ab. Das große Pixel hat exakt so viel Rauschen wie vier gemittelte Viertelpixel. Das ist Physik. Wieso sich dabei der Dynamikumfang erhöhen sollte, das ist mehr als die Frage. Ich würde sagen: Unmöglich.
Und gemittelte Pixel erzeugen auch keine räumlichen Nuancen.
Vielleicht liegt der Vorteil an der sogenannte Computational Photography, wenn die irgendwie mit Algorithmen mehr aus der etwa erhöhten Auflösung machen könnte. Etwas erhöht gilt der Linse. Eine Handy-Linse kann nicht einmal 50 Pixel voll umfänglich trennen, von 200 Pixel völlig abgesehen. Das schaffen nur sehr gute Linsen für Vollformat, die preislich weit über einem kompletten iPhone liegen.
Aber immerhin: Du hast den Fokus wohl in die richtige Richtung gelenkt. Ich staune ja selbst, was Software aus Sensordaten machen kann.
0
berlin7927.03.26 12:57
Claus Becker
Ich brauche keine 200MP ich würde mich freuen wenn der Akku wieder 1 Woche halten würde wie damals mein altes Siemens S25.
Aber es scheinen sich irgend wie alle damit arrangiert zu haben, jeden Tag oder jeden zweiten Tag das Handy aufzuladen?!

Das wird halt schwierig werden bei den riesigen Displays und so leistungsfähigen SoCs. Die damaligen Geräte hatten halt winzige LC-Displays und mussten auch sonst weniger leisten.

Vielleicht wird Apple (wie viele Hersteller von Android Smartphones) ja auch bald Silizium-Carbon-Akkus verbauen. Damit wären dann sicher locker 2-3 Tage möglich.

So oder so natürlich abhängig davon was man mit dem Gerät macht...

Zum Thema: Ansonsten wären allgemein größere Bildsensoren natürlich besser. Die evtl. zukünftigen 200 MP werden ja meist eh dazu genutzt, um z.B. vier oder mehr Pixel zu einem zusammenzufassen.
'daß' gibt es seit 1996 nicht mehr. https://www.das-dass.de/
+3
maceric
maceric27.03.26 13:19
CJuser
Ich hätte jetzt eher vermutet, dass es sich hierbei um die Konstellation des Xiaomi 17 Ultra handelt.
Das Xiaomi 17 Ultra mit iOS wäre perfekt für mich.
Die Kamera macht die besten Fotos, die ich bisher bei Smartphones gesehen habe.
Aber Android stört schon sehr.
0
TMS
TMS27.03.26 13:38
berlin79
...Zum Thema: Ansonsten wären allgemein größere Bildsensoren natürlich besser. Die evtl. zukünftigen 200 MP werden ja meist eh dazu genutzt, um z.B. vier oder mehr Pixel zu einem zusammenzufassen.
bei 200 Pixel werden 16 Mini-Pixel zu einem gemittelt => 12,5 Pixel
+2
holk10027.03.26 14:28
Bei der ganzen Diskussionen wird vergessen, dass es hier nicht nur um die Fototechnik selbst geht, sondern dass Apple dazu in der Lage ist, seine hervorragende Software Verarbeitung auf deutlich größere Datengrundlage einzusetzen und so im Ergebnis deutlich bessere Bilder zu erzeugen.
+1
uni.solo27.03.26 17:20
TMS
Apple Mik
Du hast mehr details in deiner Aufnahme und es wird größer!
Durch die kleinen Pixel aber auch mehr Rauschen.
200mp sind mehr Marketing als alles andere.
Das genau ist definitiv nicht der Fall, darüber kann man garnicht diskutieren. Das ist Fakt. Durch Erhöhung der Anzahl der Pixel und anschließender Mittelung gibt es exakt die gleichen Details und das Rauschen wird zwar nicht geringer, aber auch nicht größer. Physik.

uni.solo
Vielleicht ein paar Stichpunkte: Oversampling: Teilt man ein Pixel in 4 auf und addiert die Signale dann kommt nicht nur die vorherige Lichtmenge des großen Pixels zustande. Das Signalrauschen sinkt um den Faktor 1/Wurzel(4) ist also nur halb so groß. Das Ergebnis ist weniger Rauschen des gesampelten Pixels und ein verbesserter Dynamik-Umfang. Die vier Pixel zeigen räumliche Nuancen in Farbe und Helligkeit, die das eine Pixel nicht darstellen kann. Davon profitiert die computational photography.
...
Überzeugt mich nicht, da eine Logik nicht stimmt. Das Rauschen hängt nur von der Fläche ab. Das große Pixel hat exakt so viel Rauschen wie vier gemittelte Viertelpixel. Das ist Physik. Wieso sich dabei der Dynamikumfang erhöhen sollte, das ist mehr als die Frage. Ich würde sagen: Unmöglich.
Und gemittelte Pixel erzeugen auch keine räumlichen Nuancen.
Vielleicht liegt der Vorteil an der sogenannte Computational Photography, wenn die irgendwie mit Algorithmen mehr aus der etwa erhöhten Auflösung machen könnte. Etwas erhöht gilt der Linse. Eine Handy-Linse kann nicht einmal 50 Pixel voll umfänglich trennen, von 200 Pixel völlig abgesehen. Das schaffen nur sehr gute Linsen für Vollformat, die preislich weit über einem kompletten iPhone liegen.
Aber immerhin: Du hast den Fokus wohl in die richtige Richtung gelenkt. Ich staune ja selbst, was Software aus Sensordaten machen kann.

Okay da war ich etwas zu plakativ.

Dein Argument stimmt, wenn Noise nur aus der Fläche kommen würde (Shot Noise) und beide Sensorgenerationen eine identische Quanteneffizienz aufweisen. Das mal vorausgesetzt enthält das Gesamtrauschen aber auch zusätzliche Beiträge wie Read Noise der angeschlossenen elektronischen Komponenten (AD-Wandler, Verstärker, Leitungen). Die Sache wird sehr kompliziert weil für HDR die Pixel mit unterschiedlicher Verstärkung ausgelesen werden anstelle mit unterschiedlichen Belichtungszeiten wie in der klassischen Fotografie (oder vielleicht einer Kombination aus beidem?). Wie dem auch sei, moderne hochauflösende Sensoren haben hier sicher Fortschritte gemacht, sodass vier kleine Pixel nach Binning praktisch ein besseres effektives SNR erreichen können als ein älteres großes Pixel gleicher Fläche. Der Vorteil ergibt sich u.U. primär durch bessere Elektronik und Signalverarbeitung.

Ich hatte auch nicht gesagt, dass gemittelte Pixel räumliche Nuancen erzielt sondern die Helligkeits- und Farbinfos dieser 4 kleineren Pixel anstelle eines großen Pixels die räumliche Differenzierung erlauben. Wenn dem nicht so wäre, würde das doch alles keinen Sinn ergeben.

Auch wenn wir hier keine Experten sind, sollten wir denen die daran entwickeln einfach mal unterstellen, dass sie wissen was sie tun
+1
tolved27.03.26 17:29
TMS
Was ist der Vorteil, wenn auf der gleichen Chipfläche mehr Pixel anschließend wieder zu weniger Pixel zurückgerechnet werden?

Anders gefragt: Was ist der Nachteil, wenn auf der gleichen Chipfläche mehr Pixel anschließend wieder zu weniger Pixel zurückgerechnet werden?
TMS
Die Menge des Lichts ändert sich ja nicht, wenn man statt der angepeilten 12,5 MPixel etwa 50 MPixel (aktuell) oder 200 Pixel nimmt und je 4 oder 16 Pixel wieder zu einem Pixel mittelt, sodass wieder 12,5 Pixel dabei herauskommen. Das Rauschen sinkt zwar durch Mittelung, aber eben nur gegenüber den kleineren Pixeln, nicht gegenüber dem großen Pixel, wenn man gleich große Pixel genommen hätte.

Phase One hat das mal auf Sensorebene gemacht, da wurde aus 4 Pixel ein Pixel, was zu einem erweiterten ISO-Bereich bei einer um dem Faktor 4 reduzierten Auflösung geführt hat.
0
uni.solo27.03.26 17:46
TMS
.
Eine Handy-Linse kann nicht einmal 50 Pixel voll umfänglich trennen, von 200 Pixel völlig abgesehen. Das schaffen nur sehr gute Linsen für Vollformat, die preislich weit über einem kompletten iPhone liegen.
Aber immerhin: Du hast den Fokus wohl in die richtige Richtung gelenkt. Ich staune ja selbst, was Software aus Sensordaten machen kann.

Du meinst sicher Megapixel… Die Auflösung hängt aber nicht von der Anzahl der Pixel ab. Die Modulations-Transfer-Funktion beschreibt wie gut ein optisches System Kontrast in Abhängigkeit von Detailgröße darstellt. Daher wird die Auflösung auch in Linienpaare pro inch (lpi) gemessen. Du kannst bei einer normalen Kamera und gegebener Sensorgröße und Anzahl Megapixeln mit dem Objektiv durch die Wahl der Blendenöffnung diese Funktion verändern und damit das Auflösungsvermögen beeinflussen. Daher gibt es auch eine optimale Blendenöffnung z.B. F4 wo ein Objektiv die höchste Auflösung erzielt. Ein Sensor mit hoher Pixelzahl liefert vielleicht einen schwächeren Kontrast aber solange der nicht 0 ist kann es durch Sampling verstärkt und mit geeigneten Algorithmen und inzwischen auch mit maschinellem Lernen Bildinformation umgewandelt werden. Es gibt kein Auflösungs-Limit ab einer bestimmten Anzahl an Megapixeln.
0
Apple Mik27.03.26 18:23
Pixel Binning hilft das Rauschen zu reduzieren.Am Ende kommt dann ein Foto raus mit 12MP.Die 200mp sollen dann helfen mehr Details zu haben und das Rauschen zu reduzieren...der erst ist Softwareaber es bleibt mehr Marketing als alles andere.
TMS
Apple Mik
Du hast mehr details in deiner Aufnahme und es wird größer!
Durch die kleinen Pixel aber auch mehr Rauschen.
200mp sind mehr Marketing als alles andere.
Das genau ist definitiv nicht der Fall, darüber kann man garnicht diskutieren. Das ist Fakt. Durch Erhöhung der Anzahl der Pixel und anschließender Mittelung gibt es exakt die gleichen Details und das Rauschen wird zwar nicht geringer, aber auch nicht größer. Physik.

uni.solo
Vielleicht ein paar Stichpunkte: Oversampling: Teilt man ein Pixel in 4 auf und addiert die Signale dann kommt nicht nur die vorherige Lichtmenge des großen Pixels zustande. Das Signalrauschen sinkt um den Faktor 1/Wurzel(4) ist also nur halb so groß. Das Ergebnis ist weniger Rauschen des gesampelten Pixels und ein verbesserter Dynamik-Umfang. Die vier Pixel zeigen räumliche Nuancen in Farbe und Helligkeit, die das eine Pixel nicht darstellen kann. Davon profitiert die computational photography.
...
Überzeugt mich nicht, da eine Logik nicht stimmt. Das Rauschen hängt nur von der Fläche ab. Das große Pixel hat exakt so viel Rauschen wie vier gemittelte Viertelpixel. Das ist Physik. Wieso sich dabei der Dynamikumfang erhöhen sollte, das ist mehr als die Frage. Ich würde sagen: Unmöglich.
Und gemittelte Pixel erzeugen auch keine räumlichen Nuancen.
Vielleicht liegt der Vorteil an der sogenannte Computational Photography, wenn die irgendwie mit Algorithmen mehr aus der etwa erhöhten Auflösung machen könnte. Etwas erhöht gilt der Linse. Eine Handy-Linse kann nicht einmal 50 Pixel voll umfänglich trennen, von 200 Pixel völlig abgesehen. Das schaffen nur sehr gute Linsen für Vollformat, die preislich weit über einem kompletten iPhone liegen.
Aber immerhin: Du hast den Fokus wohl in die richtige Richtung gelenkt. Ich staune ja selbst, was Software aus Sensordaten machen kann.
+1
TMS
TMS27.03.26 18:44
tolved
...
Wie dem auch sei, moderne hochauflösende Sensoren haben hier sicher Fortschritte gemacht, sodass vier kleine Pixel nach Binning praktisch ein besseres effektives SNR erreichen können als ein älteres großes Pixel gleicher Fläche. Der Vorteil ergibt sich u.U. primär durch bessere Elektronik und Signalverarbeitung.
...
Die Elektronik erzielt selbst auch nicht weniger Rauschen, wenn sie vier Viertelpixel gegenüber einem größeren ausliest. Das Rauschen der Elektronik bestimmt sich aus der Quellimpedanz und den Rauschfaktoren der Transistoren, die bei kleinerer Fläche pro Transistor auch steigt. Durch Mitteln reduziert sich das Rauschen von vier Transistoren/Quellimpedanzen um √n = √4 = 2. Aber ein viermal so großer Transistor mit einem Viertel der Quellimpedanz kommt exakt auch auf eine Rauschverminderung um den Faktor 2.
Also müssen es die Algorithmen sein, die irgendwelche Verbesserung bringen können.
Vielleicht weiß da ja jemand was Genaueres, was da so gerechnet wird.
0
TMS
TMS27.03.26 18:46
Apple Mik
Pixel Binning hilft das Rauschen zu reduzieren.Am Ende kommt dann ein Foto raus mit 12MP.Die 200mp sollen dann helfen mehr Details zu haben und das Rauschen zu reduzieren...der erst ist Softwareaber es bleibt mehr Marketing als alles andere.
Das Rauschen reduziert sich aber nur gegenüber den kleineren Pixeln. Das binning von mehr kleineren Pixeln bringt gegenüber dem Einzelpixel mit entsprechend größerer Fläche exakt keinen Rauschvorteil. Und wenn gewinnt wird, dann ist auch keine bessere Auflösung drin. Also bleibt Software. Bloß: Wie und was macht sie da?
0
uni.solo28.03.26 12:39
TMS
tolved
...
Wie dem auch sei, moderne hochauflösende Sensoren haben hier sicher Fortschritte gemacht, sodass vier kleine Pixel nach Binning praktisch ein besseres effektives SNR erreichen können als ein älteres großes Pixel gleicher Fläche. Der Vorteil ergibt sich u.U. primär durch bessere Elektronik und Signalverarbeitung.
...
Die Elektronik erzielt selbst auch nicht weniger Rauschen, wenn sie vier Viertelpixel gegenüber einem größeren ausliest. Das Rauschen der Elektronik bestimmt sich aus der Quellimpedanz und den Rauschfaktoren der Transistoren, die bei kleinerer Fläche pro Transistor auch steigt. Durch Mitteln reduziert sich das Rauschen von vier Transistoren/Quellimpedanzen um √n = √4 = 2. Aber ein viermal so großer Transistor mit einem Viertel der Quellimpedanz kommt exakt auch auf eine Rauschverminderung um den Faktor 2.
Also müssen es die Algorithmen sein, die irgendwelche Verbesserung bringen können.
Vielleicht weiß da ja jemand was Genaueres, was da so gerechnet wird.

Das stimmt nur im Grenzfall, wenn die vier kleineren Pixel elektrisch äquivalent zu einem großen skaliert wären. Genau diese Annahme ist in realen Sensoren aber nicht erfüllt. Die Pixelarchitektur, die Ausleseschaltung und die Signalverarbeitung werden ja nicht geometrisch skaliert, sondern mit jeder Sensor-Generation auch optimiert (geänderte Transistorlayouts, verkürzte Signalwege).

Insofern ist die Gleichsetzung „vier kleine Pixel = ein großes Pixel mit entsprechend skalierter Elektronik“ physikalisch nur ein argumentativer Grenzfall, aber kein realistisches Modell moderner Sensoren.

Wie sollte man sonst erklären, dass selbst bei konstanter Sensorgröße (FF, MFT, etc.) eine moderat steigender Pixeldichte über Generationen festzustellen ist und sich der effektive Dynamikumfang und das Rauschverhalten verbessern?
0
TMS
TMS28.03.26 14:12
uni.solo
TMS
tolved
...
Wie dem auch sei, moderne hochauflösende Sensoren haben hier sicher Fortschritte gemacht, sodass vier kleine Pixel nach Binning praktisch ein besseres effektives SNR erreichen können als ein älteres großes Pixel gleicher Fläche. Der Vorteil ergibt sich u.U. primär durch bessere Elektronik und Signalverarbeitung.
...
Die Elektronik erzielt selbst auch nicht weniger Rauschen, wenn sie vier Viertelpixel gegenüber einem größeren ausliest. Das Rauschen der Elektronik bestimmt sich aus der Quellimpedanz und den Rauschfaktoren der Transistoren, die bei kleinerer Fläche pro Transistor auch steigt. Durch Mitteln reduziert sich das Rauschen von vier Transistoren/Quellimpedanzen um √n = √4 = 2. Aber ein viermal so großer Transistor mit einem Viertel der Quellimpedanz kommt exakt auch auf eine Rauschverminderung um den Faktor 2.
Also müssen es die Algorithmen sein, die irgendwelche Verbesserung bringen können.
Vielleicht weiß da ja jemand was Genaueres, was da so gerechnet wird.

Das stimmt nur im Grenzfall, wenn die vier kleineren Pixel elektrisch äquivalent zu einem großen skaliert wären. Genau diese Annahme ist in realen Sensoren aber nicht erfüllt. Die Pixelarchitektur, die Ausleseschaltung und die Signalverarbeitung werden ja nicht geometrisch skaliert, sondern mit jeder Sensor-Generation auch optimiert (geänderte Transistorlayouts, verkürzte Signalwege).

Insofern ist die Gleichsetzung „vier kleine Pixel = ein großes Pixel mit entsprechend skalierter Elektronik“ physikalisch nur ein argumentativer Grenzfall, aber kein realistisches Modell moderner Sensoren.

Wie sollte man sonst erklären, dass selbst bei konstanter Sensorgröße (FF, MFT, etc.) eine moderat steigender Pixeldichte über Generationen festzustellen ist und sich der effektive Dynamikumfang und das Rauschverhalten verbessern?
Du machst einen Denkfehler. Bei der Argumentation über Generationen rechnest Du Verbesserungen nur den Sensoren mit vielen Pixeln zu. Das aber ist ein Vergleich von Äpfeln und Birnen oder aber das nicht Konstanthalten aller Faktoren bis auf den untersuchten. Es ist definitiv kein Grenzfall. Ins Rauschen gehen Pixelgröße ein und Transistorfläche mit Quellimpedanz. Demnach hat ein Viertel-Pixel mit eigenem Transistor exakt den doppelten Rauschpegel wir vier gemittelte Werte daraus = dem Wert eines ganzen Pixels mit entsprechend größerem Transistor.
Und doch: Die Pixel werden lokal zusammengefasst. Anderes ist nicht möglich, weil sich sonst die Auflösung stärker reduzieren würde.
Also bleiben nur Algorithmen.
Ein Vorteil der vielen Pixel könnte das virtuelle Zoomen ohne Auflösungsverlust aber auf Kosten des Rauschens bzw. der Dynamik sein.
0
Topper Harley
Topper Harley28.03.26 23:43
Voll daneben. Ich möchte mal alle wieder wachrütteln, alles was Apple krampfhaft versucht hat mit "Computational Photography" zu pushen ist fotografisch erheblich schlechter geworden. Unsägliche Überschärfung (nicht abstellbar), vollkommen realitätsferne Helligkeitsabstufungen "alles im Bild ist hell" und Pixelglättung das Haut wie aus Plastik aussieht. Mit 200Mp und Co. ist es der völlig falsche Weg.
Das schlimme, die meisten haben sich inzwischen an diesen Pixelmüll gewöhnt und wissen gar nicht mehr wie eine authentische schöne organische Aufnahme aussieht (von analogen Film ganz zu schweigen). Ich glaube das ging bis iPhone 8 Generation, ohne Pfuscherei im Bild,

hier ein Beispiel von einem iPhone 4 (mit einem neuen 48Mp Sensor Bild wäre es sicher 4x schärfer, aber sieht halt künstlich dagegen aus)



anklicken vergrößern und stauen, so schön sahen mal iPhone Bilder aus, achtet auf die Kanten und Übergänge und die Ästhetik
0
CJuser29.03.26 08:58
Topper Harley
Das hat aber ja leider eher mit der Software bei Apple zutun und nicht dem Sensor. Deswegen sind inzwischen bestimmt nicht wenige auf eine andere App zur Erstellung von Fotos ausgewichen. Dazu passt dann auch dieser Artikel:
+1
mazun
mazun29.03.26 09:28
@Topper Harley
Mir geht es ein wenig auch so, wenn ich die Fotos meiner älteren 6s oder XR iPhones mit denen des 15Pro Max vergleiche. Ich bin kein Profi aber rein von der Bildanmutung wirken die älteren Fotos oft besser. Vor allem finde ich weniger aber dafür authentische Bilddetails besser als viele künstlich hineingerechnete. Da darf man sich schon fragen, was genau einem das Foto eigentlich zeigt und was das letztendlich überhaupt noch mit der Wahrheit und Realität zu tun hat.

Ich schaue gerade all meine Digitalfotos der letzten 25 Jahre durch und habe daher gerade einen ziemlich frischen Eindruck. Zwischen all den iPhone-Fotos sind alle paar Monate/Jahre auch welche die ich bei besonderen Anlässen mit meiner Nikon D700 aufgenommen habe und nichts aber auch garnichts was egal welches iPhone produziert hat, kommt auch nur ansatzweise an die Bildqualität dieser nun doch sehr in die Jahre gekommenen Vollformat DSLR heran. Und dabei sind die meisten der Fotos sogar nur mit einem relativ günstigen 50mm Einsteigerobjektiv gemacht worden. Allein die Farben sind zum niederknien.
Bei Fotos über einen so langen Zeitraum sind nun auch mal Bilder von Menschen dabei, die mittlerweile leider nicht mehr leben und da sorgen die mit der Nikon aufgenommenen Portraits ab und zu schon für reichlich Gänsehaut, während die vom iPhone einen doch eher etwas kalt lassen.
+1
TMS
TMS29.03.26 14:35
Topper Harley
... anklicken vergrößern und stauen, so schön sahen mal iPhone Bilder aus, achtet auf die Kanten und Übergänge und die Ästhetik
Verschweigen kann man aber nicht, dass die Kontraste zu hoch sind, die Dynamik nicht so super ist und das Rauschen mit bloßem Auge heraussticht. So superduper sind die alten Aufnahmen nur dann, wenn man sie mit reichlich Nostalgie verklärt...
-1
Topper Harley
Topper Harley29.03.26 22:14
CJuser
Topper Harley
Das hat aber ja leider eher mit der Software bei Apple zutun und nicht dem Sensor. Deswegen sind inzwischen bestimmt nicht wenige auf eine andere App zur Erstellung von Fotos ausgewichen. Dazu passt dann auch dieser Artikel:

Da hast du vollkommen Recht. Alle diese Entscheidungen sind Software seitig. Man könnte aber meinen, dass mit dem 200Mp Sensor der Software-Eingriff ein noch größeres Gewicht bekommen wird.

Aus dem Halide Artikel geht zumindest nicht hervor, auf was genau Apple da scharf ist. Ich gehe fest davon aus, dass Apple sehr wohl über alle Bild-Processing Parameter mächtig ist, und bewusst so einbettet wie wir es sehen. Jeder Hersteller hat da natürlich seinen Ansatz. Persönlich erkenne aktuelle iPhone Bilder bei Freunden und überall auf Kilometer im voraus, kann es nicht mehr sehen. Nichtssagend, kalt, langweilig selbst wenn die Malediven drauf abgebildet sind. Der ganze Fake scheiß nervt halt, kaputt modellierten Sonnen, keine echte Schatten mehr und und.. (Ich selbst nutz für alles wichtige richtige Kameras) zum Zettel oder Dokumente oder eBay Sachen abfotografieren sind aktuelle iPhone Kameras aber noch gut
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.