Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Fotografie
>
Neues zur EOS 5D Mark II
Neues zur EOS 5D Mark II
sonorman
11.03.08
17:59
Es gibt Neues zum lange erwarteten 5D-Nachfolger. Angeblich soll die 5D Mark II, deren Name so aber nicht fest steht, am 22. April vorgestellt und ab Anfang Juni erhältlich sein.
Die Daten:
• 15,3 MP full frame CMOS Sensor (deutlich gesteugerte Lichtempfindlichkeit durch verbesserte Mikrolinsen, verkürzte Signalwege und verbesserten Sigbal/Rauschabstand)
• Spritzwasserschutz wie bei den 1er-Modellen
• Dual Digic III mit brandneuem "CXR" Rauschfilter, angeblich besser als spezielle Rauschreduzierungssoftware von Drittanbietern. Als Custom Function mit 4 Optionen wählbar.
• 14-Bit A/D-Wandlung
• ISO 12800 (per C.F. auf 25600 erweiterbar)
• Angeblich um 1 2/3 Blendenstufen verbesserte Empfindlichkeit
• Brandneuer 29-Punkt TTL CMOS AF-Sensor
mit 12 Kreuzsensoren für F/2,8 oder schneller
(35% schneller als 40D)
• AF-Feinjustierung für bis zu 14 Objektive
• Verschluss für 300.000 Auslösungen spezifiziert
• 6.0 / 3.0 Bilder/s Serienbildgeschwindigkeit, Buffer für 68 Bilder.
• 3.0" LCD, 922.000 Bildpunkte
• EOS Integrated Cleaning System
• Live View (neueste Generation mit Kontrast-AF, wie 450D)
• Preis rund 3500 Dollar
Hilfreich?
0
Kommentare
|<
1
2
3
xenophanes
15.09.08
14:28
Das klingt alles ein bisschen so, wie man es aus guten alten Analogzeiten kannte: Die höchstmögliche Auflösung des Films wurde zum Beispiel nur erreicht bei vollständiger Vermeidung von selbst feinsten Erschütterungen.
Und ich habe noch gar nichts getrunken…
Hilfreich?
0
Sitox
15.09.08
14:31
Mag sein, dass wir etwas aneinander vorbei schreiben. Natürlich ist das Entwicklungspotential der Sensor-Technik längst nicht ausgeschöpft. Ein Traum, wenn man sich beispielsweise einen Sensor in 12 MP (x 3) in Foveon Technik vorstellt - ohne RGB Interpolations-Wischiwaschi. Aber das ändert weder etwas am Nyquist-Theorem noch am Auflösungsvermögen der Linse.
Auch auf die Gefahr dir jetzt *richtig* auf den Sack zu gehen:
Die Gegenüberstellung APS-C zu FF bei Blende 2 unten zeigt ein sichtbares! Schärfedefizit im Center bei APS-C, wohingegen das Ergebnis auf FF knackscharf ist (im Rahmen der Möglichkeiten Sensors, muss ich jetzt ja schon dazu schreiben). Die Frage ist doch nun, ist dieses Schärfedefizit ein Verschulden der Optik oder der Sensorgröße. Jetzt kann ein Herr Bob Aktins mit noch soviel Theorie um sich schmeißen -
kein zukünftiger höchst entwickelter APS-C Sensor der Welt wird bei f/2 mit genau diesem Objektiv je sein gesamtes Schärfepotential zeigen
. Ich will weder pauschalisieren noch irgendjemandem etwas unterstellen - außer in der Tat den Marketingabteilungen bzw. dem Druck des Marktes.
Hilfreich?
0
sonorman
15.09.08
15:20
Sitox
kein zukünftiger höchst entwickelter APS-C Sensor der Welt wird bei f/2 mit genau diesem Objektiv je sein gesamtes Schärfepotential zeigen
Aber ein neuerer APS-C-Sensor mit höherer Pixeldichte kann durchaus ein schärferes Bild am selben Objektiv mit f/2 zeigen, weil voraussichtlich andere Entwicklungen dafür sorgen werden, wie beispielsweise der Wegfall des Anti-Aliasing-Filters. Natürlich gibt es da Grenzen, aber die sind noch längst nicht Erreicht mit den aktuellen Objektiven.
Aber mal was anderes: Welche Konsequenzen ziehst Du persönlich denn aus Deinen eigenen Erkenntnissen? Heißt das, Du würdest eine neue Kamera mit sagen wir 31 MP Vollformat keinesfalls kaufen, weil Du davon ausgehst, dass Deine Objektive dafür nicht geeignet sind?
Hilfreich?
0
Sitox
15.09.08
18:17
Aber ein neuerer APS-C-Sensor mit höherer Pixeldichte kann durchaus ein schärferes Bild am selben Objektiv mit f/2 zeigen
Ja, natürlich ein schärferes - schrieb ich doch. Aber trotzdem unterhalb des Sensor Auflösungspotentials. Ein schärferes Bild, das aufgrund allerlei Optimierungen am Sensor erreicht wird, aber eben
nicht
aufgrund höherer Pixeldichte. Wo soll die Schärfe resultierend aus höherer Pixeldichte aus obigem Beispiel denn bitte schön herkommen?
Natürlich gibt es da Grenzen, aber die sind noch längst nicht Erreicht mit den aktuellen Objektiven.
Genau diese optischen Grenzen sehe ich in vielen Bereichen für APS-C erreicht. Verbesserungen also vornehmlich durch bessere Sensortechnik aber nicht durch höhere Pixeldichte.
Welche Konsequenzen ziehst Du persönlich denn aus Deinen eigenen Erkenntnissen? Heißt das, Du würdest eine neue Kamera mit sagen wir 31 MP Vollformat keinesfalls kaufen, weil Du davon ausgehst, dass Deine Objektive dafür nicht geeignet sind?
Die Konsequenz für mich: Nächster Body ist Vollformat und ich werde nicht mehr in EF-S Objektive investieren. Für APS-H und Vollformat ist ja noch Potential nach oben mit heutiger Optik. Bei 31 MP fängt allerdings die "Prime-Time" an, Zooms werden bei der Auflösung an ihre Grenzen überschritten haben.
Hilfreich?
0
sonorman
15.09.08
19:08
Sitox
… Ein schärferes Bild, das aufgrund allerlei Optimierungen am Sensor erreicht wird, aber eben
nicht
aufgrund höherer Pixeldichte. Wo soll die Schärfe resultierend aus höherer Pixeldichte aus obigem Beispiel denn bitte schön herkommen?
Nein! Nicht aufgrund einer "Optimierung am Sensor", sondern in meinem Beispiel, aufgrund des Wegfalls des Anti-Aliasing-Filters, was die real erzielbare Auflösung näher an die theoretische Auflösung des Sensors bringt, ohne irgendwelche
nachträglichen
Optimierungen durch Soft- oder Hardware.
Ich denke, wir beide sind uns einig, das Systeme mit größeren Sensoren/geringerer Pixeldichte immer im Vorteil sind. Darum ja auch Deine lobenswerte aber späte Erkenntnis (
), lieber nicht mehr in EF-S-Glas zu investieren und auf Vollformat zu setzen. Ich stimme Dir natürlich auch zu, dass Objektive mit steigender Sensorauflösung mehr und mehr zu einem limitierenden Faktor werden, aber ich widerspreche der Aussage, dass Objektive schon heute grundsätzlich die Limits setzen (das implizierte Deine ursprüngliche Aussage nämlich).
Hilfreich?
0
Sitox
16.09.08
13:48
sonorman
Nein! Nicht aufgrund einer "Optimierung am Sensor", sondern in meinem Beispiel, aufgrund des Wegfalls des Anti-Aliasing-Filters, was die real erzielbare Auflösung näher an die theoretische Auflösung des Sensors bringt, ohne irgendwelche
nachträglichen
Optimierungen durch Soft- oder Hardware.
Also für mich ist der AA-Filter Teil des Sensors. Wie auch immer, du sagst es selbst: Die theoretische Grenze bleibt die oberste Auflösungs-Grenze.
Ich stimme Dir natürlich auch zu, dass Objektive mit steigender Sensorauflösung mehr und mehr zu einem limitierenden Faktor werden, aber ich widerspreche der Aussage, dass Objektive schon heute grundsätzlich die Limits setzen (das implizierte Deine ursprüngliche Aussage nämlich).
Nein, meine ursprüngliche Aussage (nicht in diesem Thread) bezog sich auf das Auflösungsvermögen der 50D und war nie grundsätzlicher Art. Die Beispielbilder von Canon und dort insbesondere die Landschaftsaufnahme hatten mich stutzig gemacht und waren der Grund weshalb ich mich überhaupt mit dem Thema beschäftigte. Ich wehre mich eigentlich nur gegen deine Aussage, dass die heutigen Objektive
absolut
noch nicht ausgereizt wären, sondern noch Reserven hätten.
Wenn sich ein Besitzer eines Canon EF 70-300 IS zu der Aussage hinreißen lässt das Objektiv werde ein wenig unscharf ab 200mm, und sich der Umstand auch noch messtechnisch belegen lässt, ist das jawohl kein Sensor-Mangel?! Diese Aufnahmen werden
immer
unscharf werden, egal wohin sich die Sensortechnik entwickelt. Aufnahmen in dem Bereich, beispielsweise mit mit einer 10 Megapixel 40D geschossen, könnte man getrost auch in Photoshop bipolar hochskalieren - sie wäre von der einer 50D nur durch das feinere Rauschen im 50D Bild zu unterscheiden.
Bei meinem EF 50mm 1:1.4 Beispiel von oben gilt das schon jetzt für den Blende 2 Bereich des Objektivs. Ich gehe davon aus, dass die praktische Auflösungsgrenze der 50D etwa dort liegen wird wo heute die theoretische der 450D liegt. Das heißt scharfe Aufnahmen wären überhaupt nur bei f/5.6 zu erzielen und dann auch nur mit einem ungleichmäßigen Schärfeverlauf- und das bei einem Prime!
Wenn man bei f/2 bei 22 Vollformat-Megapixeln im Center eine knackscharfe Abbildungsleistung erzielen kann, auf einer 15 MP 50D hingegen sichtbare Unschärfe zu Tage tritt, schränkt das für mich den Einsatzbereich des Objektivs schon ein.
Das 70-200 1:2.8 L beispielsweise wird dem Auflösungsvermögen der 50D überhaupt nur im Bereich von 70-100mm gerecht werden und das auch nur im Center in einem recht engen Blendenbereich.
Ich frage mich warum Herr Bob Aktins neben CA, Kontrast, Verzerrung usw. auch noch die Schärfe eines Objektivs beurteilt, wenn er der Meinung ist, dass die meisten Linsen heute besser auflösen als die Sensoren. Was für ein kompletter Quatsch.
Mein Fazit: Wenn man "Pixel Peeper" ist und auf optimale Schärfe wert legt, ist der Einsatzbereich aktueller Objektive auf APS-C schon heute verdammt eingeschränkt.
Natürlich hat die 50D gegenüber älteren APS-C Kameras bei identischem Endausgabeformat den Vorteil etwas mehr "Luft" bei der nachträglichen Rauschreduzierung zu haben.
Das schöne an der Entwicklung ist, dass wenn das Vollformat seine "sinnvolle" Auflösungsgrenze bei (geschätzten) 30 MP erreicht hat, sich die Kamera-Hersteller nur noch in Dynamik, Rauschen und Konsorten voneinander abgrenzen können. Dann gibt es in einigen Jahren vielleicht einen Body mit einem Sensor in Foveon-Qualität und erweitertem Dynamikumfang, den man dann gern jahrelang, wie zu Kleinbild-Zeiten, benutzen kann ohne ständig der neuesten Technik hinterher hecheln zu müssen. Amen.
Hilfreich?
0
sonorman
16.09.08
14:09
Sitox
Also für mich ist der AA-Filter Teil des Sensors.
Nein, ist er eben nicht. Er ist Teil eines optischen Filtersystems, welches vor dem Sensor sitzt.
Darum schrieb ich ja schon mehrfach, dass Canon bereits angekündigt hat, diesen Filter in einer der kommenden Generationen abzuschaffen.
Ich lasse das jetzt mal auf sich beruhen. Momentan sehe ich leider nicht, dass wir auf diesem Wege einen Punkt des gegenseitigen Verständnisses erreichen.
Hilfreich?
0
Sitox
16.09.08
14:24
sonorman
Nein, ist er eben nicht. Er ist Teil eines optischen Filtersystems
Na ja ok, das wäre dann ja eine bloße Definitionsfrage, was gehört zum Sensor was nicht - gehören die Mikrolinsen dazu, oder nur die reine Silicium-Platte. Abgesehen davon gibt es glaube ich noch einen zweiten Low-Pass Filter der direkt mit dem Chip verbunden ist.
Hilfreich?
0
sonorman
16.09.08
14:41
Das ist absolut keine Definitionsfrage. Es ist ein vollkommen separates Bauteil, so wie das Objektiv. Oder würdest Du das Objektiv nach Deiner Definition auch als Teil des Sensors bezeichnen?
Ich hatte gerade an anderer Stelle zu diesem Thema einen schönen Link gepostet, der heute leider tot ist. Mit verknüpft war ein Bild, welches das "Filter-Sandwich" im Querschnitt vor dem Sensor zeigte. Es gibt auf dem Sensor keinen AA-Filter. Das ist ein rein optisches Teil, welches aus Schichten zur Filterung von IR- und UV-Licht besteht, sowie aus dem AA-Filter, welcher den dicksten Teil und den größte "Störfaktor" darstellt.
Hier sieht man den Aufbau:
Hilfreich?
0
sonorman
16.09.08
14:43
Und hier eine "Explosionsdarstellung" des Sensor-Moduls:
Hilfreich?
0
sonorman
16.09.08
14:47
Ah, jetzt geht der Link plötzlich wieder! @@
Hilfreich?
0
Esäk
16.09.08
15:08
Ja, sonormann, ich glaube auch, dass Du das nicht richtig verstehst.
Ich verstehe Dich nämlich schon. Der Satz
Ich denke, Du hast meinen Kommentar falsch verstanden.
Was ich mit der Verbesserung der A/D-Wandler meine, ist deren integration auf dem Chip. So ist es beispielsweise bei vielen CMOS-Sensoren so, dass für jede Pixelspalte ein A/D-Wandler vorhanden ist. Denkbar wäre in zukünftigen Chipdesigns aber auch ein A/D-Wandler pro Pixel,
ist einfach albern. Überleg mal scharf: Was glaubst Du, wieviele Transistoren pro A/D-Wandler so nötig sind? Drei? Dreißig? Dreihundert? Dreißigtausend? Eher in letzterem Bereich nämlich. Auch nur die Idee nicht sofort als - ähem - nicht ganz so passend zu erkennen, das benötigt schon keinen Kommentar mehr.
Nochmal: Problem sind nicht die A/D-Wandler sondern die Sensoren. Du liegst falsch. Einfach falsch. Ist es so schwer, einen Fehler einzugestehen?
Ich mach auch dauernd welche und wenn ich mir da immer etwas bei abbrechen würde, existierte ich nur noch als Negativ
„Die Todesstrafe gehört auch in Hessen abgeschafft!“
Hilfreich?
0
sonorman
16.09.08
15:30
Esäk
Das ist absolut nicht albern. Lies mal, was hier bei DPR unter dem Bild zum Sensor der Sony A900 steht. @@
Ich zitiere mal, damit Du nicht suchen musst:
Once again the sensor uses on-chip column A/D processing (
there are over 6000 parallel analog/digital converters on the sensor
) …
Ich habe übrigens gerade in einem anderen Thread einen Fehler eingestanden, mit dem UV-Filter etwas verwechselt zu haben, wie Du Dich vielleicht erinnerst. Und das war sicher nicht das erste mal, dass ich mich für einen Fehler entschuldigt habe. Bin ja schon etwas länger hier, als Du.
Du hingegen hast schon in anderen Threads fehlerhafte Behauptungen und Schlaumeiereien von Dir gegeben, derer ich Dich überführt habe, aber anstatt Deine Fehler einzugestehen, hast Du Dich klammheimlich aus den entsprechenden Threads verzogen. Hier so ein Beispiel @@
Jetzt frage ich
Dich
: Ist es so schwer, mal einen Fehler einzugestehen?
Hilfreich?
0
Sitox
16.09.08
17:26
sonorman
Das ist absolut keine Definitionsfrage. Es ist ein vollkommen separates Bauteil, so wie das Objektiv. Oder würdest Du das Objektiv nach Deiner Definition auch als Teil des Sensors bezeichnen?
Man oh man ...hätte ich das Ganze also Sensor-Modul genannt wäre alles in Ordnung gewesen? Der Vergleich eines Objektiv mit einem Filtersystem, das eine Funktionseinheit mit dem Sensor innerhalb eines Moduls darstellt, ist hier auch ganz besonders passend.
Zumal das alles nichts mit der von uns diskutierten Problematik zu hat.
Hier nochmal eine Explosionsdarstellung des Sensor-Moduls der 50D. Offenbar hat Canon selbst keine besonders konsistente Darstellungsform für die Moduleinheiten gefunden:
Hilfreich?
0
sonorman
16.09.08
17:43
Sitox
Entschuldige, aber wenn Du nicht den Unterschied erkennst zwischen "Teil des Sensors" und "kein Teil des Sensors", dann kann ich nur schwer argumentieren, wenn Du gewisse Fakten nicht auseinanderhalten kannst oder willst. So kommen wir nie zu einem irgendwie gearteten Konsens.
Teile des Sensors (oder des Chips) sind beispielsweise die Photo-Sites, die Mikrolinsen und auch die A/D-Wandler. Sie alle sind direkt mit dem Chip verbunden. Die Filtereinheit sitzt davor, so wie auch das Objektiv davor sitzt und ist damit kein Teil des Sensors. Ergo ist Deine Aussage
"Also für mich ist der AA-Filter Teil des Sensors."
schlicht falsch. Und in der Konsequenz handelt es sich in meinem inzwischen weit oben genannten Argument zum Weglassen des AA-Filters nicht um eine "Optminierung am Sensor".
Wie soll man denn so vernünftig diskutieren? Ich beende das hiermit. Mit dem ursprünglichen Thread hat das sowieso schon lange nichts mehr zu tun. Für weitere Neuigkeiten zur 5D Mark II kann ein neuer Thread aufgemacht werden.
Eins noch:
Hier nochmal eine Explosionsdarstellung des Sensor-Moduls der 50D. Offenbar hat Canon selbst keine besonders konsistente Darstellungsform für die Moduleinheiten gefunden:
Dass die Darstellungsform nicht konsistent ist, liegt daran, dass die Filter in unterschiedlichen Modellen auch unterschiedlich ausgelegt sind. Meine Abbildung oben stammt aus der 1D Mark III.
Hilfreich?
0
|<
1
2
3
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
US-Regierung: Navarro greift Apple und Cook an
macOS: Wann endet der Intel-Support?
macOS 15.4: Apple ersetzt ohne Warnung “rsync” ...
Kurz: Bilder zeigen Dummy des iPhone 17 Pro +++...
Vor 15 Jahren: Apple kauft Siri
iPhone 17 Air: Angeblich zahlreiche weitere Det...
iPhone XS "vintage", iPad 5 "obsolet", Mac mini...
Vor dem Mac: Apple Lisa im Browser erleben