Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Fotografie
>
Neues zur EOS 5D Mark II
Neues zur EOS 5D Mark II
sonorman
11.03.08
17:59
Es gibt Neues zum lange erwarteten 5D-Nachfolger. Angeblich soll die 5D Mark II, deren Name so aber nicht fest steht, am 22. April vorgestellt und ab Anfang Juni erhältlich sein.
Die Daten:
• 15,3 MP full frame CMOS Sensor (deutlich gesteugerte Lichtempfindlichkeit durch verbesserte Mikrolinsen, verkürzte Signalwege und verbesserten Sigbal/Rauschabstand)
• Spritzwasserschutz wie bei den 1er-Modellen
• Dual Digic III mit brandneuem "CXR" Rauschfilter, angeblich besser als spezielle Rauschreduzierungssoftware von Drittanbietern. Als Custom Function mit 4 Optionen wählbar.
• 14-Bit A/D-Wandlung
• ISO 12800 (per C.F. auf 25600 erweiterbar)
• Angeblich um 1 2/3 Blendenstufen verbesserte Empfindlichkeit
• Brandneuer 29-Punkt TTL CMOS AF-Sensor
mit 12 Kreuzsensoren für F/2,8 oder schneller
(35% schneller als 40D)
• AF-Feinjustierung für bis zu 14 Objektive
• Verschluss für 300.000 Auslösungen spezifiziert
• 6.0 / 3.0 Bilder/s Serienbildgeschwindigkeit, Buffer für 68 Bilder.
• 3.0" LCD, 922.000 Bildpunkte
• EOS Integrated Cleaning System
• Live View (neueste Generation mit Kontrast-AF, wie 450D)
• Preis rund 3500 Dollar
Hilfreich?
0
Kommentare
|<
1
2
3
>|
sonorman
24.04.08
18:33
Keine Sorge, die 5D-II kommt schon noch. Auch ohne direkte Konkurrenz.
Bin gerade in München auf der High End. Viel soll interessant hier. Vor allem in Sachen Musik via iPod und Netzwerk-Streaming.
Hilfreich?
0
xenophanes
24.04.08
20:24
sonorman
Auf jeden Fall! Schliesslich frage ich auch immer nach, wann es endlich so weit ist!
Hilfreich?
0
svarta
26.05.08
14:21
Es gibt wieder neue Gerüchte: Im November soll sie erhätlich sein und den Namen 5d mk2 tragen... wenn man dem "Missgeschick" glaubt...
Hilfreich?
0
svarta
26.05.08
14:23
edit: vertausche t+l
Hilfreich?
0
xenophanes
26.05.08
16:33
Ich denke mal, sie wird an der Photkina lanciert – in den Handel kommt sie dann mit ein paar Wochen Verzögerung. Dann haut auch die Publikation des Buches hin.
Hilfreich?
0
Blaubierhund
06.08.08
12:45
„Die Berliner sind unfreundlich und rücksichtslos, ruppig und rechthaberisch, Berlin ist abstoßend, laut, dreckig und grau, Baustellen und verstopfte Straßen, wo man geht und steht - aber mir tun alle Menschen leid, die nicht hier leben können! (Anneliese Bödecker)“
Hilfreich?
0
sonorman
06.08.08
12:55
Worst fake ever.
Hilfreich?
0
sonorman
06.08.08
12:58
Am 26. August soll es laut einer schwedischen Webseite, sie schon einige male zuvor zutreffende Informationen im Vorfeld hatte, wichtige Neuvorstellungen von Canon geben.
Das scheint sehr realistisch zu sein, denn zwei Tage darauf beginnt (zumindest für Händler und geladene Gäste) die IFA.
Hilfreich?
0
Blofeld
17.08.08
17:51
Hier gibt's neue Infos...hört sich vernünftig an, außer, daß die (vermutliche) 50D wohl kaum einen 100%-Sucher haben wird und die 5D II nur einen mit 96%...-naja, mal sehen.
click
Hilfreich?
0
sonorman
02.09.08
17:20
So langsam sickern wieder (mögliche) Details zur 5D Mark II durch.
Zuerst hieß es, dass die neue 5D an ausgesuchte Journalisten zum Testen ausgegeben wurde. Mehrere anonyme Journalisten berichteten kurz darauf im Netz, die Neue habe einen 21-MP-Sensor.
Außerdem verdichten sich die Gerüchte um einen Nachfolger des EF 24-70mm f/2,8 L, welches eine verbesserte Abbildungsleistung und einen IS für bis zu vier Blendenstufen bekommen haben soll.
Hilfreich?
0
struffsky
02.09.08
17:30
Bei 21 MP müsste es aber eine 1DS IV geben, oder?
Hilfreich?
0
sonorman
02.09.08
17:40
Nein, jedenfalls nicht sofort.
Es gab ja auch nicht sofort eine neue 1D Mark III, nur weil die 20D/30D die selbe Auflösung hatten, wie die 1D-II.
Hilfreich?
0
Blofeld
03.09.08
10:34
....das wird ja ein Fest, wie's aussieht...
Hilfreich?
0
ts-e
03.09.08
17:06
24-70 L mit IS wird bestimmt ein Traumobjektiv.
„Wenn deine Bilder nicht gut genug sind, warst du nicht nah genug dran. Robert Capa“
Hilfreich?
0
mbimac
05.09.08
01:55
Es wird eine 7D!
Hilfreich?
0
Blofeld
05.09.08
10:00
hier ein Teaser von Canon...
kommt, Leute...macht's doch nciht so spannend....:)
Hilfreich?
0
xenophanes
13.09.08
18:29
EOS-Numerique will die Specs der 5D Mk II oder wie auch immer kennen:
-
24MP
FF-CMOS
- 25'000 ISO
– Neue Akkus mit integriertem Kapazitätssensor (vgl. «Nouvelle batterie avec reconnaissance de l'autonomie»)
- Battery Grip BG-E6
- DIGIC IV
– Gehäuse aus Magnesiumlegierung
- Live View
– Videoaufnahme
- Sensorreinigung
- Kompatibel mit EF-Objektiven und Speedlite EX-Blitzgeräten (Logo, aber das steht so dort
)
Offizieller Vorstellungstermin ist am Montag, dem 17. September 2009
Hilfreich?
0
Eldorado546
13.09.08
21:01
Sehr interessant...
Hilfreich?
0
sonorman
13.09.08
21:58
Das Problem mit all den Gerüchten dieser Art ist, dass jeder der die aktuelle Situation etwas kennt, sich solche Daten zusammenreimen kann. Alle genannten Daten sind möglich, wobei manche mehr, manche weniger wahrscheinlich sind.
Hilfreich?
0
sonorman
13.09.08
22:02
Es ist wie eine norddeutsche Wettervorhersage:
"Wenn der Hahn kräht auf dem Mist, ändert sich das Wetter, oder es bleibt wie es ist."
Hilfreich?
0
xenophanes
13.09.08
23:22
Das ist schon so. Aber bei Canon weiss man mindestens genau so lange wie wir, dass Sony an einem 24MP-Sensor entwickelt hat, der nun in der A900 Verwendung findet. Für Canon wäre es das geringste Problem, einen Sensor mit dieser Auflösung auf den Markt zu bringen, zumal die Pixeldichte ja immer noch geringer wäre, als bei der neuen 50D.
Canon kann also mehr – so werden wir auch bald die 1Ds Mk IV mit einem 32MP-Sensor bewundern dürfen. Ich persönlich halte nicht sehr viel von diesem Pixelwettrüsten, und ich bin etwas skeptisch, ob das hohe Qualitätsniveau, das Canons Sensoren bislang ausgezeichnet hat, durch so eine Race auch gehalten bzw. gesteigert werden kann. Aber offensichtlich geht das.
Mal sehen, wenn es so stimmt, sind ja nur noch zwei Nächte zu schlafen – ansonsten beherzige ich mal die norddeutsche Wettervorhersage.
Aber für den Fall, dass es doch so kommt, ist bei Sony die Party schon gelaufen bevor sie angefangen hat!
Hilfreich?
0
WALL*E
13.09.08
23:35
Ich verstehe nicht warum wir uns jetzt schon auf die 50MP zubewegen. Ich bin kein Fotograf aber Wer braucht das? Es ist klar das es ein Unterschied ist ob jetzt bei einer Casio-Kompakten plötzlich die 10MP Grenze fällt oder ob die 20ger Grenze bei einer Sony A900 fällt. Aber den Sinn verstehe ich trotzdem nicht. Das Bild der Casio ist groß und Müll und das Bild der Sony ist RIESIG und gut aber es gibt doch einfach keine Verwendung für ein Solche Bild oder? Ich meine damit kann ich mit einem 300mm Tele aus dem All eine Zeitung lesen aber braucht soetwas ein Fotograf? Mit solchen Bildern kann man sich ja ganze Tapeten drucken lassen. Ich denke 10 bis 12 MP sind völlig ausreichend wir die Digitale Welt sicherlich und auch wenn man etwas auf eine Leinwand ziehen möchte. Klar es ist sehr angenehm wenn ich mir den Bildausschnitt in der Nachbearbeitung frei auswählen kann ohne das ich beim z.B. Drucken ein kleineres Format nehmen muss.
Ich bitte um Aufklärung damit ich in 10 Jahren wenn wir bei 100MP angelangt sind nicht völlig Verzweifle.
Hilfreich?
0
Eldorado546
14.09.08
00:01
Ich denke irgendwie liegt das im Wesen des Menschen, dass immer ein mehr, besser, schneller, einfacher, günstiger usw. erstrebenswert ist. Wie in allen Technologien muss es stetig weitergehen und man gibt sich nie zufrieden mit dem, was man schon hat oder erreichen kann. An Beispielen mangelt es kaum, denken wir an den Computer, Videoauflösungen, Speichermedien, Antriebe, Produktionsarten, Landwirtschaft, Spezifikationen jeglicher Art von Technik etc.
Ich geb aber zu, dass ich das auch nicht überall brauche. Ich erinnere mich da aber an eine Kamera hier im Haus, die schon einige Jahre auf dem Buckel hat und mit sagenhaften 1.3 Megapixel ausgerüstet ist. Heute hat jede Handykamera mehr und so geht es halt immer weiter. Wobei ich denke irgendwann ist da schon eine Grenze für den Normalverbraucher erreicht, da es schlicht keinen Nutzen mehr für diese Unmengen an Pixel geben wird. Für die einen ist der früher, für andere später erreicht.
Aber lassen wir uns überraschen, ich bin mit meinen 10MP der EOS 40D völlig zufrieden.
Hilfreich?
0
sonorman
14.09.08
00:24
Nicht brauchen heißt nicht, dass man es nicht zu entwickeln braucht. Sonst gäbe es heute eine Menge Dinge nicht so, wie wir sie kennen.
Grundsätzlich ist es für die Sensortechnik gut, dass die Auflösung weiter steigt. Natürlich Wissen wir inzwischen (hoffentlich) alle, dass damit auch Nachteile einhergehen, aber dafür wird es im nächsten Schritt Pixel-Binning geben. Dann kann der Fotograf selbst entscheiden, ob er gerade eine hohe Auflösung braucht, oder weniger Megapixel, aber dafür eine höhere Empfindlichkeit.
Außerdem werden weitere Entwicklungen gewährleisten, dass die Qualität unter der steigenden Auflösung nicht leidet. So hat Canon schon angekündigt, dass man bald auf den UV-Filter vor dem Sensor wird verzichten können, was für eine höhere Schärfe sorgt.
Hilfreich?
0
WALL*E
14.09.08
01:20
Ja stimmt natürlich. Ohne Pixel-Binning wären so hohe Auflösungen aber schon fast ein Nachteil. Zumindest manchmal. Ich meine von wegen Speicherplatzbedarf und spätere Bearbeitung. Bei meiner G9 z.B. Fotografiere ich wenn es irgendwie geht nur mit ISO 80 oder 100. Ab 200 (zur Not auf 400 aber sehr selten) wird es nämlich schon ziemlich unschön. Leider verfügt die G9 noch nicht über einen Pixel-Binning-Funktion
Braucht man jetzt überhaupt einen UV-Filter? Vor "meiner" 10D habe ich einen aber ist es wirklich nötig?
Hilfreich?
0
sonorman
14.09.08
10:59
WALL*E
Zumindest bei Canon weiß ich, dass sie niemals einen neuen Sensor auf den Markt bringen würden, der bei Basis-ISO schlechtere Performance liefert, als sein Vorgänger. Es gibt bei Canon auch eine Vorgabe, dass neue Sensoren keinesfalls mehr rauschen dürfen, als ihre Vorgänger. Bis jetzt haben sie das auch immer geschafft. Solange sich die Entwickler (und letztlich auch die Marketingleute) daran halten, habe ich kein Problem mit der immer weiter steigenden Auflösung.
Die Sensorentwicklung ist ja auch etwas komplexer, als nur mehr Pixel auf die gleiche Fläche zu packen. Wie bei Rennmotoren ist der Wirkungsgrad das alles entscheidende Kriterium. Das Ziel ist es, immer stromsparendere Chips zu bauen. Je "kälter" ein Chip arbeitet, desto höher ist die Signalqualität (Signal/Rauschabstand). Dazu kommt noch, dass die A/D-Wandler immer besser werden und der Signalweg immer weiter optimiert wird. Das ermöglichst es Sensoren zu bauen, die trotz kleinerer Pixel ein ebenso gutes, oder gar besseres Signalverhalten haben, als die Vorgänger. Der Sensor der neuen EOS 50D ist ein gutes Beispiel dafür.
Leider orientieren sich die vielen Laien sich in den Internetforen meistens nur an Klischees. So heißt es dann beispielsweise: mehr Megapixel = schlecht, weil irgendwann mal einer gesagt hat, 6 Megapixel wären genug und mehr würde nur mehr Rauschen bedeuten. Aber so einfach ist das eben nicht. Ein anderes Beispiel ist derzeit, dass immer öfter nachgeplappert wird, die heutigen Objektive könnten die hohe Auflösung der Sensoren gar nicht bedienen, nur weil irgend einer mal ausgerechnet hat, dass höchstens soundso viele Linienpaare von den Objektiven aufgelöst werden können. Aber auch das ist nur ein winziger Teil der Wahrheit und lässt viele optische Phänomene außer acht. Es bedeutet keinesfalls, dass wir mit den aktuellen Objektiven von höher auflösenden Sensoren gar nicht mehr profitieren können.
Übrigens: Gerüchten zufolge wird zur Photokina die G10 vorgestellt. Sie soll mit ihrem Kompaktkamera-Sensor 15 Megapixel Auflösung haben und darum auch als erstes Canon-Modell Pixel-Binning beherrschen. Der neue Digic IV-Prozessor kann damit schon umgehen.
Jede DSLR hat einen UV-Filter direkt vor dem Sensor. Darum ist es auch im Grunde genommen falsch, sich Vorteile von einem zusätzlichen UV-Filter vor dem Objektiv zu erhoffen. Damit verändert man nur das vom Hersteller gewünschte Verhalten der Kamera. Lediglich wenn der Hersteller sich bei der Berechnung des UV-Filters vor dem Sensor vertan hat (wie Leica mit der M8, die übrigens in Kürze einen Nachfolger "M8.2" bekommen soll), kann oder muss man mit einem UV-Filter vor dem Objektiv korrigierend nachhelfen.
Darum hat sich die Zubehörindustrie auf ein anderes Argument eingeschossen, um weiter ihre UV-Filter verkaufen zu können, nämlich als Schutz für die Frontlinse. Doch in den meisten Fällen reicht die Sonnenblende als Schutz bestens aus. Es sei denn, man will im Sandsturm in der Sahara fotografieren. Die Filter können außerdem zu Reflektionen, Spiegelungen und sogar zu Vignettierung führen. Also weg damit! Der einzige Filter, der im Digitalzeitalter wirklich noch Sinn macht (zumindest für bestimmte Situationen), ist der Polfilter.
Canon hat in einem Interview schon verlauten lassen, dass sie einen Weg gefunden haben, den UV-Filter auf elektronischem Wege zu ersetzen. Der UV-Filter vor dem Sensor ist zu einem nicht unerheblichen Teil für die Detailschärfe verantwortlich. Filter mit 100% UV-Sperrwirkung würden die Pro-Pixel-Schärfe viel zu sehr herabsetzen. Darum verwendet man Filter, die das UV-Spektrum nur zu einem Teil herausfiltern. Je nach Hersteller und Modell mal mehr, mal weniger stark. Je weniger Filterwirkung, desto schärfer, aber desto größer die Farbverfälschungen. (Evtl. gibt es dabei noch weitere Faktoren, aber die kenne ich nicht.)
Soweit das Wort zum Sonntag.
Have a nice day!
Hilfreich?
0
Blofeld
14.09.08
12:09
sonorman
gutes Wort zum Sonntag!
Und jetzt...ein paar mal werden wir noch wach, und dann...na, mal sehen!
Hilfreich?
0
WALL*E
14.09.08
13:08
Ein großes Wort zum Sonntag
Also merken: Bei DSLRs ist mehr immer besser weil sich dann auch andere Faktoren verbessern und so Nachteile von "mehr" ausgeglichen werden. Und über Kompackte nur in der 1. Klasse nachdenken.
Aber noch eine Frage: Darf also bei Canon der Nachfolger einer DSLR in der maximal Auflösung nicht mehr Rauschen als sein Vorgänger in der maximal Auflösung? Oder wird der Nachfolger auf das Niveau des Vorgängers runtergesetzt, und dann verglichen? Das würde doch ohne Pixel-Binning wenig Sinn machen oder?
Ich weiß, ich weiß, Off-Topic
Asche über mein Haupt.
Hilfreich?
0
sonorman
14.09.08
13:28
WALL*E
Wie schon gesagt: Auf vergleichbare Auflösung "runtergerechnet" werden die neuen Sensoren mit hoher Wahrscheinlichkeit deutlich besser sein, als ihre Vorgänger. Das bedeutet auch, bis zu einem gewissen Grad werden sie selbst mit höherer Auflösung besser sein.
Pixel-Binning wird voraussichtlich in mehreren Stufen verfügbar sein, so das entweder 2, 4 oder noch mehr Pixel zu einem zusammengeschaltet werden können, was die Auflösung entsprechend halbiert, viertelt u.s.w.
Wo die Limits liegen, kann aber nur Zukunft zeigen. Das müssen wir einfach abwarten.
Hilfreich?
0
WALL*E
14.09.08
14:45
Abwarten und Tee trinken
Trotzdem Danke. Man ständig dazu
Hilfreich?
0
Sitox
14.09.08
17:37
Warum bloß fühle ich mich gerade persönlich angegriffen ...
sonorman
Ein anderes Beispiel ist derzeit, dass immer öfter nachgeplappert wird, die heutigen Objektive könnten die hohe Auflösung der Sensoren gar nicht bedienen, nur weil irgend einer mal ausgerechnet hat, dass höchstens soundso viele Linienpaare von den Objektiven aufgelöst werden können. Aber auch das ist nur ein winziger Teil der Wahrheit und lässt viele optische Phänomene außer acht.
Fernab irgendwelcher Nyquist Frequenzen zeigt einem doch die eigene Erfahrung, dass hier langsam aber sicher Grenzen überschritten werden (bezogen auf APS-C).
Als ich mein olles Canon 50mm f/1.8 vor 5 Jahren erstmals auf einer 10D benutze, dachte ich noch "wow, selbst ganz offen schön scharf". Jetzt, +6 Megapixel später, darf's für ein scharfes Ergebnis auch gerne f/4 sein. Was in Zukunft bei APS-C passiert ist, dass dieser "Unschärfe" einfach nur mehr Pixel zur Verfügung stehen.
Viel schlimmer finde ich übrigens die AdobeRGB und L-Glas Propagandisten unter den APS-Clern. Ich hoffe ein stolzer Besitzer eines Full Frame optimierten 17-40L macht sich mal die Mühe und vergleicht das gute Stück direkt mit dem verschmähten EFS 18-55 Kit Objektiv, das es für fast lau dazu gab. Das wäre mal ein echter Augenöffner!
Hilfreich?
0
sonorman
14.09.08
18:13
sitox
Nein, die Grenzen sind noch längst nicht überschritten!
Aus diesem Artikel @@
ein Zitat:
Now the problem here is that
the sensor is limiting the resolution
. For example, the EOS 40D sensor has a pixel spacing of 5.71 microns so there are 175 pixels per mm. There's a theorem in information theory called the Nyquist sampling theorem, which says that in order to reconstruct a sine wave you must sample at at least twice the frequency of the sine wave. If you were to assume that the same principle applies to line pattern charts, the very best you could do would be to resolve about 87.5 lp/mm with a sensor which has 175 pixels/mm.
However you can't strictly apply the Nyquist theorem for a number of reasons.
First there's an anti-aliasing filter over the sensor which cuts off response close to the Nyquist limit to eliminate spurious effects such as moire patterns on images of closely spaced lines. Even without the anti-aliasing filter, you're not looking at reconstructing sine waves. You're looking at bar patterns with higher frequency components. So
you're not ever going to get 87.5 lp/mm resolution, no matter how good the lens is
.
The basic upshot of all this is that even with an EOS 40D sensor (which incidentally has about the same pixel pitch and therefore resolution as the fill frame 22MP EOS 1Ds MkIII), you're not going to see more than about 75 lp/mm resolved.
Since most lenses are capable of resolving quite a lot more than 75 lp/mm
, this in turn this means that most lenses will give you the same resolution based on these chart measurements, even used wide open. Now this doesn't mean that all lenses are equally good at all apertures.
What it means is that strict resolution measurements aren't the best measurement of lens quality.
So why measure it? Well, if you don't see a resolution of over 60 lp/mm in the center of the image, you know you either have a really bad lens, a really bad sample or a lens or a focus problem. In the image corners you may see lower numbers, especially from low cost zoom lenses.
Und ein entscheidender Faktor bei besseren Optiken ist der höhere Kontrast, wovon grundsätzlich auch APS-C-User profitieren. Auch darüber steht noch was in dem Artikel.
Sorry, aber ich kann mich des Gefühls nicht erwehren, dass Du ein ziemlicher
Glas-halb-leer-Typ
bist. Warum holst Du Dir denn nicht günstig irgendwo eine 10D und erfreust Dich an der tollen Schärfe bei Offenblende? Wo doch inzwischen alles so viel schlechter geworden ist, wenn ich Deinen Erfahrungsbericht richtig interpretiere.
Hilfreich?
0
Esäk
14.09.08
18:31
Das mit den Linienpaaren ist gute Info. Das war mir so bisher nicht ganz klar. Danke!
Der Satz von Dir:
Dazu kommt noch, dass die A/D-Wandler immer besser werden
ist nicht adäquat. Die sind nämlich schon länger besser als nötig. 24 bit und enorme Dynamikumfänge sind in CMOS seit Jahren kein wirkliches Problem. Sie können vielleicht noch schneller oder Energie-effizienter werden - das wärs aber. Das Rauschen bzw. die Dynamik hängt wirklich nur vom lichtempfindlichen Pixel ab, heutzutage und nicht von den A/D-Umsetzern.
Was mich interessieren würde: Wie soll das kommen, dass der UV-Filter die Schärfe beeinflusst? Physikalisch durch streulicht hast Du sicher nicht gemeint. Aber der UV-Anteil im Licht hat doch mit den interessierenden Spektren überhaupt gar nichts gemein. Wie also soll er einen Einfluss auf die Schärfe/Auflösung haben? Vielleicht habe ich da auch einfach keine Ahnung von, aber Du die Infos, wie das zusammenhängt?
„Die Todesstrafe gehört auch in Hessen abgeschafft!“
Hilfreich?
0
sonorman
14.09.08
18:55
Esäk
Sorry, böser Fauxpas! Da habe ich die ganze Zeit etwas verwechselt. In dem Zusammenhang mit der Schärfe ist natürlich der Anti-Aliasing-Filter gemeint!
Die A/D-Wandler werden künftig eine noch größere Bit-Tiefe haben.
Dass die heute verwendeten Bittiefen schon mehr als ausreichend wären, bzw. dass mehr Bittiefe keine Verbesserungen mehr bringen würde, gehört ebenfalls zu den urbanen Legenden, die gerne als "Naturgesetz" kolportiert werden. Anders ausgedrückt, es berücksichtigt – wie die Aussagen zur Objektivauflösung – nicht sämtliche Möglichkeiten. Heute arbeiten die besseren Systeme mit 14-Bit pro Kanal. Die nächste oder übernächste Generation wird 16 Bit bieten. Bringt nix? Canon meint doch:
Increased raw bit depth for improved dynamic range. Here Canon have made the jump to 14 bit and will move to 16 bit in their future sensor technology generations. Canon see the main usage of extra bit depth as providing the dynamic range to translate the sensor image into a printable or viewable image with a higher dynamic range. In other words mapping the 14 or 16 bits into an 8 bit viewable or printable image that mimics the dynamic range in the scene.
Abwarten. Jedenfalls ist auch bei SLRs die Entwicklung noch nicht am Ende angelangt. Da geht noch was!
Hilfreich?
0
sonorman
14.09.08
19:31
Puhhh, das mit dem Filter habe ich wohl auch noch nicht ganz durchschaut und daher einige Dinge durcheinander gewürfelt. Er ist um einiges komplexer als gedacht und erfüllt mit seinem mehrschichtigen Aufbau gleich mehrere Funktionen, wobei weniger UV, sondern natürlich vielmehr IR gefiltert werden soll. Klar, das Thema hatten wir ja auch schon ein paar mal.
Vor allem Schicht Nummer 2 ist also für die Verringerung der Auflösung verantwortlich (der Anti-Aliasing-Filter).
So sieht der Filter der EOS 5D im "Querschnitt" aus:
1) Hot mirror (reflects IR light)
2) horizontal low pass filter [1.0mm]
3) IR absorption filter [0.2mm]
4) λ/4 plate [0.25mm]
5) normal antireflective coating
Quelle @@
Fest stehen dürfte aber, dass jedes zusätzliche "Hindernis" vor dem Sensor für Qualitätsminderungen in unterschiedlicher Größenordnung sorgt.
Hilfreich?
0
Eldorado546
14.09.08
20:23
Ich gehöre beispielsweise zu den "Opfern" böser Fotofachgeschäftinhabern die mir ein UV-Filter verkauft haben, aufgrund besserer Bildqualität und Schutz des Objektivs. Mir erschien das damals auch logisch, dass wenn ich die Objektivlinse nicht dauernd reinigen muss, ich diese auch nicht verkratzen kann oder sie sonstwie Schäden nimmt etc. Heuzutage bin ich verunsichert bezüglich dieses Themas.
Soll das Ding jetzt weg oder kann man das getrost drauflassen, weil es sowieso nicht wirklich die Bildqualität beeinflusst?
Irgendwie erzählt da jeder was anderes... Im DSLR-Forum beispielsweise gehen die Meinungen krass auseinander, allerdings überwiegen dort meiner Meinung nach die kritischen Stimmen etwas...
Solange es nicht eindeutige Gründe dagegen gibt, bleibt mein UV-Filter (hauptsächlich als Schutz) einfach mal drauf.
Hilfreich?
0
Esäk
14.09.08
20:45
Danke, sonorman, damit ist es für mich nun halbwegs
klar.
Es ist tatsächlich das Streulicht im Filter, dass die Qualität sprich: die Separierung zwischen den Pixeln, vermindert. Dass diese Schichten so dermaßen dick sind, das hätte ich nie gedacht. Dass eine physikalische Anti-Alias-Filterung stattfindet, das hätte ich dreimal nicht geglaubt. Aha. Der IR-Filter ist ja fast nur ne Nebensache und fällt dann wirklich schon nicht mehr so kräftig ins Gewicht.
Mit den A/D-Umsetzern: Die sind wirklich ehrlich und tatsächlich nicht das Problem. Die gibt es schon seid Jahren in besserer Qualität als auf einem Sensor-Chip benötigt. Ich habe nicht gesagt, das mehr bit Auflösung nichts bringt. Ich habe gesagt, dass das nicht ein Problem der A/D-Umsetzer ist, sondern der Qualität der von den Pixeln gelieferten Signale. Wenn die einen höheren Dynamikumfang liefern, dann machen auch A/D-Umsetzer mit mehr als 16 bit Sinn. Vorher eben nicht. Und die Designs für die A/D-Umsetzer sind eben ein alter Hut. Wenn das ein Hersteller benötigt, braucht er nur auch existente Designbibliotheken zurück greifen. Das Problem ist die Verbesserung der Sensoren und nicht der Wandler.
Mit UV hat es also nichts zu tun. Demnach kann man Eldorado Entwarnung geben: Ein UV-Filter macht also doch Sinn. Zwar sind die Sensor-Flächen (da aus Silizium) für UV-Licht nicht sonderlich empfindlich, aber eben nicht komplett unempfindlich. Wesentlich weniger Empfindlich als die Silbersalze im Film, aber schden tut ein UV-Filter sicher nur dann was, wenn er optisch schlecht (nicht gut antireflektiv beschichtet, ungleichmäßig nicht völlig plan) oder dreckig ist.
„Die Todesstrafe gehört auch in Hessen abgeschafft!“
Hilfreich?
0
Eldorado546
14.09.08
20:49
Esäk
Hilfreich?
0
sonorman
14.09.08
22:18
Esäk
Die A/D-Wandler sind Teil der Sensoren. Sie sind nicht wie in Audio-Komponenten separate Bausteine. Darum gibt es da noch viel Potential zur Verbesserung, nicht am dem Prinzip der A/D-Wandlung an sich.
UV-Filter haben keinen Effekt, der sich nicht am Computer oder im Postprocessing der Kamera erzielen ließe, darum machen sie nicht viel Sinn am Objektiv. Anders als Polfilter, deren Effekt sich nicht nachträglich simulieren lässt.
Hilfreich?
0
Esäk
14.09.08
22:49
Nein, sonormann, das kann so nicht ganz stimmen. Die A/D-Wandler lassen sich nicht verbessern (ließen sich vielleicht, aber das ist nicht das Problem). Ich behaupte - und das kannst Du nicht widerlegen - dass Canon jetzt sofort "bessere" A/D-Wandler (mit höherer) Auflösung) mit deutlich mehr bits auf den Sensor packen könnte, allein das gäbe ein paar bits mehr Nichtsignal, da die Sensoren (die Pixel) das nicht ausnutzen bzw. kein Signal mit dieser Dynamik liefern können. Das siehst Du demnach einfach falsch. Frag mal bei einem hersteller nach. Das ist wirklich so.
Die A/D-Umsetzer sind wirklich nicht das Problem. Ich kenn mich etwas (nicht extrem, aber immerhin) in der Chipfertigung aus. Da bin ich mir absolut sicher, dass Du da falsch liegst.
Und bez.- UV-Filter: Ekläre mir mal, wie man durch Postprocessing nicht richtige Belichtungen wieder hinbiegen will. Das gibt nicht korrigierbare Fehler. Ich weiß zwar nicht, wie groß diese Fehler sind und wie relevant sie sind, aber hinterher ist es ganz sicher zu spät dafür. Mit dem gleichen Argument ließen sich dann auch IR-Filter einsparen (gebs ja zu: stimmt nicht ganz, da Silizium sehr viel empfindlicher für IR als UV ist). Hier bin ich mir zwar nicht ganz so sicher, aber ich zweifle
„Die Todesstrafe gehört auch in Hessen abgeschafft!“
Hilfreich?
0
Eldorado546
14.09.08
23:07
Ich würde sagen, dass das UV-Licht einfach eine gewisse Unschärfe produzieren
kann
(so hat mir das der Fotograf aus dem Geschäft erklärt und was von chromatischer Aberration skizziert)
Hilfreich?
0
Sitox
15.09.08
01:21
sonorman
sitox
Sorry, aber ich kann mich des Gefühls nicht erwehren, dass Du ein ziemlicher
Glas-halb-leer-Typ
bist. Warum holst Du Dir denn nicht günstig irgendwo eine 10D und erfreust Dich an der tollen Schärfe bei Offenblende? Wo doch inzwischen alles so viel schlechter geworden ist, wenn ich Deinen Erfahrungsbericht richtig interpretiere.
Super Tipp
Keine Ahnung wie du darauf kommst ich meinte alles sei schlechter geworden. Pixel kann ich grundsätzlich nicht genug bekommen. Ich lege lediglich dar, was ich mit eigenen Augen sehe ohne etwas nachzuplappern und behaupte daher lediglich, dass für APS-C das Ende der Fahnenstange in Reichweite ist und eine weitere Erhöhung der Pixeldichte unsinnig wird.
In the image corners you
may
see lower numbers, especially from low cost zoom lenses.
Die Formulierung klingt wie ein Scherz. Abfallende Schärfe zu den Ecken ist jawohl eher die Regel denn die Ausnahme.
Ich unterstelle den Jungs von dpreview jetzt mal eine gewisse Sorgfalt bei ihren Reviews und picke das EF 50mm 1:1.4 USM heraus (
)
Der Sweetspot des Objektivs liegt bei etwa f/5.6. Die Gegenüberstellung im kombinierten Screenshot unten zeigt dass die theoretische Auflösungsgrenze des 12MP APS-C Sensors recht nah an der seiner praktischen Grenze liegt. (Deutlicher sichtbar wäre der Unterschied natürlich wenn ich hier ein rollover GIF einstellen könnte). Jetzt verrate du mir bitte wie in alles in der Welt man mit einem höher aufgelösten APS-C Sensor mehr Details aus diesem Objektiv herauskitzeln sollte?! Abgesehen von den oben diskutierten Pixellevel Optimierungen am Sensor durch Verzicht auf allerlei Filter - dieser Qualitätssprung wäre dann aber nicht dem Objektiv geschuldet.
Ein ganz anderes Bild ergibt sich bei einem Full Frame Sensor. Das Objektiv ist schon bei f/2 im Center mit dem 21 MP Sensor "unterfordert" und bietet bei f/5.6 tadellose Schärfe bis in die Ecken. Das Objektiv bringt im Center sicher auch bei 30 MP noch tadellose Bilder.
Hilfreich?
0
Blaubierhund
15.09.08
09:11
Eldorado546
Ich würde sagen, dass das UV-Licht einfach eine gewisse Unschärfe produzieren
kann
(so hat mir das der Fotograf aus dem Geschäft erklärt und was von chromatischer Aberration skizziert)
uv-licht hat mit chromatischer aberration nichts zu tun. CAs entstehen schlicht durch die unterschiedliche wellenlänge der lichtfarben und damit durch unterschiedlich starke brechung. die farben treffen auf dem sensor also nicht den gleichen punkt, an extremen hell-dunkel-kanten fällt das dann als CA auf ...
„Die Berliner sind unfreundlich und rücksichtslos, ruppig und rechthaberisch, Berlin ist abstoßend, laut, dreckig und grau, Baustellen und verstopfte Straßen, wo man geht und steht - aber mir tun alle Menschen leid, die nicht hier leben können! (Anneliese Bödecker)“
Hilfreich?
0
Blaubierhund
15.09.08
09:17
Eldorado546
Soll das Ding jetzt weg oder kann man das getrost drauflassen, weil es sowieso nicht wirklich die Bildqualität beeinflusst?
jeder filter beeinflusst die bildqualität negativ. d.h. jeder glas-luft-übergang tut das. besonders extrem ist das bei nicht vergüteten filtern.
uv-filter lassen sich, wenn überhaupt, nur als objektivschutz rechtfertigen. da ist eine geli aber ne bessere lösung ...
„Die Berliner sind unfreundlich und rücksichtslos, ruppig und rechthaberisch, Berlin ist abstoßend, laut, dreckig und grau, Baustellen und verstopfte Straßen, wo man geht und steht - aber mir tun alle Menschen leid, die nicht hier leben können! (Anneliese Bödecker)“
Hilfreich?
0
sonorman
15.09.08
10:08
Sitox
Du hast scheinbar nicht gelesen, was in dem verlinkten Artikel steht. Lies zumindest noch mal die zitierten, unterstrichenen Passagen und den rot markierten Teil. Ansonsten hat es wohl keinen Zweck, sich weiter mit Dir darüber zu streiten. Du glaubst, das weitere Verbesserungen der Chip-Auflösung sinnlos sind, weil die Objektive es nicht bringen? Gut, meinetwegen. Aber stell das in Internetforen möglichst solange nicht als gegebene Tatsache dar, bis Du dafür
handfeste
Beweise vorlegen kannst, die auch die Aussagen beispielsweise von Bob Atkins und anderen widerlegen.
Esäk
Ich denke, Du hast meinen Kommentar falsch verstanden.
Was ich mit der Verbesserung der A/D-Wandler meine, ist deren integration auf dem Chip. So ist es beispielsweise bei vielen CMOS-Sensoren so, dass für jede Pixel
spalte
ein A/D-Wandler vorhanden ist. Denkbar wäre in zukünftigen Chipdesigns aber auch ein A/D-Wandler
pro Pixel
, was die analogen Signalwege noch mal dutlich verkürzen würde und sicher noch andere Vorteile mit sich bringen würde.
Ich bin selbst auch kein Chip-Designer, aber ich glaube nicht, dass an dem Teil der Wandler keine Verbesserungen mehr möglich sind.
Zum Thema UV-Filter ja oder nein, siehe @@
Auszüge:
Modern lenses also pass very little UV. Either the glass, coatings, or even the cement used for cemented elements filter it. The so-called "hot mirror" filters are sharp-cutting UV blockers, but
ordinary UV filters don't commonly help good lenses much, if at all.
…
Ironically, the better your lens, the more desirable it is not to have a filter on it.
Ich habe selbst UV-Filter ausprobiert und NIE einen positiven Effekt in den Bildern entdecken können. Aber Flare und auch Vignettierung durchaus.
Weg mit dem zusätzlichen Glas vor der Linse!
Hilfreich?
0
pathip
15.09.08
10:49
sonorman
Ich habe selbst UV-Filter ausprobiert und NIE einen positiven Effekt in den Bildern entdecken können. Aber Flare und auch Vignettierung durchaus.
Weg mit dem zusätzlichen Glas vor der Linse!
Das ist ja interessant, und ich hab jetzt extra nen UV Filter zu meinem hoffentlich heute ankommenden 70-200 L f4 IS bestellt um die Frontlinse zu schützen, an Qualitätsverluste hab ich dabei nicht gedacht, zumal Hoya schon auch angibt, dass die Qualität der Bilder durch einen solchen Filter noch gesteigert werden soll.
Das bedeutet dann wohl, dass ich den wieder zurückschicken kann.
Hilfreich?
0
sonorman
15.09.08
11:21
pathip
UV-Filter waren in Zeiten von Film durchaus mal sinnvoll. An DSLRs sind sie es definitiv nicht. Reine Geldverschwendung.
Kauf Dir lieber einen guten Zirkular Polfilter. Den kann man zwar nicht immer drauf lassen, weil er zu viel Licht schluckt, aber er kann in manchen Situationen extrem Hilfreich sein, um Spiegelungen zu unterdrücken und die natürlichen Kontraste zu verstärken.
Zum Schutz der Linse reicht die Gegenlichtblende, die immer drauf sein sollte.
Hilfreich?
0
Sitox
15.09.08
11:52
sonorman
Sitox
Du hast scheinbar nicht gelesen, was in dem verlinkten Artikel steht. Lies zumindest noch mal die zitierten, unterstrichenen Passagen und den rot markierten Teil. Ansonsten hat es wohl keinen Zweck, sich weiter mit Dir darüber zu streiten.
Ich streite nicht, nur unterstellst du mir ich würde die verlinkten Artikel nicht lesen und gehst stattdessen nicht auf meine Frage(n) ein.
Schärfe ist für mich ein absoluter Wert. Es ist klar, dass andere Qualitäten von Objektiven den Schärfe
eindruck
ebenfalls erheblich beeinflussen. Ein kontrastarmes Objektiv, das gemessen schärfer ist als ein kontraststarkes wird möglicherweise einen unschärferen
Eindruck
machen. Aber darum geht es hier überhaupt nicht.
Wenn man sich mal die Mühe macht und die Schachbrett Muster des Sweetspot-Bereichs des Objektivs im dpreview Test vergleicht, wird man feststellen, dass die Auflösungsgrenze des Sensors irgendwo in dem unten von mir violett gekennzeichneten Bereich liegt. Diese Grenze wird jawohl unstreitbar in zukünftigen Sensorgenerationen weiter nach oben wandern. In diesem Punkt wird es wohl kaum Uneinigkeit geben.
Meine Frage an dich jetzt anders formuliert:
Glaubst du, würde der Test in 3 Jahren mit einer 20 Megapixel 70D mit demselben Objektiv wiederholt werden, dass die die Messwerte repräsentierende blaue Linie ebenfalls weiter nach oben wandert?
Wenn ja, bin ich gespannt auf die Begründung.
Hilfreich?
0
sonorman
15.09.08
12:37
Sitox
Meine Frage an dich jetzt anders formuliert:
Glaubst du, würde der Test in 3 Jahren mit einer 20 Megapixel 70D mit demselben Objektiv wiederholt werden, dass die die Messwerte repräsentierende blaue Linie ebenfalls weiter nach oben wandert?
Wenn ja, bin ich gespannt auf die Begründung.
Nein, natürlich glaube ich das nicht. Das ist ja auch nicht das Ziel meiner Argumentation. Worauf ich hinaus will, steht schon weiter oben. Anders formuliert: Die tatsächlich erzielte Auflösung heutiger Sensoren liegt bedingt durch viele äußere Faktoren und auch bedingt durch das Nyquist-Theorem deutlich unter dem, was eigentlich an lp/mm bzw. Pixeln auf dem Sensor zählbar ist. Damit sind die heutigen Objektive absolut noch nicht ausgereizt, sondern haben noch Reserven. Das steht auch so in dem von mir verlinkten Artikel.
Du stellst die Sache aber so dar, dass jegliche Erhöhung der Sensorauflösung schon heute technischer Unfug ist, weil Objektive das nicht auflösen können. Aber das ist eben nicht der Fall!
Die Sensorentwickler sind doch auch nicht dämlich und packen nur deswegen mehr Megapixel rein, weil die Jungs und Mädels aus der Marketingabteilung es so wollen. Wenn die Objektive in ein paar Jahren tatsächlich zum
absolut
limitierenden Faktor werden (was derzeit wohl nur wenige schlechte Objektive sind), dann wird es aus der Forschung eine entsprechende Antwort auf dieses Problem geben, da bin ich mir sicher. Es wurde schon so oft in den verschiedensten technischen Bereichen verkündet, dass die Grenzen des Machbaren erreicht wären und das jede Weiterentwicklung totaler Humbug wäre. Und immer wurden diese Behauptungen widerlegt.
Ich habe nur ein Problem damit, wenn jemand im Forum Pauschalurteile abgibt, so nach dem Motto:
was die Hersteller machen ist Schwachsinn, weil das gar nicht funktionieren kann
. (So in etwa im Kontext.) Das ist dünnes Eis!
Hilfreich?
0
Blaubierhund
15.09.08
14:21
sonorman
Die tatsächlich erzielte Auflösung heutiger Sensoren liegt bedingt durch viele äußere Faktoren und auch bedingt durch das Nyquist-Theorem deutlich unter dem, was eigentlich an lp/mm bzw. Pixeln auf dem Sensor zählbar ist. Damit sind die heutigen Objektive absolut noch nicht ausgereizt, sondern haben noch Reserven. Das steht auch so in dem von mir verlinkten Artikel.
äh, willst du damit sagen, dass es völlig irrelevant ist, ob die objektive hoch genug auflösen können oder nicht, weil die theoretisch mögliche auflösung, die der sensor bietet, aus anderen gründen nicht ausgeschöpft werden kann?
„Die Berliner sind unfreundlich und rücksichtslos, ruppig und rechthaberisch, Berlin ist abstoßend, laut, dreckig und grau, Baustellen und verstopfte Straßen, wo man geht und steht - aber mir tun alle Menschen leid, die nicht hier leben können! (Anneliese Bödecker)“
Hilfreich?
0
|<
1
2
3
>|
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
Test Nubert nuZeo 3
US-Regierung: Navarro greift Apple und Cook an
macOS 15.5 ist erschienen
Was tun bei Kernel Panics?
Kurz: Mexico verklagt Google wegen "Gulf of Ame...
Rosetta 2 ab macOS 28 nur noch eingeschränkt nu...
Kurz: iOS 18.5 mit Pride-Wallpapern +++ Apple W...
Bloomberg: Erste Gerüchte zu M6-, M7- und impos...