|
| Auflösungs-Bestimmung von Objektiven und Sensoren/RAW-Algos | |
Forenlevel: Fotokünstler
|
Anmeldungsdatum: 10.03.2011 |
Beiträge: 689 |
|
|
Verfasst am: 08 Feb 2015 9:59 |
|
Zum Thema "Gesamt-Auflösung von Sensor samt nachfolgender Bayer-Interpolation" sollte ich besser einen eigenen Thread aufmachen.
Meine bisher noch nicht vollständig validierte Hypothese lautet: gute Linsen (auch ältere, wie z.B. ein Revuenon 55mm 1.4 über 42mm Adapter) können anscheinend zumindest in der Bildmitte höhere Auflösungen liefern, als die Pixeldichte eines heute gängigen 20MP APS-C Sensors (z.B. EOS 70d) samt nachfolgender Bayer-Interpolation verarbeiten kann.
Siehe http://de.wikipedia.org/wiki/Alias-Effekt und der nachfolgende 100% Beispiel-Crop eines großen Siemenssterns, der jedoch auf dem Bild genügend klein abgebildet werden muss, so dass die Drucker-Auflösung des Siemensstern-Ausdrucks (hier aus dem Buch "Canon EOS 450D" von Stefan Gross) nicht zum limitierenden Faktor wird. Man muss je nach Brennweite genügend weit weggehen, und den Fokus manuell extrem präsize einstellen (oft im Zehntel-Millimeter-Bereich, extrem fummelig). Die richtige Blende, ISO 100 und ein Stativ ist Pflicht.
Dazu ist mir heute Nacht noch etwas eingefallen, was möglicherweise bei den im Internet gängigen Objektiv-Tests bisher noch nicht beachtet worden sein könnte.
Folgendes Experiment kann ich leider nicht selber durchführen, weil ich noch keine passende Studio-Ausstattung besitze:
Per reinem Farbfilter rein rotes Licht erzeugen, und damit das Siemensstern-Experiment anstatt weißem Licht wiederholen. Anderes Fremdlicht muss ausgeschlossen sein.
Jetzt wird's lustig: wenn sowohl die Spektral-Reinheit der Lichtquelle auch auch die vielen kleinen Farbfilter auf dem Sensor alle 100% korrekt arbeiten, dann muss das Ergebnis-Bild ausschließlich Pixel mit rein rotem Farbkanal enthalten. Die Farbkanäle Grün und Blau dürften im Idealfall gar nichts (außer Rauschen) enthalten.
Für die resultierende Auflösung bedeutet dies: der Bayer-Algorithmus hat keine Chance, aus den anderen Farbkanälen irgendwelche Informationen zu gewinnen, mit denen er eine höhere Auflösung hochinterpolieren / "vortäuschen" könnte.
Da die Rot-Pixel nur halb so dicht sitzen (ein Viertel der Sensor-Fläche ausmachen), kann das Bild also von vornherein nur äquivalent zu 5 Megapixeln anstatt 20 sein.
Wegen des Nyquist-Kriteriums kann die maximale Auflösung dann nur noch 3662 / 2 / 2 = 915 Linienpaare pro Bildhöhe betragen. Mehr geht rein physikalisch nicht.
Vermutlich wird es in der Praxis keine 100%-Kanaltrennung zwischen den Farbkanälen geben, sondern eine Art geringes "Übersprechen" dürfte wahrscheinlich sein. Die Güte der Kanaltrennung könnte aber ein zukünftiges Bewertungskriterium für Sensoren darstellen (dazu müssen jedoch die RAW-Daten ohne nachfolgende Bayer-Interpolation genommen werden).
Die Lustigkeit des Experiments lässt sich noch weiter steigern:
Wiederholen wir das ganze mit spektralreinem Grün. M.W. gibt es bei Grün doppelt so viele Pixel, die in einer der beiden möglichen Diagonalen vorzugsweise angeordnet sind. Die genaue Anordnung kenne ich nicht, müsste sich jedoch aus dem Quellcode von DCRAW herauslesen lassen.
Leider entspricht diese Verdoppeltung aber nicht genau einem 10MP Sensor: die Grün-Pixel sind nicht äquidistant angeordnet. Sie bilden eine phasenverschobene Überlagerung zweier 5MP-Bilder. Eigentlich kann man das Nyquist-Kriterium darauf nicht unbesehen anwenden.
Noch schlimmer: in den beiden Diagonalen muss die Auflösung unterschiedlich sein! Also haben wir hier eine richtungsabhängige Asymmetrie.
Bevor ich irgendwelche Schlussfolgerungen ziehe, wie man zukünftige Objektiv-Auflösungs-Tests am besten gestalten sollte, würden mich die Ergebnisse eines derartigen Versuchs interessieren. Hat jemand die Ausrüstung und die Zeit, um die Ergebnisse dann hier zu publizieren?
Beschreibung: |
|
Dateigröße: |
279.2 KB |
Angeschaut: |
3556 mal |
|
Beschreibung: |
|
Dateigröße: |
280.32 KB |
Angeschaut: |
3556 mal |
|
|
Zuletzt bearbeitet von athomux am 08 Feb 2015 12:05, insgesamt einmal bearbeitet
|
Forenlevel: Fotoreporter
|
Anmeldungsdatum: 15.10.2008 |
Beiträge: 161 |
Wohnort: Österreich |
|
Verfasst am: 08 Feb 2015 11:48 |
|
Hallo,
um die Auflösung eines Objektives zu bestimmen, muss man es von den üblichen Bildsensoren "abkoppeln", ansonsten ist es nur eine Messung des Systems Objektiv - Sensor.
Das Problem ist, dass man im günstigsten Fall "Strukturen" erkennen möchte, die deutlich kleiner als die heute üblichen Pixel der Sensoren sind.
Eine mögliche Anordnung um die tatsächliche Auflösungsfähigkeit des Objektivs zu messen, würde ungefähr wie folgt aussehen:
- in der Bildebene (Sensorebene) befindet sich ein Okular, dass wie eine Lupe die Abbildung an diesem Ort deutlich vergrößert ("Mikroskop")
- die Abbildung hinter dieser Lupe wird fotografiert und ausgewertet
- um das gesamte Bildfeld so bewerten zu können, muss das Okular über das gesamte Bildfeld (z.B. Kleinbildformat) mittels eines mechanischen Kreuztisches in der Bildebene verschoben werden können
Derartige Einrichtungen wurden früher in astronomischen Fernrohren zum Scharfstellen verwendet. Nach dem Scharfstellen wurde statt der Lupe die Fotoplatte ins Bildfeld geschwenkt.
Aber der Auswertungsaufwand wäre sehr hoch, da man pro Objektiv an mehreren Bildstellen bei verschiener Blende, verschiedenen Objektentfernungen und bei Zoomobjektiven bei verschiedenen Brennweiten diese Messungen durchführen müsste.
Derartige Ergebnisse auf eine einzige Zahl, so wie hier in der TF-Objektivliste zu reduzieren, wird den Objektiven aber nicht gerecht.
(Ist z.B. ein f:4 Objektiv mit höherer Auflösung in der Bildmitte besser als ein f:2,8 Objektiv mit geringerer Auflösung, dass aber abgeblendet auf f:4 eine bessere Auflösung als das erste Objektiv hat? - Diese Auswertung würde zu sehr vereinfachen und eher "Glauben" als "Wissen" verbreiten.)
mfg
Andreas
|
|
Forenlevel: Fotograf +
|
Anmeldungsdatum: 22.05.2004 |
Beiträge: 1546 |
|
|
Verfasst am: 08 Feb 2015 12:05 |
|
Ich sehe es aber so, dass die Annahme von spektralreinen Farben, wo jeweils die beiden anderen Farben keinerlei Luminanz-Informationen zuliefern können, ein absoluter Sonderfall ist. Klar, im ungünstigsten Fall hat man anstelle von 20MP nur 5MP Luminanzauflösung, im günstigsten Fall aber etwa 90% der Sensorauflösung.
Deshalb empfinde ich persönlich den Bayer-Sensor gegenüber dem Foveon-Sensor immer noch als den besseren Kompromiss, was erzielbare Luminanzauflösung vs Datenmenge betrifft. In Motivbereichen, wo es besonders auf die Auflösung ankommt, liegen in der Praxis meist klare Hell/Dunkel-Übergänge vor, aber keine spektralreinen Farben.
epp4
|
|
Forenlevel: Fotokünstler
|
Anmeldungsdatum: 10.03.2011 |
Beiträge: 689 |
|
|
Verfasst am: 08 Feb 2015 12:12 |
|
Stimme allem zu, was Ihr gesagt habt. Ich habe das Thread-Thema gerade nachträglich auf die Sensor/Demosaicing-Algorithmen-Thematik hin erweitert. Das Feld ist sehr groß. Je mehr Ideen wir sammeln, wie wir den Problemen zu Leibe rücken könnten, desto besser die Chancen, mit Hilfe von Labor-Experimenten (die nicht immer die Praxis vollständig nachbilden müssen) etwas Grundsätzliches herauszufinden, das dann u.U. doch wieder wenigstens teilweise praxisrelevant sein kann. Bevor man das nicht untersucht und verstanden hat, lässt sich die Praxisrelevanz nicht immer sicher vorhersagen. Weitere Ideen? Fakten? Messergebnisse?
|
|
Forenlevel: Fotokünstler
|
Anmeldungsdatum: 10.03.2011 |
Beiträge: 689 |
|
|
Verfasst am: 08 Feb 2015 12:27 |
|
@Andreas: für einen allerersten Eindruck würde mir eine Mitten-Messung reichen (den Versuchsaufbau kann man später immer noch verbessern). Meine sehr alte EOS500 lässt sich hinten dauerhaft öffnen (wenn kein Film eingelegt ist), und dann auf "Bulb" stellen und mittels Drahtauslöser dauerhaft der Verschluss öffnen. Vorne das EOS-Objektiv rein. Mittels eines zweiten Makro-Kreuzschlittens könnte man nun ein Astronomie-Okular von hinten einführen, sofern es mechanisch passen würde (oder vielleicht ein kleineres Mikroskop-Okular oder dergleichen?). Stichwort: afokale Methode mit möglichst starker Vergrößerung, nachgeschaltete Digital-Kamera. Das Okular sollte hochklassig sein. Da ich das alles nicht besitze, wäre ich für Versuchsergebnisse solcher Versuche sehr dankbar.
|
|
Forenlevel: Fotokünstler
|
Anmeldungsdatum: 10.03.2011 |
Beiträge: 689 |
|
|
Verfasst am: 08 Feb 2015 18:38 |
|
Hier ein Versuch, die Auflösungs-Eigenschaften zu visualisieren.
Ich habe das Bild mittels Gimp nochmals um den Faktor 10 hochskaliert (Methode sinc), was eine Verhundertfachung der Fläche ergibt und natürlich alle "Artefakte" entsprechend mitvergrößert. Nochmals gecroppt, damit es nicht zu riesig wird.
Dann habe ich folgende Berechnung angestellt: der Siemensstern hat (wenn ich mich nicht verzählt habe) 90 Strahlen. Um 90 Schwarzweiß-Übergänge darzustellen, braucht man mindestens 180 Pixel (Nyquist-Kriterium).
Diese 180 Pixel habe ich in Gedanken in einem Kreis angeordnet. Der Durchmesser dieses Kreises beträgt (durch \pi geteilt) also 57,3 Pixel. Um diesen Kreis ins Bild einzuzeichnen, muss ich ihn ebenfalls um den Faktor 10 skalieren, also habe ich 572 Pixel genommen (leicht abgerundet).
Der Kreis müsste damit die Nyquist-Grenze visuell markieren.
Dabei habe ich in den Diagonalen einen Fehler begangen, weil dort die Diagonal-Auflösung um sqrt(2) geringer ist. Dies ist geschieht jedoch m.E. zu Lasten meiner Hypothese, nicht zu Gunsten.
Ich bin mir nicht sicher, ob ich nicht irgendwo einen Denk- oder Rechenfehler eingebaut habe. Bitte mitdenken und prüfen!
Jedenfalls sieht es so aus, als wären auch innerhalb der visualisierten Nyquist-Grenze (bitte nachmessen, ob das auch wirklich stimmt) "Artefakte" zu sehen.
Mit Schlussfolgerungen will ich noch vorsichtig sein. Das Ergebnis ist noch nicht allzu eindeutig. Es sollte noch reproduziert werden. Es wäre schön, wenn jemand den Effekt noch deutlicher hinkriegen könnte. Die Beweiskraft ist m.E. noch nicht ausreichend. Das sollte noch verbessert werden.
Beschreibung: |
|
Dateigröße: |
86.93 KB |
Angeschaut: |
3474 mal |
|
|
|
Forenlevel: Fotokünstler
|
Anmeldungsdatum: 10.03.2011 |
Beiträge: 689 |
|
|
Verfasst am: 09 Feb 2015 18:38 |
|
Soweit natürlich nicht!
Ich habe aber bereits einen ganz praktischen Nutzen aus diesen (zugegeben nicht einfachen) Überlegungen gezogen: nämlich Geld gespart.
Ich kenne das oben gezeigte Phänomen seit mehreren Jahren, und hatte über den mir bekannten Alias-Effekt (u.a. aus der Audio-Technik) die Schlussfolgerung gezogen, dass eine Linse besser als der Sensor sein muss, wenn dieser Effekt deutlich in Erscheinung tritt.
Deshalb habe ich mir im Weitwinkel-Bereich, wo es mir auf den Autofokus meistens sowieso nicht so ankommt, absichtlich keine L-Objektive gekauft. Sondern deutlich preiswertere, sofern sie den Effekt zeigen (möglichst auch am Rand ein wenig, wobei ich aber schwache Bildfeldwölbungen in Kauf nehme, die man bei WW sowieso kaum vermeiden kann).
Dann habe ich hier im Forum teilweise sehr konträre Ansichten zu meinen (vermeintlichen) Erkenntnissen gelesen. Das hat mich ein wenig herausgefordert, ob meine bisherigen Ansichten (halbwegs) stimmen, oder ich mir die falschen Objektive gekauft habe.
Vielleicht finden ja auch einige andere Leute (sicher nicht alle) das Thema ein wenig interessant. M.E. birgt es auch für andere ein Potential zum Sparen.
Ich werde in den nächsten Tagen kaum Zeit für dieses Forum haben, und die ganze nächste Woche auf Dienstreise sein. Dann ist wieder mehr Platz für andere Themen. Ich will hier nicht massiv an den Interessen anderer vorbei posten. Sagt es mir einfach, dann höre ich mit diesen etwas "verrückten" Themen auf.
|
|
Forenlevel: Fotograf +++
|
Anmeldungsdatum: 13.09.2007 |
Beiträge: 17007 |
Wohnort: Bochum-Wattenscheid |
|
Verfasst am: 09 Feb 2015 19:02 |
|
Ein ähnliches Verfahren verwende ich, um schnell mal zu kontrollieren, ob die Autofokus-Feinjustierung stimmt: Comutermonitor weiß, Mauszeiger zentral; den von leicht schräg fokussieren und auslösen. Es entsteht innerhalb des weißen Monitorabbildes ein moirébedingter Regenbogen (dort, wo die farbigen Subpixel scharf fokussiert werden). Liegt der Mauszeiger mittendarin, stimmt die Feinjustierung.
Das Testergebnis kann man ohne Zubehör direkt am Kameradisplay sehen.
Gruß martin
|
Zuletzt bearbeitet von polistro am 10 Feb 2015 9:07, insgesamt einmal bearbeitet _________________ EOS 7d Mk1 u. MK2
Sigma 8-16, EFs 15-85 is, EFs 17-55 2.8 is, EFs 18-135 is, Sigma 30 1.4, Sigma 50-150 2.8 os, Tamron 70-300 vc, EF 100 2.8 makro
|
Forenlevel: Fotograf +++
|
Anmeldungsdatum: 17.01.2009 |
Beiträge: 4838 |
|
|
Verfasst am: 09 Feb 2015 19:31 |
|
athomux hat folgendes geschrieben: | Ich will hier nicht massiv an den Interessen anderer vorbei posten. Sagt es mir einfach, dann höre ich mit diesen etwas "verrückten" Themen auf. |
Nein, nein, mach nur. Ich war nur neugierig.
|
_________________ EOS 5D III, Olympus OMD EM-10
|
Forenlevel: Fotokünstler
|
Anmeldungsdatum: 10.03.2011 |
Beiträge: 689 |
|
|
Verfasst am: 10 Feb 2015 17:51 |
|
polistro hat folgendes geschrieben: |
Das Testergebnis kann man ohne Zubehör direkt am Kameradisplay sehen.
|
Geil! So ist es nach meiner Erfahrung auch beim Siemensstern-Moiree: auch in JPG ooc, auch im Liveview-Display (um eventuelle Störquellen durch die Display-Pixel zu minimieren, dabei möglichst auf maximale Vergrößerung gehen).
Deine Autofokus-Justierungs-Methode werde ich mir merken. Die besten Verfahren sind immer diejenigen, für die man kaum Hilfsmittel braucht, und die man notfalls draußen im Feld einsetzen kann um etwas zu überprüfen.
|
|
Du kannst keine Beiträge in dieses Forum schreiben. Du kannst auf Beiträge in diesem Forum nicht antworten. Du kannst deine Beiträge in diesem Forum nicht bearbeiten. Du kannst deine Beiträge in diesem Forum nicht löschen. Du kannst an Umfragen in diesem Forum nicht mitmachen. Du kannst Dateien in diesem Forum posten Du kannst Dateien in diesem Forum herunterladen
|
Alle Zeiten sind GMT + 1 Stunde
Seite 1 von 1
|
|
|
|
|