Registrieren  |  FAQ  |  Suchen  |  Mitgliederliste  |  User MapGEO Map  |  Benutzergruppen  |  Login   | Album 
Neue Antwort erstellen
 Auflösungsvermögen des menschlichen Auges 

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Es gab ja schon öfters Diskussionen über die Sinnhaftigkeit von Vergrößerungen (Stichwort "Fototapeten").

Ich stimme mit meinen Vorrednern überein, dass es sinnlos ist, deutlich höhere End-Auflösungen anzustreben als wir Menschen mit unseren Augen verarbeiten können.

Frage: wie hoch ist die Auflösung unseres menschlichen Auges?

Um diese Diskussion auf Fakten zu lenken, habe ich nachrecherchiert und folgendes gefunden:

http://de.wikipedia.org/wiki/Aufl%C3%B6sungsverm%C3%B6gen

Dort steht, dass das menschliche Auge eine Winkel-Auflösung von etwa einer halben bis ganzen Bogenminute hat. Bei feinen Linien kann man u.U. deutlich bessere Auflösungen bis hinunter zu 0.2 Bogenminuten erreichen.

Eine Bogenminute = 1/60 Grad.

Nehmen wir im Folgenden mal ein gutes Auge mit 1/2 Bogenminute = 1/120 Grad Auflösung an ,d.h. wir verschieben die Betrachtung der ebenfalls möglichen noch besseren Linienauflösung von bis zu 0.2 Bogenminuten auf später.

Rechnen wir das mal auf die auflösbare Pixel-Größe bei 1 m Betrachtungsabstand um:

sin (1/120) = 0.000145 m = 0.145 mm

Frage: Wie groß ist nun die "Megapixelzahl des Auges"?

Das hängt davon ab, welches Bildformat wir wählen.

A) Nehmen wir der Einfachheit halber ein quadratisches Bild an, dessen Seitenlänge genau gleich wie der Betrachtungsabstand ist. Also 1 Qudaratmeter bei einem Betrachtungsabstand von 1 m. Damit kann man ganz einfach rechnen.

Die wahrgenommene relative Bildgröße / der Bildwinkel bleibt gleich, wenn man stattdessen nur 10cm Betrachtungsabstand annimmt, dann aber ein Bildformat von 10cm mal 10cm nimmt (was an eine Standard-Postkarte herankommt). Wer sich eine Postkarte genauer ansieht, kann das ganz leicht erreichen

Das Argument mit der "Fototapete" kommt hier also nicht zum Tragen.

Weshalb?

Die vom Auge auflösbare Pixelzahl bleibt gleich, wenn wir doppelt so nah herangehen, weil wir dabei auch die Bildpixel-Größe halbieren müssen. Oder alles gleichförmig dritteln müssen. Oder alles gleichförmig vierteln müssen. Und so weiter. Bei der Auflösung des Auges spielt der Betrachtungsabstand generell keine Rolle.

Oder nehmen wir ein 30cm mal 30cm Blatt (liegt zwischen DIN A4 und A3) und einem ganz normalen Buch-Lese-Abstand von 30cm.

Damit es sich leichter rechnen lässt, nehmen wir 1 Meter Abstand und 1 Quadratmeter Fläche.

Pro Meter haben wir 1 / 0.000145 Pixel = 6900 Pixel.

Bei einem Quadratmeter insgesamt also 6900 * 6900 Pixel, also 47.6 Megapixel.

Nochmals: diese Megapixel-Zahl als Auflösungsvermögen des Auges bei diesem Bildwinkel kommt auch bei einer quadratischen Standard-Postkarte heraus, weil man zur Auflösungs-Bestimmung des Auges dann auch gleich nah herangehen muss, wie die Karte breit (oder hoch ist). Nochmals: es hängt nicht vom Betrachtungs-Abstand, sondern ausschließlich vom Bildwinkel ab.

B) Nehmen wir an, Epps Annahme würde gelten, wonach die Bilddiagonale gleich dem Betrachtungsabstand wäre. Dieser Fall ist leider ein wenig komplizierter zu berechnen.

Die Pixelzahl von 1 / 0.000145 = 6900 Pixel liegt nun auf der Diagnonalen statt wie bei A) auf einer Seitenlänge.

Nehmen wir weiter an, die Bilddiagnale läge auf einem Bild mit dem Seitenverhältnis 3:2, also mit der Länge a = 3 * x und der Höhe b = 2 * x.

Nach Pythagoras gilt für die Diagonale d dann die Formel d² = a² + b² = 9 * x² + 4 * x² = 13 * x². Oder x² = d² / 13.

Die Fläche dieses Bildes beträgt (3 * x) * (2 * x) = 6 * x^2. Setzen wir x² = d² / 13 ein, kann kommt für die Fläche d^2 * (6/13) heraus.

Setzen wir für d die obige Pixel-Anzahl von 6900 Pixel ein, dann kommt eine Gesamt-Pixelzahl 6900 * 6900 * 6 / 13 = 22 Millionen Pixel heraus.

Bewertung:

Im Vergleich zu A kommt bei B) nur deshalb weniger Megapixel heraus, weil wir angenommen hatten, dass der Betrachter einen kleineren Blickwinkel wählt.

Vergrößern wir den Blickwinkel über die Annahmen von A) hinaus, dann können wir auch locker 100 Megapixel oder noch deutlich mehr erreichen.

Nehmen wir statt 0.5 Bogensekunden die feinere Linien-Auflösung von 0.2 Bogensekunden an, dann können wir die 100 Megapixel Grenze auch ohne weiteres sprengen.

Wenn wir wie bei einer Ausstellung am Bild vorbeigehen können (oder das Bild in der Hand halten und dabei verschieben), dann lässt sich die ganze Sache nochmals deutlich aufblähen.

Oder noch einfacher: unser Auge wandert einfach über das Bild. Bereits unsere Ur-Vorfahren in den Bäumen mussten das regelmäßig tun, um Feinde zu orten oder Freunde ausfindig zu machen. Wer einwendet, dass die 0.5 Bogenminuten ja nur in Bildmitte erreicht werden, dessen Einwand ist damit erledigt. Unser Auge wandert im Alltag ständig herum!

Falls wir zusätzich auch noch in das Bild reinzoomen können wie bei einem genügend großen Bildschirm, dann kann man auch ganz ganz schnell in den Gigapixel-Bereich vordringen. Kein Witz!

Umgekehrt kriegt man natürlich auch deutlich weniger Megapixel heraus, wenn man alle diese verschärfenden Annahmen weglässt und stattdessen ein unscharfes Auge bzw einen flüchtigen Betrachter annimmt.

Fazit: Als sehr grobe Richtschnur liegt man vermutlich nicht vollkommen daneben, wenn man im Standardfall so circa 20 bis 50 Megapixel Auflösung anstrebt, um Reserven für einigermaßen kritische Betrachter zu haben. Bei höheren Anforderungen kann mehr Auflösung aber auch nicht schädlich sein.

Selbstredend sollte dies von der gesamten Bildverarbeitungs-Kette unterstützt werden, beginnend beim Objektiv, über den Sensor, die Software, bis hin zum Ausgabemedium (welches auch immer zur Verwendung kommt).
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
 Re: Auflösungsvermögen des menschlichen Auges 

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
athomux hat folgendes geschrieben:
Selbstredend sollte dies von der gesamten Bildverarbeitungs-Kette unterstützt werden, beginnend beim Objektiv, über den Sensor, die Software, bis hin zum Ausgabemedium (welches auch immer zur Verwendung kommt).

„Selbstredend“ ist schön gesagt, aber genau beim Objektiv liegt doch der Hase im Pfeffer.

Bei APS-C bekommst du mit den derzeitigen Objektiven (auch beste Festbrennweiten) nicht mehr als gut 10 MP echte Auflösung durch das Glas. Bei KB dürfte mit ca. 25 MP echter Auflösung das Ende der Fahnenstange erreicht sein.

Da kannst du die Sensorauflösung hochdrehen wie du willst, eine weitere Verbesserung der möglichen Linienzahl wird zwar vorhanden sein, aber nur sehr marginal ausfallen und man erzeugt eine immer größere Datenmenge, die dann in keinem Verhältnis mehr zum Informationsgewinn steht.

Deshalb ist die 5DS zwar nicht automatisch sinnlos auf dem Markt. Profis, bei denen es auf das letzte Quäntchen an Auflösung ankommt, ist es egal, wenn das Aufwand/Nutzen-Verhältnis immer schlechter wird. Aber für den Anwender mit normalen Ausgabeformaten ist diese Cam sowas von witzlos, genauso wie die 24 MP Sensoren der neuen Einsteiger-APS-C-Cams.

Warum wohl hat die 7D2 „nur“ 20 MP, die 750/760D dagegen 24 MP? Weil jeder Profi realisiert, dass die Erhöhung von 20 auf 24 MP praktisch nur Performance kostet, schlussendlich aber gar nichts bringt. Bzw. wenn man mit der erzielbaren Auflösung höher hinaus muss als mit 20 MP an APS-C möglich, dann nimmt man definitiv gleich KB, das bringt dann wirklich einen Schub. Mit 24 MP an APS-C geht die realisierbare echte Auflösung auf geschätzt 11.5 MP hoch, an einer 5D2 hat man aber dagegen mit 21 MP etwa echte 18 MP (alles bewertet für die Auflösung in der Bildmitte). Selbst an den äußersten Ecken bringen gute Objektive an KB immer noch nennenswert mehr Auflösung als APS-C in der Mitte.

Der Hobbyanwender fragt sich dagegen schon lange, warum nicht auch Canon schon früher den Schritt auf 24 MP gemacht hat, so wie Sony und Nikon. Was es ihm bringt, hinterfragt er aber nur selten.

Wenn man also das Auflösungsvermögen des Auges als maßgebliche Größe miteinfließen lassen will, dann muss man in diesem Zusammenhang die max. mögliche Linienzahl der Objektive und nicht die nominale Sensorauflösung betrachten.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +++
Forenlevel: Fotograf +++
Anmeldungsdatum: 26.08.2013
Beiträge: 4815
Wohnort: Bayern
Antworten mit Zitat
Hallo athomux,

was Du da mathematisch-physikalisch ausführst, finde ich höchst interessant und deckt sich mit dem, was ich mir "immer schon gedacht habe". Fazit des Ganzen für mich: Es kann nicht schaden, möglichst viele Megapixel zu haben. Es ist ja auch dann von Vorteil, wenn man Bilder entzerren muss oder Objektivkorrekturen durchführt.
Zudem ist es fein, ein gutes Objektiv an der Kamera zu haben. Des weiteren habe ich Ergebnisse der höchstauflösenden Kameras der Mitbewerber gesehen, sie überzeugen einfach.
Ich werde mir eine der neuen 5Ds zulegen, Speicherplatz und Rechner-Performance sollten kein Problem sein, auch nicht in Zukunft.
Was ich mir noch wünschte: Eine höchstlichtempfindliche Kamera, meinetwegen mit relativ wenigen Megapixeln, aber möglichst rauscharm. Gut, von Sony gibt‘s da ja schon was in die Richtung, aber ich hätt‘s gern innerhalb des Canon-Systems

Besten Dank nochmal für Deine Ausführungen.

Wrtlbrmft
Offline Benutzer-Profile anzeigen Alle Beiträge von wrtlbrmft anzeigen Private Nachricht senden
 Hallo athomux, 

Forenlevel: Fotograf +++
Forenlevel: Fotograf +++
Anmeldungsdatum: 06.09.2007
Beiträge: 8745
Wohnort: Osterland
Antworten mit Zitat
Deine Betrachtungen zur sinnfälligen Pixeldichte auf dem Sensor meiner nächsten Kamera (falls ich mir denn eine zulegen sollte), ausgehend vom Auflösungsvermögen, interessieren mich, weil Du etwas Grundsätzliches ansprichst. In dem von Dir verlinkten wp-de-Artikel wird gleich zu Anfang unser Auge mit dem optischen Instrument - sagen wir ruhig FotoSensor - verglichen, bevor es zur Sache geht.
Ich sehe das so: Den KameraSensor hat der Ingenieur unter anderen so entworfen, daß die Kamera möglichst so sieht wie der Fotograf, also der Eigentümer dieser Kamera.
Müßte man in dem Zusammenhang nicht auch noch im menschlichen Auge eingebaute Sachen wie die V-Lambda-Kurve und die ZapfenStruktur in die Diskussion um den sinnfälligen KameraSensor einbeziehen?

_________________
Viele Grüße Hedwig

HS

„Es ist den Menschen im allgemeinen nicht gegeben, zu sehen, was ist.“ Hugo von Hofmannsthal
Hidden Benutzer-Profile anzeigen Alle Beiträge von Hedwig Storch anzeigen Private Nachricht senden E-Mail senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Hi Epp,

ich nehme Deinen Einwand sehr ernst, dass es auf die Gesamt-Informationsmenge ankommt, die durch das Objektiv hindurchkommt.

Ich habe dabei im Grundsatz die gleiche Befürchtung wie Du, nur bin ich etwas optimistischer als Du, denn ich vermute, dass heutige gute Objektive mehr leisten können als die von Dir befürchteten 10MP.

Dein Einwand lässt sich möglicherweise auch in neue Testverfahren für Objektive umsetzen: gesucht ist ein Messverfahren, das die "Gesamt-Megapixel eines Objektivs" misst.

Natürlich für APS-C und für KB jeweils getrennte Angaben. Und natürlich auch in Abhängigkeit von der Blende.

Dabei würde endlich die Sache mit der Mitten-Auflösung versus Rand-Auflösung in den m.E. richtigen Kontext gesetzt.

Ingeniereursmäßig gesprochen, wird das Flächenintegral der Objektiv-Auflösung über die gesamte Bildfläche berechnet. Dadurch würde übrigens auch endlich die leidige Sache mit der Sagittal- versus Meridional-Auflösung (die ja bekanntlich voneinander abweichen kann, siehe http://de.wikipedia.org/wiki/Sagittalebene_%28Optik%29 ) angemessen mitberücksichtigt. Wobei man auf unterster Mess-Ebene vermutlich die ansonsten übliche lokale MTF50 als Grund-Ermittlungsmethode verwenden und diese dann integrieren sollte (falls Du dem nicht widersprichst -- oder hättest Du eine bessere Idee, die der Realität noch näher kommt? Informationstheoretisch gesehn könnte man auch die Bandbreite im Frequenzbereich bestimmen und mit dem Signal-Rauschverhältnis multiplizieren und das dann alles über die Fläche integrieren, aber dafür habe ich keine Messinstrumente, und ich fürchte das könnte auch berechnungstechnisch die reine Hölle werden -- gesucht ist ein einfaches Rezept, das jeder mit ein klein wenig Fleiß zuhause durchführen kann)

Lass mir noch etwas Zeit, ich experimentiere gerade mit dem Koren-2003-Test und habe es geschafft, den Testchart auf einem Laserdrucker mit wesentlich weniger Interferenzen als auf meinen Epson XP-950 Tintenstrahler auszudrucken. Ich werde in den nächsten Tagen / Wochen versuchen, die von Dir gewünschten Mindest-Megapixel-Zahlen (als untere Schranke) näherungsweise über eine Annäherung des Flächenintegrals zu berechnen. Ich habe auch schon eine Idee, wie man den Störeinfluss der Sensor-Auflösung großteils kompensieren kann, muss das aber erst noch ausprobieren und dann validieren (durch Cross-Checks). Ich melde mich dann mit den Ergebnissen und den Berechnungs-Methoden, sobald ich etwas brauchbares herausgefunden habe.
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
athomux hat folgendes geschrieben:
Ich habe dabei im Grundsatz die gleiche Befürchtung wie Du, nur bin ich etwas optimistischer als Du, denn ich vermute, dass heutige gute Objektive mehr leisten können als die von Dir befürchteten 10MP.

Mag sein, dass die Informationsquelle photozone.de, auf die ich mich beziehe, etwas einseitig ist, weil ich nicht lange nach einer anderen suche.

Wenn ich mir aber dort die Linienzahlen der besten Festbrennweiten ansehe, dann ist mit 2600 Linien an APS-C einfach Ende der Fahnenstange. Das ergibt dann eine Auflösung von 2.6 x 2.6 x 3/2 = 10.1 MP. Zoomobjektive gehen bis etwa 2500 Linien hoch, was 9.4 MP entspricht.

Ok, das gilt jetzt für eine Cam mit 15 MP Auflösung. 24 MP ergeben laut Theorie 26.5% mehr Aulösung (Wurzel aus 24/15). Wenn man sieht, dass von 8 MP auf 15 MP nur ca. die Hälfte des theoretischen Auflösungsgewinns in die Linienzahlen einfließt, wird es von 15 auf 24 MP garantiert kein höherer Anteil sein. Nein, er ist garantiert geringer, weil die Objektive immer mehr an ihre Grenzen stoßen.

Meinen wir es gut und gestehen hier ebenfalls 50% des theoretischen Auflösungsgewinns zu, also 13.25%. Dann werden aus 2600 nun 2944 Linien und aus 2500 nun 2831 Linien, was wiederum 13.0 bzw. 12.0 MP entspricht. Ok, das ist jetzt ein bisschen mehr als ich zuvor sagte, aber ich glaube einfach nicht daran, dass man von 15 nach 24 MP noch dieselbe Steigerungsrate wie von 8 nach 15 MP erzielen kann.

Aber selbst wenn es bei 24 MP APS-C die 13 MP wären, gegen die 18 MP einer KB-Cam mit 21 MP kann man einfach nicht anstinken. Eine gute FB erreicht an KB am äußersten Rand immer noch ca. 3100 Linien, was 14.4 MP entspricht. D.h. selbst bei der positiven Annahme für APS-C löst KB am äußersten Rand immer noch besser auf als APS-C in der Mitte.

Aber was soll's, wenn ich ca. 10 MP echte Auflösung erzielen kann, bin ich doch für jedes übliche Ausgabeformat inkl. zukünftiger 4k-Monitore gewappnet, solange man keinen Bildbeschnitt durchführt. Die Devise "fill the frame" ist nach wie vor alles andere als ein falscher Ansatz. Wenn einem die Brennweite ausgeht, lässt sich ein Beschnitt natürlich nicht vermeiden, aber gerade die Objektive mit 300mm Brennweite und mehr zeigen alles andere als Spitzenwerte bei den Linienzahlen. Nimm z.B. das 300 L F4 IS, das kommt an KB auf 3300 Linien hoch, Linsen wie das 35 F2 IS und das wirklich billige 40er Pancake dagegen auf über 3700! Das nagelneue 100-400 II kommt jetzt immerhin auf 3450 Linien hoch, aber es hat auch ein bisschen anderes Preisschild als der Vorgänger.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 15.10.2008
Beiträge: 161
Wohnort: Österreich
Antworten mit Zitat
epp4 hat folgendes geschrieben:


Wenn ich mir aber dort die Linienzahlen der besten Festbrennweiten ansehe, dann ist mit 2600 Linien an APS-C einfach Ende der Fahnenstange. Das ergibt dann eine Auflösung von 2.6 x 2.6 x 3/2 = 10.1 MP. Zoomobjektive gehen bis etwa 2500 Linien hoch, was 9.4 MP entspricht.

epp4


Hallo epp4,

was du uns da vorrechnest, stimmt mindestens um einen Faktor 2 nicht. Man benötigt ja je mindestens ein helles und ein dunkles Pixel um eine Linie aufzulösen.
Ich möchte dir nicht zu nahe treten, aber das was du da vorrechnest stimmt nicht.

mfg
Andreas
Hidden Benutzer-Profile anzeigen Alle Beiträge von Tacitus anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Die Angaben bei photozone.de sind m.E. in sich widersprüchlich.

Da einzelne Linien keinen Sinn machen, sollte es sich eigentlich um 2600 Linienpaare (Schwarz-Weiß-Übergänge) handeln. Siehe auch Nyquist-Kriterium.

Analog-Filme werden gängigerweise in LP/mm = Line Pairs per mm angegeben.

Schauen wir uns beispielsweise http://www.photozone.de/canon-eos/512-canon_70200_28is2_50d?start=1 an. Im Erklärungstext wird dort als Einheit "LW/PH" angegeben. In der Grafik steht allerdings eine andere Einheiten-Angabe (bitte genau hinsehen und jeden Buchstaben beachten): "LW/PW", was nicht im Text erklärt ist, jedoch vermutlich "Line Width per Picture Width" bedeuten könnte.

Um ein theoretisches Limit von 2600 LP/PH darzustellen, bräuchte man, wie Andreas sagte, doppelt so viele Pixel, also 5200 Pixel. Dies allerdings in beiden Dimensionen. Das macht in der Fläche wegen der Qudarierung dann den Faktor 4 bei der Gesamt-Pixelzahl.

Also kämen analog zu Epps Rechnung rund 40 MP heraus. Das kann jedoch nicht stimmen, weil die EOS 50D nur 15 MP hat.

Falls es sich um 2600 LP/PW handeln würde, dann müsste man 5200 * 5200 * 2 / 3 ansetzen, was rund 18 MP ergeben würde, also nur knapp ein wenig zu viel. Das wäre zumindest eine Theorie, die die widersprüchlichen Angaben erklären könnte. Der korrekte Wert für die 15.1 MP läge bei 4752 / 2 = 2376 Pixel ~ 2400 Pixel, siehe http://de.wikipedia.org/wiki/Canon_EOS_50D

Das gibt immer noch eine kleine Differenz, die man jedoch mit der Genauigkeit der Grafik-Beschriftung erklären könnte.

Witzigerweise liefert das Canon EF 70-200mm f/2.8 USM L IS II laut Photozone ziemlich genau diesen Wert, soweit man die Grafik per Augenmaß interpoliert.

Das bestärkt meine Theorie, dass nicht diese Linse der begrenzende Faktor ist, sondern der Sensor.

An den 20MP meiner 70d kommen jedenfalls bessere Werte heraus, und zwar ebenfalls fast genau die Sensor-Auflösung. Das habe ich bereits nachgeprüft (allerdings mit einer anderen Messmethode, nämlich Siemensstern und Augenmaß-Bewertung der Schärfe-Grenze).

Das sind wie gesagt nur Vermutungen von mir, mit denen ich versuche, die offensichtlich widersprüchlichen und teilweise implausiblen Angaben vn Photzone zu erklären.

Ich verstehe allerdings nicht, was mit Line Width gemeint ist. Ist das dasselbe wie Line Pairs, oder nicht? Dementsprechend kann meine Vermutung natürlich auch falsch sein. Hat jemand eine Idee, was da los sein könnte?
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Administrator
Forenlevel: Administrator
Anmeldungsdatum: 25.02.2004
Beiträge: 2547
Wohnort: Hamburg
Antworten mit Zitat
athomux hat folgendes geschrieben:


Falls es sich um 2600 LP/PW handeln würde, dann müsste man 5200 * 5200 * 2 / 3 ansetzen, was rund 18 MP ergeben würde

Ich verstehe allerdings nicht, was mit Line Width gemeint ist. Ist das dasselbe wie Line Pairs, oder nicht? Dementsprechend kann meine Vermutung natürlich auch falsch sein. Hat jemand eine Idee, was da los sein könnte?


Üblich ist die Angabe LW/PH, was Line Width je Picture Height meint. LW meint etwas wie Linien-Stärke, wobei damit analog zu Angaben von Linienpaaren zwei Linien gemeint sind. Also 2.600 LW/PH meint nicht etwa 5.200 Linien sondern 2.600 Linien je Bildhöhe.

Wir messen auch in dieser Einheit, die für Digitale Bildsensoren üblicherweise genutzt wird. An der Sony A7R erreichen wir im RAW-Format mit Standard-Preset unter Lightroom mit den besten Objektiven (z.B. Zeiss Otus 55mm/1,4) in der Praxis maximal 4.200 Linien. Umgerechnet 4.200 x 4.200 *3/2 also eine Maximalauflösung von rund 26,5 Megapixel statt der nominellen 36,3 Megapixel. Hier liminiert aber nicht das Objektiv sondern auch die Art der Messung. Denn der Preset von Lightroom bzw. ACR ist sehr moderat ausgelegt. Durch Nachschärfen lässt sich die Auflösungsmessung teils erheblich steigern. Hinzu kommt, dass gängiger Messtandard MFT50 ist, wobei die Auflösung nur bis zu einem Mindestkontrast von bis zu 50% gemessen wird (Nyquistfrequenz).

Die Messung mit Messprogrammen wie das von uns (oder auch Photozone) genutzte IMATEST oder auch Quick MFT bzw. die Testcharts (nach ISO 12233) setzen generell auf starke Vereinfachungen und sind auf einen simplen Hell-Dunkel-Unterschied reduziert. Die tatsächlich wahrgenommene Motivdetailliertheit hängt aber auch von der Strukturart und subjektiven Phänomenen ab. So eine Auflösungsmessung empfehle ich daher, eher als soliden Anhaltspunkt zu verstehen, genauso wichtig sind auch praktische Erfahrungen, denn es gibt sehr viele weitere liminiterende Faktoren, von denen hier einige wenige genannt seien:
    - ISO-Rauschen reduziert die wahrnehmbare Auflösung
    - Je nach gewählter Blende treten schnell Beugungsunschärfen auf
    - Je nach Pixelgröße erfassen die kleinstmöglichen Unschärfekreise mehr als ein Pixel, das Bild wird unschärfer
    - Die Auflösung lässt üblicherweise im Randbereich teils deutlich nach
    - Kameras ohne 1. elektronischen Verschluss erzeugen in kritischen Zeitfenstern Erschütterungsunschärfen, was an der A7R oder Nikon D800 zu teils erheblichen Auflösungseinbußen führen kann
    - Gegenlicht, Nebel etc. setzt den Kontrast teils soweit herab, dass Feinstrukturen überhaupt nicht erkennbar sind
    - Atmosphärische Störungen oder erhitzte Luft verhindern auf größere Distanzen hochaufgelöste Aufnahmen, weitere Wetterphänomen wie Regen, Schnee etc.
    - Die Objektive sind nur auf spezielle Distanzen gerechnet
    - Farbsäume verhindern eine sinnvolle Auflösungsmessung und reduzieren die Bildauflösung
    - Die Objektive weisen nonlineare Anomalien auf: sind nicht sauber zentriert oder bringen sphärische Aberrationen (meist im Weitwinkel und Fähnchen an Sternen im Randbereich erkennbar)
    - Und - wenn man ihn einsetzt - natürlich ein nicht sauber oder ausreichend schnell arbeitender AF-Betrieb in allen Varianten (Back-Frontfokus, regelmässige Muster, zu wenig Kontrast, zu dunkel, zu langsam etc.)


VG Stefan
Offline Benutzer-Profile anzeigen Alle Beiträge von stefantf31 anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
@Stefan: Danke für die Klarstellung mit den LW/PH.

Du hast natürlich Recht, dass es noch beliebige andere Einflussmöglichkeiten gibt, was die effektiv mögliche Auflösung betrifft.

Ich habe aber vergleichsweise immer noch die Aussagen von renommierten Internetseiten im Kopf, dass selbst beste Linsen nicht über 70-80 Linienpaare/mm hinauskommen, bei einem gutem Kontrast, was das auch immer sein mag. Ok, diese Aussage ist jetzt schon etwa 10 Jahre alt, aber einen deutlichen Durchbruch bei den Objektiven sehe ich nicht, wenngleich es auch Verbesserungen gab, die lagen aber irgendwo im Bereich von 10%. 80 LPs bedeuten an APS-C 8.64 MP, 90 LPs 10.94 MP.

Dass dies nicht für alle Motive gleichermaßen gilt, es also je nach Kontrastverhalten sowohl Ausnahmen nach oben wie nach unten gibt, ist schon klar.

Eines ist für mich allerdings auch klar, eine Pixeldichte von 67 MP (bezogen auf KB), wie sie jetzt bei 24 MP APS-C vorherrscht, macht wirklich nur sehr begrenzt Sinn. Wenn man meint, die verfügbare Auflösung erhöhen zu wollen, dann nimmt man doch eine KB-Cam, da kommt dann vergleichsweise deutlich mehr rüber.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Hi Stefan,

ich denke, man sollte zwischen Limitierungen der Szene (wie z.B. Wetter-Einflüsse) und Limitierungen des Objektivs (wie z.B. Dezentrierung) unterscheiden.

Prinzipiell ist es richtig, bei einem Versuchsaufbau alle Einflüsse und auch Störeinflüsse aufzuzählen, die Einfuss auf das Messergebnis haben könnten.

Diese sollte man dann sortieren und kategorisieren.

Falls es um Objektiv-Tests unter Labor-Bedingungen geht, sollte man diejenigen ausklammern, die nur in der Natur vorkommen, wie z.B. Nebel. In einem Studio darf einfach kein Nebel sein, wenn man beispielsweise IMATEST-Untersuchungen macht.

Sodann braucht man eine Kategorisierung, also eine Aufzählung der am Versuchsaufbau beteiltigten Komponenten.

In unserem Fall eines Studio-Tests sind dies mindestens:

a) Szene bzw Messchart (das in der Realität eine begrenzte Druck-Auflösung hat) und damit zusammenhängende Parameter wie die Entfernung

b) Objektiv (und dessen untersuchten Einstellungen wie die Blende)

c) Kamera-Sensor

d) Verarbeitungs-Software, insbesondere JPG versus RAW mit Angabe des Demosaicing-Algorithmus etc

[e) das Ausgabemedium lassen wir hier in diesem Spezialfall weg, weil wir das als ideal annehmen können]

[f) auch das Auge des Betrachters / ursprüngliches Thread-Thema lassen wir weg. Es ist zwar nicht ideal, wird aber als "ausreichend scharf" angenommen, was sich auch durch 100% Ansichten etc erreichen lässt]

Sodann ist es wichtig, exakt zu definieren, was genau man erzielen will, d.h. welche Aussage über welche Komponente(n) man treffen will.

Ich glaube, an dieser Stelle sitzt vermutlich der Hase im Pfeffer.

IMATEST scheint mir eine universelle Test-Suite zu sein, die sehr viele verschiedene Dinge messen und bewerten kann. In http://www.imatest.com/docs/sfr_mtfplot/ sehe ich beispielsweise ein Kästchen "Noise Spectrum and Shannon Capacity", was mich ebenfalls sehr brennend interessiert, jedoch nicht in die Rubrik "Aussagen über Objektive", sondern eher in die Rubrik "Aussagen über Sensoren und die nachfolgenden Software-Algorithmen" fällt.

Was genau ist gefragt?

Bei einem Objektiv-Test oder gar Vergleichs-Test erwarte ich, dass möglichst nur Aussagen über die Komponente b) getroffen werden. Andere Kompomenten wie a) oder d) sollten als Störeinflüsse betrachtet werden.

Also: man darf bei der Szene Idealbedingungen voraussetzen bzw muss sie sogar anstreben, beim Objektiv jedoch nicht, weil das ja der Prüfling ist, dessen eventuelle Schwächen man aufdecken will.

Dies gilt auch für alle anderen Komponenten der Verarbeitungs-Kette. Auch beim Sensor und bei der Bayer-Interpolation muss man Idealbedingungen anstreben, ansonsten macht man u.U. keine Aussage über das Objektiv, sondern eine Aussage über die (oder Teile der) Verarbeitungs-Kette!

Aus dem Blickwinkel eines Wissenschaftlers betrachtet sehe ich dies als das Hauptproblem der Photozone-Webseiten: auf mich als Websurfer macht es bei flüchtigem Herumsurfen den Eindruck, als ob es dort um die Auflösung der Komponente "Objektiv" gehen würde.

Die real durchgeführten Experimente (deren detaillierte Beschreibung ich leider nicht gefunden habe, damit ich sie bei Bedarf nachvollziehen kann) scheinen jedoch nach genauer Betrachtung / Hinterfragen in Wirklichkeit eine Aussage über eine Kombination aus Objektiv, Kamera und Verarbeitungs-Software (welche? etwa gar JPG OOC?) zu machen.

Das ist nicht das, was ich haben will!

Bei genauem Lesen sieht man natürlich auf der Einstiegs-Seite, dass dort als verwendete Kamera EOS 50D angegeben ist. Was das bedeutet, steht jedoch nicht dort, zumindest nicht einfach und verständlich. Ein unbedarfter Websurfer ohne wissenschaftliche Ausbildung übersieht das leicht und glaubt möglicherweise, damit solle sichergestellt werden, dass die Kamera nicht der limitierende Faktor sei. Pustekuchen!

Ein weiteres Beispiel für diesen Pustekuchen: die Bayer-Interpolation kann prinzipiell nur bei der Luminanz, nicht jedoch bei der Chrominanz an die nominale Sensor-Auflösung heranreichen, und das auch nur unter Umständen. Im theoretischen Extremfall einer reinen Rotlicht-Szene kommt sogar nur 1/4 der nominalen Sensor-Auflösung als theoretischer Grenzwert heraus, weil nur die Rot-Pixel ein Signal geben können und alle anderen Farb-Pixel nichts zu sagen haben!

Der Versuchsaufbau als solcher (selbst wenn er revisionssicher dokumentiert wäre) ist m.E. nicht geeignet, klare Aussagen über Objektive als Einzel-Komponente zu treffen.

Diese Schwächen im Versuchsaufbau sind für mich nicht klar dokumentiert. (der Hinweis über die Nicht-Vergleichbarkeit zwischen Tests mit verschiedenen Kameras reicht dafür nicht)

Trotzdem ist die Photozone-Webseite für mich eine sehr nützliche Informationsquelle: zum relativen Vergleich zwischen verschiedenen Objektiven ist sie durchaus noch in gewissem Rahmen geeignet und hat mir dort bereits wertvolle Dienste geleistet. Um Gurken von Spitzen-Objektiven zu trennen, ist sie durchaus nützlich. Sie hat mich bereits vor Fehlkäufen bewahrt, und dafür bin ich dankbar!

Allerdings ist sie nach meiner Einschätzung nicht geeignet, innerhalb von Spitzen-Objektiven klare Unterscheidungen zu treffen, weil die Limitierungen durch den verwendeten Sensor und mehr noch durch die unvermeidliche Bayer-Interpolation das nicht hergeben können. Ich kann damit nicht die Zukunftssicherheit von Spitzen-Objektiven bewerten: werden diese bei 50MP oder 100MP in ein paar Jahren immer noch so gut sein, dass sie nicht die limitierende Komponente darstellen werden?

Ich weiß, dass man für jahrelange Messreihen nicht immer die neuste Kamera-Generation nehmen kann, weil man alle alten Objektiv-Tests jedesmal mit dem allerneusten Sensor wiederholen müsste. Deshalb bin ich gerade am Überlegen und Experimentieren, wie man einen Teil der genannten Schwächen des gängigen Versuchsaufbaus wenigstens ein wenig verbessern kann. Mehr dazu in späteren Postings von mir. Ich will an der Verbesserung konstruktiv mitarbeiten, nach einem Community-Modell.
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
athomux hat folgendes geschrieben:
Aus dem Blickwinkel eines Wissenschaftlers betrachtet sehe ich dies als das Hauptproblem der Photozone-Webseiten: auf mich als Websurfer macht es bei flüchtigem Herumsurfen den Eindruck, als ob es dort um die Auflösung der Komponente "Objektiv" gehen würde.

Wenn man es nur im Zuge der Komponente Objektiv sieht, ist es natürlich falsch.

Aber photozone sagt mir folgende Dinge:
1. Ich kann Objektive untereinander vergleichen, bzw. erhalte Infos über von der Auflösung unabhängige Schwächen.
2. Man sieht anschaulich, dass man mit KB deutlich höhere LW/PH erzielen kann als mit APS-C.
3. Man sieht anschaulich, dass die Erhöhung von 8 auf 15 MP bei APS-C nicht ansatzweise eine Erhöhung der Linienzahl mit sich brachte, wie man theoretisch bei dieser höheren Sensorauflösung erwarten könnte.

Daraus ziehe ich folgende Schlussfolgerungen:
a) Mit 15 MP an APS-C kann ich ohne weiteren Bildbeschnitt bereits eine Auflösung erzielen, die für alle mir denkbaren Ausgabeformate einschließlich eines in ein paar Jahren (auch bei mir) kommenden 4k-Monitors bzw. 4k-TV ausreicht. Es gibt für mich keinen Grund, nach einer höher auflösenden APS-C Cam wie meine 600D zu schielen.
b) Die weitere Erhöhung der Auflösung bei APS-C wie derzeit von 20 nach 24 MP ist für mich witzlos, weil man mit KB einen ungleich größeren Schluck aus der Pulle bekommen kann. Wer wirklich mehr als die vollumfängliche Abbildung eines 4k-TVs BRAUCHT, gehört mit ziemlicher Sicherheit zu einer Klientel, welche eine KB-Cam nicht vor unlösbare finanzielle Probleme stellt.
c) Ich sehe deshalb die Markteinführung der 5Ds tausendmal sinnvoller als die von 24 MP APS-C. Wer wirklich allerhöchste Auflösung braucht, für den ist die 5Ds das Gerät! Eine in der Auflösung aufgemöbelte APS-C Cam mit einem Mückenschiss mehr Auflösung als zuvor mit 20 MP wird dagegen auflösungstechnisch schon von der 6D an die Wand gefahren. Die 750/760D hake ich jedenfalls als Zugeständnis bezüglich des Megapixelwahns ab, weil man diesbezüglich nicht länger Sony und Nikon hinterherhinken wollte.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
epp4 hat folgendes geschrieben:
3. Man sieht anschaulich, dass die Erhöhung von 8 auf 15 MP bei APS-C nicht ansatzweise eine Erhöhung der Linienzahl mit sich brachte, wie man theoretisch bei dieser höheren Sensorauflösung erwarten könnte.


Diese Behauptung kann ich in dieser Form nicht nachvollziehen.

Nehmen wir das Vorgängermodell L IS I f/4, das bereits bei 8MP gestest worden ist: http://www.photozone.de/canon-eos/196-canon-ef-70-200mm-f4-usm-l-is-test-report--review?start=1

Zum Vergleich: dasselbe Objektiv bei 15 MP: http://www.photozone.de/canon-eos/449-canon_70200_4is_50d?start=1

Schauen wir uns erst die angegebenen "max"-Auflösungen der jeweiligen Mess-Methoden an:

2150 versus 2600

Rechnen wir nach: die Auflösung steigt mit der Wurzel der Megapixelzahl. Umgekehrt: die hochgerechnete Megapixelzahl steigt mit dem Quadrat der Auflösungen bzw Maximal-Auflösungen.

(2600 / 2150) ^ 2 = 1.46

Das ist zwar weniger als das theoretisch mögliche 15/8 = 1.875 , aber als vollkommen daneben bzw "nicht ansatzweise" kann ich das nicht einstufen; da sind m.E. durchaus spürbare Ansätze vorhanden.

Hierbei haben wir gegen die von Photozone angegebene Voraussetzung verstoßen, nämlich dass man (wegen Änderungen im Versuchsaufbau?) die Werte bei beiden Kameras gar nicht miteinander vergleichen darf.

Ich habe es gerade trotzdem gemacht, und zwar nicht um von der einen Messmethode auf die andere umzurechnen (was verboten wäre), sondern um lediglich zu zeigen, dass es sehr wohl eine signifikante Zunahme der gemessenen Auflösung bei signifikanter Erhöhung der Sensor-Auflösung gibt.

Machen wir das gleiche nun mit den besten gemessenen Tabellen-Auflösungen bei 70mm Brennweite und Blende 5.6:

(2399 / 2101) ^2 = 1.3

Voila! Das weicht nicht extrem von dem ab, was Photozone von sich selber behauptet, um welchen Faktor die Maximal-Auflösung angeblich steigerbar sein soll!

[Edit: ich hatte mich zuerst im Objektiv vertan und das nun hoffentlich richtig korrigiert - bitte um unabhängige Nachprüfungen]

Noch etwas: generell hängt die Abbildungs-Leistung eines Objektivs immer von der Frequenz ab. Daher darf man nicht erwarten, dass die reale Steigerung gleich gut wie die nominale Maximal-Auflösung erfolgen muss. Es ist zu erwarten, dass sie ein wenig schwächer erfolgt. Eine Steigerung um 30% ist m.E. immer noch signifikant.

Achtung! Umkehrschlüsse aus dieser Signifikanz-Betrachtung sind nicht ohne weiteres statthaft! Denn wir vergleichen hier zwei verschiedene Messverfahren, die beide durch die Sensor-Auflösung / nichtlineare Software-Algorithmen etc limitiert und daher fehlerhaft sind. Man darf nie ohne weiteres von einer fehlerhaften Methode in eine andere fehlerhafte Methode umrechnen. Das hier ist keine Umrechnung, sondern eine Plausibilitäts-Betrachtung.

Nachtrag 1: unter der Voraussetzung, dass die Messverfahren und Maximal-Angaben von Photozone keine allzu argen Fehler enthalten (wovon ich ausgehe), ist hiermit sogar bewiesen, dass die Kamera-Auflösung zumindest bei diesem Objektiv einen limitierenden Faktor darstellt. Denn die bei 15MP ermittelten 2399 sind auch deutlich größer als die bei 8MP angegebene Maximal-Auflösung von 2150!

Nachtrag 2: wer will, der darf diese Kontroll-Rechnung auch mit anderen Tabellen-Werten machen, sofern sich diese auf die gleiche Brennweite und die gleiche Blende beziehen. Die Erhöhung muss nicht überall signifikant sein! Vor allem in Unschärfe-Zonen ist zu erwarten, dass die Steigerung geringer ausfällt. Je nach versteckten Fehlern / Messfehlern etc kann es sogar zu einzelnen Verkehrtherum-Effekten kommen (da z.B. durch die notwendige Quadrierung auch Fehler mitquadriert werden).

Hat jemand Lust, das systematisch zu machen? Wir könnten vielleicht etwas daraus lernen....


Zuletzt bearbeitet von athomux am 14 März 2015 21:59, insgesamt einmal bearbeitet
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
athomux hat folgendes geschrieben:
Diese Behauptung kann ich in dieser Form nicht nachvollziehen

Sorry, ich komme da auf ein bisschen andere Zahlen.

Fangen wir an mit der Differenz zwischen 8 und 15 MP.
Die Wurzel aus 15/8 beträgt 1.3693, also sind theoretisch 36.93% mehr Auflösung zu erwarten.

Rein zufällig hatte ich mir seinerzeit auch das 70-200 IS F4 als anerkannte Spitzenlinse als Beispiel genommen. Es gibt ja nicht allzu viele Spitzen-Objektive, welche den Test an beiden Auflösungen gesehen haben.

Dann nahm ich die höchste Linienzahl bei 70mm:
- 2101 bei 8 MP
- 2399 bei 15 MP
von 2101 auf 2399 sind es 14.18% Steigerung also nicht annähernd die Hälfte der theoretischen Differenz

Dann noch die höchste Linienzahl bei 200mm:
- 2122 bei 8 MP
- 2501 bei 15 MP
von 2122 auf 2501 sind es 17.86% Steigerung also ziemlich genau die Hälfte der theoretischen Differenz

Die Zahlen bei 135mm hatte ich seinerzeit nicht berücksichtigt, aber da sieht es mit 18.89% Steigerung wirklich nur minimalst besser aus.

Sorry, wenn man von 8 nach 15 MP nur die Hälfte der theoretischen Mehrauflösung erhält, ist das doch ein eindeutiges Zeichen, dass ein Element schön langsam sehr deutlich in die Begrenzung geht.

Man kann es auch wie folgt aufziehen:
An 8 MP APS-C kommt dieses Objektiv mit 2122 x 2122 x 3/2 = 6.75 MP auf immerhin 84% der Sensorauflösung.
An 15 MP APS-C kommt es mit 2501 x 2501 x 3/2 = 9.38 MP nur noch auf 62.5% der Sensorauflösung.
Mit einer weiteren Erhöhung der Sensorauflösung wird zwar die Linienzahl auch weiter steigen, der Prozentanteil der Sensorauflösung aber immer weiter sinken.

Bevor wir uns falsch verstehen, eine Erhöhung von 2122 auf 2501 Linien ist durchaus signifikant, aber es steht in keinem Verhältnis zum theoretischen Wert, was wiederum meiner Meinung nach den Umkehrschluss erlaubt, dass wie gesagt jede weitere Erhöhung der Sensorauflösung immer marginalere Verbesserungen mit sich bringen wird.
Und deshalb sollte man einfach bei APS-C den Schirm bezüglich mehr MP endlich einmal zumachen und das Maximum der Auflösung KB überlassen. Man muss sich immer vor Augen halten, dass hier ein voll kleinbildtaugliches Bajonett vorliegt, also gehört zur Ausnutzung der bestmöglichen Auflösung (sofern man sie braucht) ein entsprechend großer Sensor dahinter verbaut.

Wie gesagt, die 24 MP entsprechen 62 MP an KB, also eine nochmals deutlich höhere Pixeldichte als der neue Megapixel-Überflieger 5Ds mit sich bringt!
Was soll also der Käse mit den 24MP an APS-C? Im Prinzip ist doch eine 760D nichts anderes als eine nochmals in der Auflösung aufgemöbelte 5Ds mit Bildbeschnitt, weil ja 1:1 dieselben Objektive davor hängen. Oder glaubt jemand, es gäbe EF-S Objektive, die eine sehr deutlich höhere Linienzahl/mm aufweisen als gute EF-Linsen? Also quasi eine wundersame Linienzahlerhöhung durch Verringerung des Bildkreises bei ansonsten unverändertem Bajonett. Außerdem, da wo der Bildbeschnitt von APS-C seine echten Vorteile zeigt, also im Telebereich, gibt es jenseits der 250mm überhaupt keine Objektive im DX-Format, zumindest nicht von Canon!

Deine 2600 Linien konnte ich übrigens nirgends finden.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
epp4 hat folgendes geschrieben:
Sorry, wenn man von 8 nach 15 MP nur die Hälfte der theoretischen Mehrauflösung erhält, ist das doch ein eindeutiges Zeichen, dass ein Element schön langsam sehr deutlich in die Begrenzung geht.


Hi Epp, ich glaube wir meinen beide das gleiche, sehen es nur rein menschlich aus verschiedenen Blickwinkeln.

Ein Optimist wird behaupten, das Glas sei halb voll, während ein Pessimist sagen wird, dass es halb leer sei.

Ob Du nun die Megapixel oder die Auflösungen vergleichst, macht keinen wirklichen Unterschied (außer dass die Prozentzahlen wegen der (Nicht-)Quadrierung psychologisch unterschiedliche Wirkungen entfalten können).

Ja, Du hast Recht, das Objektiv geht "schön langsam" in irgendeine Begrenzung, die wir beide nicht kennen. Ich würde gerne genau wie Du herausfinden, wo diese Begrenzung denn nun genau liegt.

Leider geht das mit den Messverfahren nicht, die ich auf Photozone finde, weil das Nyquist-Kriterium keine brauchbaren Aussagen über alles zulässt, was sich jenseits der Nyquist-Grenze befindet. Genau dafür interessieren wir uns beide!

Deshalb experimentiere ich gerade mit verschiedenen Ideen, wie man durch Änderungen des Versuchsaufbaus die Nyquist-Grenze möglicherweise knacken kann.
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Du kannst Dateien in diesem Forum posten
Du kannst Dateien in diesem Forum herunterladen
Alle Zeiten sind GMT + 1 Stunde  
Seite 1 von 3  

  
  
 Neue Antwort erstellen  

Traumflieger-Video: Hähnel Combi TF per Funk Kamera auslösen und blitzen (100m) !  kabellos blitzen mit dem Slave Flash - neuer Traumflieger-Report !  das Profihandbuch zur Canon EOS 60D !