Registrieren  |  FAQ  |  Suchen  |  Mitgliederliste  |  User MapGEO Map  |  Benutzergruppen  |  Login   | Album 
Neue Antwort erstellen
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
epp4 hat folgendes geschrieben:
Deine 2600 Linien konnte ich übrigens nirgends finden.


Diese Zahl stammte aus dem Test der neueren L II IS 2.8er Version, die ich versehentlich zuerst angeklickt hatte. Leider hatte ich dann vergessen, diese Zahl mitzuändern. Du hast Recht: bei der f/4 I Version steht 2700 statt 2600.

Das macht mich nur umso stutziger. Wenn die Ergebnisse innerhalb der 15MP Tests miteinander vergleichbar sein sollen, dürfte sowas nicht sein. Wie reproduzierbar / wie gut validiert sind die Photozone-Angaben wirklich?

Ich messe grundsätzlich viel lieber alles selber nach, anstatt irgendwelchen schlecht nachvollziehbaren Angaben zu glauben....

Denn meine dabei gemachten Fehler sind dann wenigstens meine eigenen, für die ich dann die Verantwortung trage .... deswegen finde ich offene Diskussionen wichtig, um solche Fehler auszumerzen.

Zitat von Linus Torvalds: "given enough eyeballs, any bugs are becoming shallow" (oder so ähnlich).
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +++
Forenlevel: Fotograf +++
Anmeldungsdatum: 13.09.2007
Beiträge: 17086
Wohnort: Bochum-Wattenscheid
Antworten mit Zitat
Ich hätte da für die Rechenkünstler mal eine simple Anregung und die heißt Teleconverter.

Wenn ein bestimmtes Objektiv an einer bestimmten Kamera einen bestimmten Detailreichtum auf den Sensor bringt und wenn dann die zusätzliche Verwendung des Teleconverters diesen Detailreichtum erhöht, dann war ja die Sensorauflösung offenbar das schwächste Glied der Kette.

Wird das Bild jedoch nur größer (genauer der zentrale Ausschnitt) ohne zusätzliche Details, war das Objektiv der Flaschenhals (oder aber der Converter verschlechtert das eigentlich mögliche bessere Bild wieder)

Gruß martin

_________________
EOS 7d Mk1 u. MK2
Sigma 8-16, EFs 15-85 is, EFs 17-55 2.8 is, EFs 18-135 is, Sigma 30 1.4, Sigma 50-150 2.8 os, Tamron 70-300 vc, EF 100 2.8 makro
Offline Benutzer-Profile anzeigen Alle Beiträge von polistro anzeigen Private Nachricht senden
  

Forenlevel: Administrator
Forenlevel: Administrator
Anmeldungsdatum: 25.02.2004
Beiträge: 2547
Wohnort: Hamburg
Antworten mit Zitat
@Epp: Ich glaube schon, dass APS-C 24 Megapixel verträgt. Die Samsung NX1 packt sogar 28 MP auf den APS-C-Sensor. Nach unserer Messung jeweils mit dem Canon 24mm/1,4L II USM via Adapter erreicht die NX1 bei der besten Blende damit eine minimal höhere Auflösung als Canons Vollformat an der 5D 3 oder 5D 2. Die Pixelgrenze mit einem Pitch von 3,6µm ist damit aber wohl erreicht. Panasonic oder Olympus trauen sich da auch nicht, unterhalb der Untergrenze von 3,8µm-Pixel zu verbauen (an Mikro4/3-Sensoren mit 16 Megapixel bei 2x-Crop). Auch die Lumix FZ1000 mit 20 Megapixel und 2,7x-Sensor (1''-Klasse) hält sich eisern an die Konvention, erreicht damit aber - dank eines sehr guten Objektivs - immerhin noch von der Auflösung das Niveau von Canons 18-Megapixel-Sensoren mit einem Canon 24mm/1,4L II USM. Letzteres bedient sogar noch die Auflösung einer Sony A7R.

Diese Grenze kommt nicht von ungefähr, weil die z.B. die förderliche Blende dann schon bei rund f5,6 liegt (bzw. weil die Unschärfekreise mehr als 1 Pixel erfassen, Formel: Pixelpitch 3,6µm / 0,61) und typische Kitobjektive zumindest am Teleende keine höhere Lichtstärke liefern. Hochgerechnet auf Vollformat ergeben 3,6µm-Pixel rund 66 Megapixel. So kleine Pixel rechtfertigt Samsung dann auch nunroch mit der BSI-Technologie. Die 66 Megapixel am Vollformatsensor dürften in der Tat nicht mehr linear von der Auflösungs-Effektivität arbeiten aber hier sehe ich die Obergrenze, oberhalb derer zur Zeit eine Pixelsteigerung wenig Sinn mehr machen dürfte.

Dass Microsoft bzw. Nokia mit der Handy-Fotofunktion am Lumia 1020 bei 37,5 Megapixel und Pixel - ich meine - unterhalb von 1µm die Grenze zu sprengen versucht, zeigt, dass Marketing manchmal wichtiger zu sein scheint. Und ich stimmt Dir zu: es braucht für sehr hohe Auflösungen eben auch entsprechende Objektive und da hat man bei nativen APS-C-Optiken keine so große Auswahl.

VG Stefan
Offline Benutzer-Profile anzeigen Alle Beiträge von stefantf31 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
polistro hat folgendes geschrieben:
Ich hätte da für die Rechenkünstler mal eine simple Anregung und die heißt Teleconverter.


Volltreffer! Genau daran arbeite ich unter anderem. Allerdings kämpfe ich noch mit einer Abschätzung der dabei eingeführten zusätzlichen Fehler / einer Cross-Validierung.
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Administrator
Forenlevel: Administrator
Anmeldungsdatum: 25.02.2004
Beiträge: 2547
Wohnort: Hamburg
Antworten mit Zitat
athomux hat folgendes geschrieben:
polistro hat folgendes geschrieben:
Ich hätte da für die Rechenkünstler mal eine simple Anregung und die heißt Teleconverter.


Volltreffer! Genau daran arbeite ich unter anderem. Allerdings kämpfe ich noch mit einer Abschätzung der dabei eingeführten zusätzlichen Fehler / einer Cross-Validierung.


Du wirst nicht drumherum kommen und an einer 5Ds / 5DsR zahlreiche Objektive vollständig durchmessen müssen. Das ist professionelle Laborarbeit, dazu gehört ein hochwertiger Getriebeneiger (z.B. arca-cube 1), kontrollierte Lichtbedingungen, ein professionelles Studiostativ, ein großes Testchart, eine entsprechende Mess-Software und sehr viel Praxiserfahrung, um zahlreiche Fehler zu vermeiden (wie etwa eine nicht exakt planparallel Ausrichtung). Jetzt bleibt auch noch zu hoffen, dass die 5Ds-Modelle auch wirklich einen 1. elektronischen Verschluss bieten, sonst wird die Messung durch Erschütterungsunschärfen teils erheblich verfälscht. Canon hat wohlwissend immerhin gegen das Problem eine Auslöseverzögerung durch Trennung von Belichtung und Verschlussvorhang verbaut.

VG Stefan
Offline Benutzer-Profile anzeigen Alle Beiträge von stefantf31 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
@Stefan danke für diese sehr wertvollen Tipps!

Ich habe ein hochwertiges Carbon-Stativ und einen Manfrotto Junior Getriebeneiger (mit dem ich sehr zufrieden bin), habe auch an Planparallelität und Spiegelvorauslösung gedacht, nur mit meiner Lichtquelle hapert es noch. Vielleicht ist das aber auch ein Vorteil, weil die unvermeidlichen Erschütterungen bei langen Belichtungszeiten wieder zeitlich ausgemittelt werden.

Sorgfältiges und genaues Arbeiten sowie Hinterfragen aller möglichen Störquellen bin ich von anderen Experimenten her bereits gewohnt. Die mir bekannten Störquellen äergern mich einfach nur.

Immerhin habe ich es trotzdem geschafft, mit meiner Amateurkamera 70d und mit Augenmaß-Bewertung statt professioneller Analyse-Software die Auflösung des Sensors bei einigen meiner Objektive ziemlich genau zu erreichen. Wenn ich mich nicht täusche, kann ich sogar schwache Alias-Phänomene erkennen.

Ich muss mal mit FFTW (Fastest Fourier Transformation in The West) experimentieren und Frequenzanalysen selber durchführen (mit der zugrundeliegenden mathematischen Theorie bin ich halbwegs vertraut).

Falls die IMATEST-Ergebnisse deutlich weniger beim demselben Bild anzeigen sollten: dann könnte ich vielleicht anfangen, den Spieß herumzudrehen. Denn irgendetwas stimmt nach meinem Bauchgefühl zumindest bei den Angaben von Photozone nicht.

Es ist verdammt einfach, bei der Bayer-Interpolation oder an anderen Software-Stellen numerische Genauigkeit bzw Auflösung zu verlieren, ohne es zu merken. Deshalb experimentiere ich auch mit Resampling, um eventuelle Verarbeitungsfehler in späteren Software-Pipeline-Stufen zu minimieren.

Im neuesten c't Sonderheft Fotografie steht übrigens etwas zum Thema Rawkonverter-Qualität: Photoshop / Lightroom versus Opensource wie z.B. Rawtherapee. Das könnte übrigens auch einen bisher unerkannten Einfluss haben, der vielleicht ein paar Diskrepanzen erklären könnte!

Ich muss mir halt erstmal mit dem helfen, was ich habe, und was ich mir aus verschiedenen Software-Quellen zusammenbasteln oder notfalls auch selbst programmieren kann (was aber mein Zeitbudget als Foto-Hobbyist auch leicht sprengen kann).
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Administrator
Forenlevel: Administrator
Anmeldungsdatum: 25.02.2004
Beiträge: 2547
Wohnort: Hamburg
Antworten mit Zitat
athomux hat folgendes geschrieben:
Falls die IMATEST-Ergebnisse deutlich weniger beim demselben Bild anzeigen sollten: dann könnte ich vielleicht anfangen, den Spieß herumzudrehen. Denn irgendetwas stimmt nach meinem Bauchgefühl zumindest bei den Angaben von Photozone nicht.


Mir ist eine grundsätzliche Barriere bei der Mess-Software aufgefallen, die unterschiedliche Distanzen betrifft. Je kleiner der Mess-Streifen wird, umso höher fallen die Linien-Messergebnisse aus. Das hat auch nichts mit einem zu wenig hochdetaillierten Mess-Streifen zu tun sondern mit Ungenauigkeiten der Mess-Software. Die misst ja die Breite der Übergangszone von Hell nach Dunkel und errechnet daraus die Auflösung (MFT). Wird die Referenzzone durch eine größere Motivdistanz kleiner, schleichen sich erhebliche (Rundungs-)Differenzen ein. Jetzt stellt sich das nächste Problem: aus welcher Distanz soll man messen? Objektive reagieren auf unterschiedliche Distanzen teils unterschiedlich. Wir lösen das Problem bei der Sensor-Auflösungsmessung durch eine grundsätzlich identische Testchart-Entfernung mit dem selben, hochauflösenden Objektiv. Bei kleineren Sensoren müssen wir die Distanz aber um den Cropfaktor erhöhen. Noch problematischer ist die Messung aber bei unterschiedlichen Brennweiten, wenn man die Objektivauflösung an einem Sensor ermitteln will. Das Problem ist in der Praxis ungelöst, man denke an Fischaugen, für die man bei Messung auf Unendlich auch ein unendlich großes Testchart benötigen würde.
Insoweit sehe ich zwar die Relevanz nach der Fragestellung, wo die Auflösungsgrenzen von Objektiv und Bildsensor liegen. Letztlich wird man eine gewisse Sicherheit aber nur durch viele Testversuche in ganz unterschiedlichen Szenarien bekommen. Die C't hat früher z.B. auch nach Augenmaß die Auflösung beurteilt, schreibt aber, dass sie das Problem hatten, dass die Ergebnisse dann von der jeweiligen Tagesform des Testers zu sehr abhingen.

Wir machen zwar immer mal wieder Checks der gängigen RAW-Konverter aber der Defacto-Standard ist halt Adobe Camera RAW. Und das kommt nicht von ungefähr, weil Adobe sich die seinerzeit beste Technologie eingekauft hat (mit dem RAW-Shooter) und sie weiter optimiert hat. Unterm Strich ist es der mächtigste und idR auch aktuellste RAW-Konverter, er bietet z.B. eine bessere Dynamikbearbeitung als Capture One oder Canons Digital Photo Professional. RAW Therapee und auch DXO kommen vom Demosaiking bwz. der Dynamikverarbeitung zwar recht nah an Lightroom bzw. ACR heran, sind aber nicht so umfassend bestückt, was die Datenbankfunktionen und zahlreiche weitere Sonderfunktionen (z.B. Plugins) angeht.

Adobe hat aber immer mal wieder Probleme mit einzelnen Kameras und bessert auch nicht immer nach. Ein heftiger Magentastich in den 5D III-RAWs in den Tiefen wird nicht weiter überarbeitet, die Fuji X-T1 sieht per Preset ziemlich unscharf aus. An der Samsung NX1 hatten sie lange Zeit chromatische Aberrationen im Bildzentrum (was ja nicht sein darf) drin, die das ganze Ergebnis unscharf machten. Letzteres war Grund für einige Anwender, zu RAW Therapee zu wechseln. Mittlerweile hat Adobe aber an der NX1 nachgebessert. Was Adobe aber klammheimlich bei einigen Herstellern macht, ist noch eine ganz andere Sache. Objektive von Panasonic werden z.B. per Preset gleich von CA's befreit. Wer das nicht weiß, wird die Objektive bejubeln ob ihrer Farbsaumfreiheit.

VG Stefan
Offline Benutzer-Profile anzeigen Alle Beiträge von stefantf31 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
OK, schauen wir uns zusammen verschiedene Möglichkeiten an, was vielleicht an verschiedenen Stellen schiefgehen könnte bzw welche Fehlerquellen existieren könnten.

Das folgende sind kritische Hinterfragungen, keine absoluten Behauptungen.

stefantf31 hat folgendes geschrieben:
unterschiedliche Distanzen betrifft. Je kleiner der Mess-Streifen wird, umso höher fallen die Linien-Messergebnisse aus. Das hat auch nichts mit einem zu wenig hochdetaillierten Mess-Streifen zu tun sondern mit Ungenauigkeiten der Mess-Software.


Meine erste Vermutung wäre, ohne Witz, die Druck-Auflösung des Charts. Genauer: Interferenzen / Schwebungen zwischen der Sensor-Sampling-Frequenz und der Raster-Wiederholungs-Frequenz eines Tintenstrahl- oder Laser-Druckers. Diese sollten nicht zu nahe beisammen liegen.

Der Schwebungs-Effekt ist Orchester-Musikern wohlbekannt. Ohrenbetäubend schlimm / zum Davonlaufen wird es beispielsweise, wenn mehrere Kindergarten-Kinder Blockflöte spielen. Professionelle Blockflötisten können nicht nur die Frequenz, sondern auch die Phasenlase ihres Tons so regeln, dass mehrere Blockflöten unisono spielen können, ohne dass professionell geschulte Zuhörer / Musiker irgendwelche Schwebungen / Interferenzen hören können.

Man muss wissen, dass jedes Sampling immer auch die Träger-Frequenz künstlich in das Ergebnis hinzufügt. Egal wie gut man z.B. mittels AA-Filtern dagegen angeht. Es bleibt immer etwas übrig. Dies gilt nicht nur für die Sensor-Frequenz, sondern auch für eine eventuelle Druck-Frequenz eines Testchart-Druckers.

Wir haben dann also mindestens zwei verschiedene Träger-Frequenzen, die interferieren können.

Ich weiß nicht, mit welchem Verfahren bzw in welcher Auflösung professionelle Charts hergestellt werden. Kommen dabei irgendwelche Rastergrafik-Verfahren zum Einsatz, eventuell auch nur in Druck-Vorstufen?

Um Interferenzen einigermaßen sicher auszuschließen, sollten Charts mit mindestens der 10-fachen Auflösung ausgedruckt werden als der zugehörige (umgerechnete) Pixel-Pitch des Sensors.

Warum so viel?

Weil es nicht nur auf die Frequenz ankommt, sondern auch auf die Phasenlage.

Beispiel: eine Fourier-Transformation ist nur dann verlustfrei, wenn für jede Frequenz nicht nur die Amplitude, sondern auch die Phase bestimmt wird. Nur dann kann man mittels der inversen Fourier-Transformation das Original-Signal exakt rekonstruieren (verlustfrei).

Ich habe ganz ohne Mess-Software wie z.B. einer Fourier-Transformation rein mit dem Auge damit experimentiert (Koren-Test in verschiedenen Druck-Auflösungen und bei verschiedenen Abständen bei gleichem Objektiv). Und ich beobachte interessanterweise genau das gleiche wie Du, nur mit dem bloßen Auge auf der 100% Ansicht!

Deshalb habe ich obiges als Schlussfolgerung gezogen.

Du kannst das bei Dir ebenfalls mit dem Augenmaß überprüfen. Falls der Effekt auch per Augenmaß sichtbar sein sollte, richtet sich der Verdacht m.E. eher gegen die Szene als gegen die Auswertungs-Software.

Wobei sich beide Phänomene ja nicht gegenseitig ausschließen.

In jedem Fall, selbst bei besten Drucker-Auflösungen, gibt es immer eine Interferenz zwischen dem Test-Signal auf dem Chart und der Sensor-Sampling-Frequenz.

Das ist auch nicht von Pappe. Nur ist das ja genau das, was wir brauchen, um messen zu können. Wir müssen nur die davon hervorgerufenen Phänomene sorgfältig untersuchen und bewerten.

stefantf31 hat folgendes geschrieben:
Die misst ja die Breite der Übergangszone von Hell nach Dunkel und errechnet daraus die Auflösung (MFT). Wird die Referenzzone durch eine größere Motivdistanz kleiner, schleichen sich erhebliche (Rundungs-)Differenzen ein.


Dies berührt m.E. ein grundsätzliches Problem: wenn sich die Frequenz des Testsignals zu schnell über kurze Distanzen ändert, dann hat man zu wenig Perioden, um sie genau messen zu können.

Falls man nur 1 Periode zur Frequenzbestimmung hat, dann wird jedes Messverfahren sehr schnell prekär. Denn dann kann neben der Phasenlage ein eventueller Jitter ganz massiv stören und verfälschen.

Mit Rundungen darf man in diesem Bereich meiner Meinung nach überhaupt nicht arbeiten, weil das einen künstlichen Jitter erzeugt.

Ich weiß das aus eigener Hör-Erfahrung mit Audio-Technik: auch dort stört Jitter bei der CD-Frequenz von 44 kHz ganz massiv bei der D/A oder A/D-Wandlung. Jitter ist für High-End-Ohren sehr deutlich hörbar! Auch wenn man es früher nicht messen konnte oder wollte (was sich inzwischen geändert hat).

Im Audio-Bereich gibt es eine einfache Lösung: man sampelt einfach mit viel höherer Frequenz, am besten 96 oder 192 kHz. Das ist kein Overkill! Denn damit wird u.a. auch der Jitter deutlich reduziert. Für das CD-Mastering muss man das dann in Software heruntersampeln, und dabei wird auch der Jitter entstprechend reduziert (sofern man die richtige Resampling-Methode wie sinc benutzt).

Ich vermute, dass man diese Audio-Erfahrungen auch auf die Bildanalyse übertragen kann.

Bei einer möglichen Abhilfe für unsere Mess-Zwecke bin ich ehrlich gesagt ein wenig ratlos, weil wir die Sensor-Auflösung nicht schnell mal vervierfachen können, wie die Audio-Techniker das gegenüber dem menschlichen Ohr mit heute gängiger Standard-Technologie leicht können. Hier stecken wir im Bildverarbeitungs-Bereich eher noch in der Kinderschuhen. Das (geschulte) Ohr reagiert viel stärker auf Jitter oder Phasen-Verfälschunen als auf Frequenzband-Einschränkungen, aber zum Glück kann man das mit gängiger Technik leicht in den Griff kriegen. Es würde mich nicht wundern, wenn das menschliche Auge ähnliche Empfindlichkeiten beim Jitter und/oder bei der Phasenlage hätte. Das Leben unserer Vorfahre in den Bäumen könnte möglicherweise von solchen Fähigkeiten abgehängt haben. Wenn das nachgewiesen werden könnte, dann wäre auch das Video-Oversampling kein Overkill, sondern hätte auch jenseits der aktuellen Megapixel-Diskussion eine gewisse Berechtigung.

Möglicherweise ist Dein guter alter Siemensstern hier hilfreich, weil er im Fall Deines Buches (aus dem ich meinen habe) einen Kreis mit 90 Schwarz-Weiß-Übergängen zur Verfügung stellt. Wenn man über 90 Perioden mittelt, dann mitteln sich auch die Fehler besser aus.

Beim Koren-Test oder damit verwandten Charts hat man weniger Perioden, d.h. man setzt zwangsläufig darauf, dass der Bildsensor und der nachfolgende Algorithmus einen sehr geringen Jitter aufweist bzw hinzufügt. Ob das wirklich erfüllt ist..... ich bin da eher skeptisch.

stefantf31 hat folgendes geschrieben:
Jetzt stellt sich das nächste Problem: aus welcher Distanz soll man messen? Objektive reagieren auf unterschiedliche Distanzen teils unterschiedlich. Wir lösen das Problem bei der Sensor-Auflösungsmessung durch eine grundsätzlich identische Testchart-Entfernung mit dem selben, hochauflösenden Objektiv. Bei kleineren Sensoren müssen wir die Distanz aber um den Cropfaktor erhöhen. Noch problematischer ist die Messung aber bei unterschiedlichen Brennweiten, wenn man die Objektivauflösung an einem Sensor ermitteln will. Das Problem ist in der Praxis ungelöst, man denke an Fischaugen, für die man bei Messung auf Unendlich auch ein unendlich großes Testchart benötigen würde.


Sehr interessant. Eine mögliche hypothetische Lösung könnte z.B. darin bestehen, das Testchart an das Objektiv anzupassen. Also beispielsweise verschiedene Größen für verschiedene Brennweiten-Klassen. Im Falle von Fischaugen vielleicht sogar ein rundes Testchart, das so verzerrt ist, dass das Ergebnis-Bild "richtig" aussieht. Könnte allerdings aufwendig werden, weil das dann vermutlich in der Kuppel eines Planetariums durchzuführen wäre Wink

Aber vielleicht kriegt man ähnliches schon mit einfacheren Mitteln zur Verbesserung hin, wenn man z.B. ein kleineres Testchart nimmt und stattdessen die Kamera auf dem Getriebeneiger verschwenkt, um in verschiedene Bildecken zu gelangen.

Dabei fährt man dann allerdings keine flache "Ziegelwand" mehr ab, sondern eine Kugeloberfläche. Oder man stellt jedesmal erneut scharf und gleicht dadurch eventuelle Bildfeldwölbungen fast vollständig aus (was dann allerdings eine ganz andere Ergebnis-Aussage erzeugt, die man beachten muss).

Eventuell kann man das weiter verfeinern, indem man den Abstand zur Kamera mit dem Winkel ändert, aber dazu sollte man wohl besser NC-gesteuerte Achsen oder einen Roboter haben.

stefantf31 hat folgendes geschrieben:
Adobe hat aber immer mal wieder Probleme mit einzelnen Kameras und bessert auch nicht immer nach. Ein heftiger Magentastich in den 5D III-RAWs in den Tiefen wird nicht weiter überarbeitet, die Fuji X-T1 sieht per Preset ziemlich unscharf aus. An der Samsung NX1 hatten sie lange Zeit chromatische Aberrationen im Bildzentrum (was ja nicht sein darf) drin, die das ganze Ergebnis unscharf machten. Letzteres war Grund für einige Anwender, zu RAW Therapee zu wechseln. Mittlerweile hat Adobe aber an der NX1 nachgebessert. Was Adobe aber klammheimlich bei einigen Herstellern macht, ist noch eine ganz andere Sache. Objektive von Panasonic werden z.B. per Preset gleich von CA's befreit. Wer das nicht weiß, wird die Objektive bejubeln ob ihrer Farbsaumfreiheit.


Um solche Effekte zu minimieren, muss ich noch verschiedene Algorithmen von Rawtherapee (oder DCRAW) miteinander diesbezüglich vergleichen.

Ich denke, dass man zur Objektiv-Messung (anders als bei einer Kamera- bzw Sensor-Messung) sich nicht am "Marktstandard" orientieren muss, sondern schlicht das bestmögliche Verfahren mit den geringsten Verzerrungen nehmen sollte.

Soweit ein paar Vorab-Gedanken dazu. Ich denke weiter darüber nach. Das Thema ist sehr interessant.
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Administrator
Forenlevel: Administrator
Anmeldungsdatum: 25.02.2004
Beiträge: 2547
Wohnort: Hamburg
Antworten mit Zitat
athomux hat folgendes geschrieben:
Ich weiß nicht, mit welchem Verfahren bzw in welcher Auflösung professionelle Charts hergestellt werden. Kommen dabei irgendwelche Rastergrafik-Verfahren zum Einsatz, eventuell auch nur in Druck-Vorstufen?

Hochwertige 12233 Testcharts, wie wir sie nutzen, werden in Kunststoff geätzt. Zudem haben wir eine Distanz mit Weitwinkel gewählt (3,80m bei 24mm), bei der selbst in 100%-Ansicht keine Ausreisser im Material oder der Ätzung wahrscheinlich sind, selbst bei 1100%-Ansicht (tausendeinhundert %) sind keine Anomalien erkennbar. Dies gilt übrigens auch für unseren Objektivtest mit formatfüllendem Testchart. Ich nehme am ehesten an, dass es sich um eine Ungenauigkeit der Mess-Software handelt.

Möglicherweise ist Dein guter alter Siemensstern hier hilfreich, weil er im Fall Deines Buches (aus dem ich meinen habe) einen Kreis mit 90 Schwarz-Weiß-Übergängen zur Verfügung stellt.

Für professionelle Zwecke rate ich davon ab, die Druckauflösung reicht bei weitem nicht aus.

Im Falle von Fischaugen vielleicht sogar ein rundes Testchart, das so verzerrt ist, dass das Ergebnis-Bild "richtig" aussieht. Könnte allerdings aufwendig werden, weil das dann vermutlich in der Kuppel eines Planetariums durchzuführen wäre

Die Idee klingt reizvoll aber genau das darf es eben nicht sein: ein gewölbtes Testchart wäre nur in eine Hohlwelt angemessen. Wären die Objektive auf ein solches Motiv justiert, liesse sich kein planparalleles Motiv mehr ausserhalb des Bildzentrum scharf fokussieren.

Aber vielleicht kriegt man ähnliches schon mit einfacheren Mitteln zur Verbesserung hin, wenn man z.B. ein kleineres Testchart nimmt und stattdessen die Kamera auf dem Getriebeneiger verschwenkt, um in verschiedene Bildecken zu gelangen.

Das habe ich schon in Erwägung gezogen aber wieder aus vorgenanntem Grund verworfen. Dazu müssten dann z.B. alle Gebäude, die man bei Architekturaufnahmen ablichtet, auch gewölbt sein. Fotografiert man von der anderen Seite, müsste man sie dann wieder konvex ausbeulen können Wink
Sony entwickelt übrigens gerade einen curved CMOS-Sensor, um das Problem mit dem Lichtverlust im Weitwinkel einzudämmen, ich frage mich allerdings, wie sie es hinbekommen wollen, wenn planparallele Lichtstrahlen im Telebereich einfallen. Dann gibts ja wieder den Lichtverlust. Ist wohl eher etwas für Kameras mit fest integriertem (WW-) Objektiv.

Ich denke, dass man zur Objektiv-Messung (anders als bei einer Kamera- bzw Sensor-Messung) sich nicht am "Marktstandard" orientieren muss, sondern schlicht das bestmögliche Verfahren mit den geringsten Verzerrungen nehmen sollte.

Ja und das ist nach meinem Überblick Adobe Lightroom bzw. Adobe Camera RAW, zumindest insgesamt, wenn man Dynamikverarbeitung, Entrausch- und Auflösungsniveau betrachtet. DCRAW arbeitet z.B. nach meinen Untersuchungen nur auf Tiff-Niveau mit gegenüber nativen RAW gut nachweisbarem Dynamikverlust. Genau dran kränkeln auch alle Programme (wie z.B. verschiedene HDR- oder Panoramaprogramme), die einen direkten RAW-Import anbieten. Die binden - stillschweigend - DCRAW ein und der User verliert Dynamik. Für solche Anwendungen entwickele ich daher RAW zunächst in Lightroom nach Tiff und füttere die Programme erst anschliessend. Im Idealfall gewinne ich rund eine Blendenstufe je Bild. Letztlich zählt aber, was der Anwender in der Mehrzahl nutzt und hier schätze ich mal, dass ca. 80% der RAW-Anwender auf ACR bzw. Lightroom setzt. Allerdings wäre es nicht verkehrt, einen höher auflösenden RAW-Konverter zu entdecken und damit Adobe unter Druck zu setzen, wie es seinerzeit die besseren Entrauschprogramme wie Neatimage oder Noiseninja gemacht haben, bis Adobe ein vergleichbares Niveau integrieren musste. Solange der Platzhirsch keine Konkurrenz zu fürchten hat, wird er es sich gemütlich machen. Wie aktuell zu beobachten, hält es Adobe nicht für nötig, die Sony A7 II offiziell zu supporten, obwohl sie schon seit 3 Monaten am Markt ist. Das war vor einiger Zeit noch anders, da war Adobe wesentlich flotter.

VG Stefan

PS: warum wird hier eigentlich so anonym gepostet? Macht wenig Spaß, ins Leere zurückzuposten
Offline Benutzer-Profile anzeigen Alle Beiträge von stefantf31 anzeigen Private Nachricht senden
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Hi Stefan,

erstmal ganz vielen Dank für Deine ausführlichen Erklärungen zur RAW-Entwicklung! Solche hochklassigen Tipps helfen ungemein.

Ja, ähnliches habe ich schon intuitiv gespürt und deshalb arbeite ich gerne mit Rawtherapee, das 32bit Fließkomma für alles verwendet, um Verluste durch Zwischen-Rundungen weitgehend zu vermeiden. Die Jungs haben deshalb die DCRAW-Algorithmen nochmals komplett neu in Fließkomma implementiert bzw umgeschrieben. Integer-Arithmetik ist eine schlechte Idee, das wussten auch schon die ersten Computer-Numeriker in den 1950er Jahren.

Nebenbei: was auch noch fehlt, ist ein übergreifender und mit Leben erfüllter offener Standard für den Bilddaten-Austausch im Fließkomma-Format.. Egal, wie viele Leute wegen der Datenmenge heulen werden. Die vielen Hersteller-RAW-Formate bringen es m.E. nicht.

Um ins gleiche Horn zu stoßen: ich frage mich, ob der Grund-Aufbau von Objektiv-Bewertungen überhaupt "korrekt" ist. Ein Messinstrument sollte mindestens eine Größenordnung genauer sein als das zu messende Untersuchungsobjekt. Bildsensoren mit heutiger Auflösung können das einfach nicht leisten! Da beißt die Maus keinen Faden ab.

Hier kam ja auch schon die Idee mit dem Astronomie-Okular auf, mit dem man diesen Vergrößerungs-Faktor vermutlich herstellen kann (Stichwort afokale Methode).

Allerdings kommen dann Deine schön beschriebenen Gebäude-Ausbeulungs-Probleme wieder durch die Hintertür ins Labor hineinspaziert.

Im Grunde genommen ist die Telekonverter-Idee fast das gleiche, allerdings könnten dort die sagittalen Verzerrungen ähnliche Effekte wie Dein Ausbeul-Hammer haben.

Nicht ohne Grund habe ich mich erstmal nur auf die Bildmitte konzentriert. Die dort gemachten Erfahrungen gelten sicher großteils auch am Rand, allerdings gibt es dort umgekehrt wahrscheinlich eher noch mehr Probleme. Ich versuche, mich erstmal über diesen Weg von innen nach außen vorzutasten.

Irgendwie ist das ganze noch nicht so richtig ausgereift, egal wohin man schaut. Ich würde gerne einen Königsweg finden, wenn es denn einen gäbe.

Meine Anonymität ist leicht zu knacken: einfach athomux.net und da steht mein Klartext-Name.

Grüße,

Thomas


Zuletzt bearbeitet von athomux am 15 März 2015 10:43, insgesamt einmal bearbeitet
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
stefantf31 hat folgendes geschrieben:
@Epp: Ich glaube schon, dass APS-C 24 Megapixel verträgt. Die Samsung NX1 packt sogar 28 MP auf den APS-C-Sensor. Nach unserer Messung jeweils mit dem Canon 24mm/1,4L II USM via Adapter erreicht die NX1 bei der besten Blende damit eine minimal höhere Auflösung als Canons Vollformat an der 5D 3 oder 5D 2.

Hier wird aber wohl auch die Anmerkung von photozone greifen, dass die Zahlen über Systemgrenzen hinweg nicht vergleichbar sind. Wobei für mich der Vergleich innerhalb von Canon also zwischen KB und APS-C nicht über Systemgrenzen hinweg bedeutet. Ich wüsste nicht, dass Canon abhängig von APS-C oder KB eine unterschiedliche Technik verbaut.
Macht Samsung etwas anders? Wie sieht es mit dem AA-Filter aus? Das kann alles die Linienzahl beeinflussen.

Die Pixelgrenze mit einem Pitch von 3,6µm ist damit aber wohl erreicht.

Dein Wort in Gottes Gehörgang, mit Bitte um nachfolgende Eingebung bei den Entwicklern Wink

Ich habe mir nochmals folgendes plakatives Beispiel überlegt (alles unter der Voraussetzung, dass die Technik bei Canon so bleibt wie sie ist).

Lass z.B. eine APS-C Cam mit 32 MP kommen, da würde doch der normale Bürger, der zumindest 2 x 2 = 4 ausrechnen, sowie auch die Wurzel aus 4 ziehen kann, zu der Erwartung kommen, dass er damit gegenüber 8 MP die doppelte Auflösung erhält. Aber was würde wohl passieren? Die Linienzahl guter Objektive wird dann wohl wie folgt liegen:
- 8 MP 2100
- 15 MP 2500
- 32 MP 3000
D.h. statt doppelter Auflösung wären es gerade gut 40% mehr.

Jetzt packe man dieselbe Auflösung auf einen KB-Sensor. Das würde die mögliche Auflösung gegenüber 21 MP um ca. 15% erhöhen. D.h. man läge bei KB nun bei Linienzahlen bis zu 4200. D.h. bei gleicher Sensorauflösung könnte man alleine durch den größeren KB-Sensor NOCHMALS 40% mehr effektive Auflösung erzielen! Klar mit merklich höherem Abfall zum Rand hin wie bei APS-C, aber selbst am Rand bliebe ein deutlicher Vorteil übrig.

Natürlich gilt der Vorbehalt Laborbedingungen, keine Berücksichtigung von Randbedingungen wie Motivkontrast, ISO-Einstellung usw. usw.

Aber es zeigt doch anschaulich, dass man spätestens mit einer weiteren Erhöhung der APS-C Auflösung über 24 MP hinaus dabei wäre, das Pferd APS-C tot zu reiten. Wenn das Ziel lautet, die Community mit wirklich höherer nutzbarer Auflösung zu beglücken, führt doch kein Weg an einer günstigen KB-Einsteiger-Cam vorbei. Canon EF ist nun mal ein KB-fähiges System, ohne Wenn und Aber!

Andererseits bin ich froh, dass der Megapixelwahn noch nicht auf KB übergeschwappt ist (die 5Ds sehe ich als Spezialkamera für ein bestimmtes Klientel). Ansonsten hätte ich wohl keine Chance gehabt, ca. 5 Jahre nach Erscheinen der 5D2 eine 6D mit "nur" 20 MP kaufen zu dürfen.

Ich sehe es mit einem lachenden und einem weinenden Auge. Einerseits würde ich mich freuen, wenn KB endlich den Durchbruch auch in Richtung Consumer schaffen würde. Andererseits denke ich mir, macht doch bei der APS-C Consumer-Schiene was ihr wollt (bei der Hi-End 7D2 ist man ja bei 20 MP geblieben) und lasst im Gegenzug KB vom Megapixelwahn verschont.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
stefantf31 hat folgendes geschrieben:
Für solche Anwendungen entwickele ich daher RAW zunächst in Lightroom nach Tiff und füttere die Programme erst anschliessend.

Exakt so und nicht anders! Den direkten RAW-Support können sich die Panorama-Programme etc. wirklich sparen.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 15.10.2008
Beiträge: 161
Wohnort: Österreich
Antworten mit Zitat
athomux hat folgendes geschrieben:

Um ins gleiche Horn zu stoßen: ich frage mich, ob der Grund-Aufbau von Objektiv-Bewertungen überhaupt "korrekt" ist. Ein Messinstrument sollte mindestens eine Größenordnung genauer sein als das zu messende Untersuchungsobjekt. Bildsensoren mit heutiger Auflösung können das einfach nicht leisten! Da beißt die Maus keinen Faden ab.

Hier kam ja auch schon die Idee mit dem Astronomie-Okular auf, mit dem man diesen Vergrößerungs-Faktor vermutlich herstellen kann (Stichwort afokale Methode).

..

Nicht ohne Grund habe ich mich erstmal nur auf die Bildmitte konzentriert. Die dort gemachten Erfahrungen gelten sicher großteils auch am Rand, allerdings gibt es dort umgekehrt wahrscheinlich eher noch mehr Probleme. Ich versuche, mich erstmal über diesen Weg von innen nach außen vorzutasten.



Halo Thomas,

ich bin da ganz deiner Meinung.
Um die Sache Objektivbewertung methodisch korrekt durchführen zu können, darf das Messinstrument hinter dem Objektiv nicht der limitierende Faktor sein.
Deshalb habe ich die Methode mit dem Okular, das an die Notwendigkeiten einfach angepasst werden kann, vorgeschlagen.

Die Auflösungs-Bewertung z.B. eines Zoom-Objektives wäre trotzdem für die verschiedenen Brennweiten- und Blendenkombinationen allein in der Bildmitte sehr aufwändig.
Aber es würde zweifellos eine Klarheit in die Frage sinnvoller Sensor-Megapixelzahlen bringen.

Ein wichtiger Aspekt ist in diesem Zusammenhang auch das physikalisch theoretisch mögliche Auflösungsvermögen in Abhängigkeit von der Blendenzahl. Während sich für einen KB-Sensor mit ca. 20
MPx eine kleinste sinnvolle Blinde von 11 ergibt, um den Sensor (im Bildzentrum) noch auszureizen, ergibt sich für einen 50 MPx KB-Sensor eine kleinste Blende von knapp 8, die der Sensor noch voll nutzen kann.
Bei kleineren Blenden kann die Auflösung des Sensors aufgrund der Physik auch bei einem perfekten, idealen Objektiv nicht vollständig ausgenutzt werden. Wie epp4 schon erwähnt hat, sind derartige Kameras genau genommen Spezialisten, deren Handhabung, um die volle Schärfe zu erreichen, nicht völlig trivial sein wird.

mfg
Andreas
Hidden Benutzer-Profile anzeigen Alle Beiträge von Tacitus anzeigen Private Nachricht senden
  

Forenlevel: Administrator
Forenlevel: Administrator
Anmeldungsdatum: 25.02.2004
Beiträge: 2547
Wohnort: Hamburg
Antworten mit Zitat
epp hat folgendes geschrieben:
Hier wird aber wohl auch die Anmerkung von photozone greifen, dass die Zahlen über Systemgrenzen hinweg nicht vergleichbar sind

Bei Photozone dürfte ein übergreifender Objektiv-Vergleich wegen unterschiedlicher Kameras nicht möglich sein. Ich spreche hier aber vom selben, sehr hochauflösenden Objektiv, dass unter ansonsten identischen Bedinungen an verschiedenen Bildsensoren ausgemessen wurde. Damit lassen sich die Bildsensoren untereinander vom Auflösungsvermögen schon vergleichen.

athomux hat folgendes geschrieben:
Nebenbei: was auch noch fehlt, ist ein übergreifender und mit Leben erfüllter offener Standard für den Bilddaten-Austausch im Fließkomma-Format.. Egal, wie viele Leute wegen der Datenmenge heulen werden. Die vielen Hersteller-RAW-Formate bringen es m.E. nicht.

Hallo Thomas, es gab im Jahre 2006 schonmal einen organisierten Vereinheitlichungs-Versuch der User mit "Open Raw", der im Sande verlaufen ist. Argument war seinerzeit die Angst, dass das RAW-Format für einzelne Kameras irgendwann nicht mehr lesbar sein würde. Ich fand das damals schon absurd, weil schliesslich ein erheblicher Bedarf diesbezüglich vorhanden ist. Da passen sich die Softwareschmieden natürlich an. Wie man sieht, ist auch heute der RAW-Support älterer Kameramodelle kein Problem. Adobe hat dann auch DNG nachgereicht - aber das ist eigentlich nach wie vor ein propietäres RAW-Format, wie man an neueren Kameras manchmal sieht, die trotzdem nicht immer kompatibel sind, selbst wenn man sie nach DNG konvertiert hat. Ein übergreifender Standard seitens der Kamerahersteller dürfte wohl nicht realiistisch sein, weil es zu unterschiedliche Sensortechnologien gibt wie z.B. von Fuji der X-Trans mit modifiziertem Bayerpattern, von Sigma der Foveon, dann die CMOS-Abteilung etc.

32-Bit-Fließkomma-Formate gibts natürlich schon als Tiff (Adobe) oder open EXR bzw. Radiance, die aber nicht in gängigen Kamermodellen verbaut sind. Sicherlich auch wegen des erheblichen Datenvolumens. 32-Bit Tiff hat ungefähr die 8 - 9fache Datenmenge eines einzelnen RAWs - das kann die Kamera kaum wegschreiben. Und es ist auch die Frage, ob es Sinn macht, denn die Sensoren sollten da eine entsprechende Dynamik anliefern. Im Moment ist bei 14-Bit ja schon die Obergrenze erreicht. Tatsächlich stecken aber nur idR 12-Bit drin, wenn überhaupt.

Ein Messinstrument sollte mindestens eine Größenordnung genauer sein als das zu messende Untersuchungsobjekt

So schön es wäre, die Praxis sieht anders aus. Objektive werden zwar noch immer von einigen Herstellern auf einer optischen Bank für MFT-Charts ausgemessen. Aber das berücksichtigt nicht das vom User erfahrbare Ergebnis. Der Anwender will wissen, wie das Objektiv an seiner Kamera abschneidet und da spielt vor allem der schräge Lichteinfall im Weitwinkel oder bei Offenblende eine erhebliche Rolle, der den seitlichen Pixeln nurnoch wenig Licht lässt und nicht nur häufig zu Vignettierungen sondern auch zu Unschärfen führt. Die anwendungsbezogene Betrachtung eines Objektivs im Zusammenhang mit speziellen Kameramodellen ist daher seit einigen Jahres branchenüblich. Auch wenn die MFT-Messung auf einer optischen Bank (via Kollimator mit parallelem Lichteinfall) Anhaltspunkte liefern kann.

Falls du unsere Methode noch nicht kennst: wir messen sowohl die Linienauflösung und bieten gleichzeitig eine optische Kontrollmöglichkeit anhand eines Briefmarkenmotivs für jeden der 13 Messabschnitte (Beispiel am Zeiss Otus, unten in den 100%-Beispielen sind die Testcharts zu finden). So kann man das Messergebnis idR gut verifizieren. Photozone liefert nur Messwerte was uns zu wenig wäre, ich finde dort leider auch keine Bildbeispiele als Blendenreihen anhand eines geeigneten Motivs.

VG Stefan


Zuletzt bearbeitet von stefantf31 am 16 März 2015 19:38, insgesamt einmal bearbeitet
Offline Benutzer-Profile anzeigen Alle Beiträge von stefantf31 anzeigen Private Nachricht senden
  

Forenlevel: Fotograf +
Forenlevel: Fotograf +
Anmeldungsdatum: 22.05.2004
Beiträge: 1546
Antworten mit Zitat
Tacitus hat folgendes geschrieben:
Wie epp4 schon erwähnt hat, sind derartige Kameras genau genommen Spezialisten, deren Handhabung, um die volle Schärfe zu erreichen, nicht völlig trivial sein wird.

Eben und wenn es jetzt bei APS-C, noch dazu gerade in der 3-stelligen Einsteigerklasse (die 4-stellige lasse ich bewusst außen vor), eine nochmals höhere Pixeldichte gibt, als bei dem "Spezialisten" 5Ds, ist das schon sehr bezeichnend.

epp4
Offline Benutzer-Profile anzeigen Alle Beiträge von epp4 anzeigen Private Nachricht senden
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Du kannst Dateien in diesem Forum posten
Du kannst Dateien in diesem Forum herunterladen
Alle Zeiten sind GMT + 1 Stunde  
Seite 2 von 3  

  
  
 Neue Antwort erstellen  

Traumflieger-Video: Hähnel Combi TF per Funk Kamera auslösen und blitzen (100m) !  kabellos blitzen mit dem Slave Flash - neuer Traumflieger-Report !  das Profihandbuch zur Canon EOS 60D !