Registrieren  |  FAQ  |  Suchen  |  Mitgliederliste  |  User MapGEO Map  |  Benutzergruppen  |  Login   | Album 
Neue Antwort erstellen
 Sony alpha 7 M 

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
Eine A7M (fuer monochrome) ist leider von sony noch nicht angekuendigt.
Die schoene neue von leica ist leider bischen teuer fuer spatzen. klick die leica

Da frage ich mich wie man wohl die besten S/W bilder mit einer farbkamera macht.

Ist es eigentlich so, dass jedes farbpixel aus mehreren "pixselsensoren" auf dem chip besteht. (zum beispiel RGB)
So das ein 12MP farbsensor in wirklichkeit ein 36MP sensor ist der sich auf 3 farben aufteilt?
Koennte man das ueber das RAW file ein ein 36MP graustufen bild umrechnen?
Oder wird das eher in dynamik umgewandelt so das man aus mehreren farbinformationen (sagen wir mal 10 bit pro farbe) ein 30bit grauton macht?

Vermutlich nicht, sonst wuerden man das sicherlich laengst nutzen.

Benutzt jemand die A7 serie ausgesprochen fuer S/W fotografie? Wie wandelt man am besten um? Ist die A7R, ohne lowpass filter, besser fuer S/W fotografie geeignet? Kann man die kamera fuer S/W optimieren. Neulich lass ich sogar mal von einem einfach verguetetem voigtlaender das angeblich besonders gut fuer S/W fotos geeinget sei *1. Andere sagten allerdings das sei eher normal bei S/W und im nachteil bei farbe. Embarassed

willy


*1 Voigtländer Nocton 35 mm / f 1.4 SC Leica M-Mount

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotograf ++
Forenlevel: Fotograf ++
Anmeldungsdatum: 16.08.2007
Beiträge: 2299
Antworten mit Zitat
Den Wiki-Artikel zum Bayer Pattern hast du vermutlich schon gelesen (und genau wie ich nicht vollständig bis in Details und Konsequenzen verstanden)?

Muss man ja aber auch nicht als Fotograf.

Glücklicherweise stelle ich mir solche Fragen eher selten und würde NIE auch nur 100 Euro für eine Kamera ausgeben, die nur S/W Bilder kann. Wenn mir nach S/W ist, fotografiere ich natürlich wie gewohnt in Raw (ggf. stelle ich Schwarzweiss als Bildstil an der Kamera ein um die Kontraste auf dem Kameradisplay besser einschätzen zu können, meist aber nichtmal das) und konvertiere das Bild anschließend mit LR oder PS nach Schwarzweiss.

Meine Meinung: Die spinnen, die Leica-S/W-Kameranutzer.

_________________
Meine Facebook Fotoseite: Klick mich
Meine Lieblingsbilder ohne Gelaber und in hoher Auflösung bei 500px: Klick mich
Offline Benutzer-Profile anzeigen Alle Beiträge von ammu anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
ammu hat folgendes geschrieben:
Den Wiki-Artikel zum Bayer Pattern hast du vermutlich schon gelesen (und genau wie ich nicht vollständig bis in Details und Konsequenzen verstanden)?

Muss man ja aber auch nicht als Fotograf.

Glücklicherweise stelle ich mir solche Fragen eher selten und würde NIE auch nur 100 Euro für eine Kamera ausgeben, die nur S/W Bilder kann. Wenn mir nach S/W ist, fotografiere ich natürlich wie gewohnt in Raw (ggf. stelle ich Schwarzweiss als Bildstil an der Kamera ein um die Kontraste auf dem Kameradisplay besser einschätzen zu können, meist aber nichtmal das) und konvertiere das Bild anschließend mit LR oder PS nach Schwarzweiss.

Meine Meinung: Die spinnen, die Leica-S/W-Kameranutzer.


Richtig beim wiki verstehe ich nur die haelfte,
auch sonst verstehe ich kaum was von licht und sensoren. Umso mehr schreibe ich hier im forum.

Das ich die bilder in LR (oder sonstwo) umwandeln kann ist mir trotzdem schon aufgefallen, ein paar beispiele habe ich schon hier gezeigt. klack

Ich wuerde jetzt auch nicht eine 1000EUR S/W kamera kaufen wenn ich die gleiche als 1000EUR farbkamera haben kann und die S/W bilder dann doch die selben waeren.
Ich dachte nur statt 3 farbsensoren koenne man auf gleichem platz auch 3 grausensoren unterbringen. Dann stelle dir mal vor die lichtempfindlichkeit der A7S mit 36MP (halt mal 3).
Dann kaeme ich schon auf die idee eine reine S/W kamera zu kaufen. (halt zum normalen A7 preis, nicht zum leica preis)

willy

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotograf ++
Forenlevel: Fotograf ++
Anmeldungsdatum: 16.08.2007
Beiträge: 2299
Antworten mit Zitat
Ich spekuliere mal (ohne wirklich Ahnung zu haben) mit dem, was ich meine kapiert zu haben. Kann aber auch daneben liegen...

Ein Bayer Pattern besteht aus 50% grün und jeweils 25% Rot und Blau Pixeln. Das würde beim Weglassen desselben zur doppelten Auflösung führen. Nicht zur dreifachen.

Ändert aber nix daran, dass ich gern die Möglichkeit habe NACH der eigentlichen Fotografie noch festzulegen, ob ich S/W oder farbig entwickeln möchte.

_________________
Meine Facebook Fotoseite: Klick mich
Meine Lieblingsbilder ohne Gelaber und in hoher Auflösung bei 500px: Klick mich
Offline Benutzer-Profile anzeigen Alle Beiträge von ammu anzeigen Private Nachricht senden
  

Forenlevel: Moderator
Forenlevel: Moderator
Anmeldungsdatum: 19.10.2004
Beiträge: 10693
Wohnort: Hamburg und Berlin
Antworten mit Zitat
Ohne Worte http://www.systemkamera-forum.de/topic/111528-sony-a7m-monochrom/

_________________
Chesky

Sonnenfotografie

Mondfotografie
Offline Benutzer-Profile anzeigen Alle Beiträge von Chesky anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
ammu hat folgendes geschrieben:
Ich spekuliere mal (ohne wirklich Ahnung zu haben) mit dem, was ich meine kapiert zu haben. Kann aber auch daneben liegen...

Ein Bayer Pattern besteht aus 50% grün und jeweils 25% Rot und Blau Pixeln. Das würde beim Weglassen desselben zur doppelten Auflösung führen. Nicht zur dreifachen.

Ändert aber nix daran, dass ich gern die Möglichkeit habe NACH der eigentlichen Fotografie noch festzulegen, ob ich S/W oder farbig entwickeln möchte.


Gut, dann koennte man immerhin eine 24MP A7S S/W bauen.
Stelle dir das einfach mal vor.
Natuerlich die nachtraegliche wahl hast du dann nicht mehr. (S/W, oder farbe)
Das waere auch totaler quatsch, wenn man nicht gleichzeitig einen benefit bei der aufloesung, schaerfe und lichtempfindlichkeit bekommt. (dafuer das man farbe "opfer")

Ob das technisch passt weiss ich nicht... Aber ich wuerd's kaufen.

w

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
[quote="spatz98"]
ammu hat folgendes geschrieben:
Ich spekuliere mal (ohne wirklich Ahnung zu haben) mit dem, was ich meine kapiert zu haben. Kann aber auch daneben liegen...

Ein Bayer Pattern besteht aus 50% grün und jeweils 25% Rot und Blau Pixeln. Das würde beim Weglassen desselben zur doppelten Auflösung führen. Nicht zur dreifachen.


Es wäre schön, wenn das Weglassen der Farbfilter zu einer deutlichen Erhöhung der SW-Pixelzahl um Faktoren wie zwei oder drei führen würde. Leider ist dem nicht so.

Ein Bayer-Sensor mit 36MP hat (wie der Name sagt) genau 36 Megapiel, davon sind 50% = 18MP in grün, und 25% = 9MP in rot, usw wie Ihr oben richtig beschrieben habt.

Da bei jedem Pixel nur eine von drei Farben gemessen wird, werden die anderen beiden fehlenden Farbkanal-Werte durch die sogenannte Bayer-Interpolation ergänzt. Beispiele für verschiedene derartige Interpolations-Algorithmen findet Ihr z.B. bei Rawtherapee (kostenlose OpenSource) unter dem Stichwort "Demosaicing".

Dabei geht leider ein wenig Farb-Auflösung verloren. Bildlich gesprochen: der Gesamt-Farbton eines Pixels (Chrominanz) ist ein wenig "ungenau", weil zwei von drei Farbwerten interpoliert werden. Die Helligkeit des Pixels (Luminanz) ist ein bisschen genauer, allerdings auch nicht ganz 100% genau. Je nach Interpolations-Algorithmus schätze ich die wirkliche effektive Pixelzahl auf ca 70% der nominellen Pixelzahl (rein subjektiv).

Wer es vergleichen will: bei ISO100 eine 12MP Kamera wie z.B. die EOS450d nehmen, und dieselbe Szene mit einer höher auflösenden (z.B. 70d) bei gleichem Objektiv aufnehmen, und das Bild dann auf dieselbe 12MP herunterrechnen. Ich habe das vor Jahren mal gemacht und war über den Qualitätsunterschied bass erstaunt. Ein Bayer-interpoliertes Pixel ist in der 100% Ansicht einfach sichtbar schlechter als z.B. ein heruntergerechnetes oder ein per Scanner von Analogfilm aufgenommenes.

Eine reine SW-Kamera wäre also bei gleicher Pixelzahl in ihrem Luminanz-Verhalten ein wenig besser als die Bayer-Interpolation mit nachfolgender Desaturierung.

Außerdem kann das Weglassen der vielen kleinen Farbfilter die Licht-Ausbeute und damit auch das Rausch-Verhalten verbessern (bei gleicher Sensor-Generation). Nicht ohne Grund verwenden Astronomen gerne SW-Sensoren, weil sie bei schwachem Licht einfach besser sind, und schalten nur bei Bedarf geeignete Filter davor.

Ob es sich wegen dieser prinzipiell vorhandenen, aber je nach Anwendungsfeld eher relativ geringen Vorteile lohnt, eine reine SW-Kamera zu kaufen, muss jeder selber entscheiden. Wer sehr viele SW-Bilder macht, für den könnte es sich eher lohnen als für den Gelegenheits-Desaturierer.
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
Wie die bayer interpolation funktioniert habe ich jetzt rausgefunden mit hilfe einer alten postkarte:

(kleiner scherz)

Im grunde ist es so, dass jeder pixel nur helligkeitswerte misst, farben nicht.
Um farbe zu bekommen machen sie filter davor (das ist schonmal ne lichtbremse) und sagen oke, diese "graustufen" waren jetzt rot. (oder gruen, oder blau - je nach filter).
Ein SW sensor koennte direkt die grauwerte verwenden ohne filter. (es sei denn man moechte aus anderen gruenden noch filter davor haben).
Der SW chip muesste lichtstaerker werden und mehr details zeichnen koennen.

w

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
[quote="athomux"][quote="spatz98"]
ammu hat folgendes geschrieben:

[...]
Wer es vergleichen will: bei ISO100 eine 12MP Kamera wie z.B. die EOS450d nehmen, und dieselbe Szene mit einer höher auflösenden (z.B. 70d) bei gleichem Objektiv aufnehmen, und das Bild dann auf dieselbe 12MP herunterrechnen. Ich habe das vor Jahren mal gemacht und war über den Qualitätsunterschied bass erstaunt. Ein Bayer-interpoliertes Pixel ist in der 100% Ansicht einfach sichtbar schlechter als z.B. ein heruntergerechnetes oder ein per Scanner von Analogfilm aufgenommenes.
[...]

Dem will ich nicht widersprechen, aber kannst du auch erklaeren warum das so ist?
Ist das darauf zurueck zu fuehren das der bayer algorithmus eben nicht bei jedem pixel die volle information hat und deswegen bei 1:1 schwaechen hat?
Das waere bei einer echten SW kamera nicht der fall, weil jedes pixel die volle information hat und nicht ueber die nachbarpixel vermittelt/verwischt?

willy

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Hi Willi,

ja mit "Informationsverlust" kann man es vielleicht am leichtesten auch beim Vergleich zwichen Bayer- und SW-Sensor erklären.

Beim Bayer-Sensor nimmt jedes Pixel nur eine ganz bestimmte Licht-Wellenlänge auf, während ein SW-Sensor mit der gleichen Pixelzahl ein breitbandigeres Lichtspektrum akzeptiert, genau wie die Stäbchen im menschlichen Auge (siehe http://de.wikipedia.org/wiki/St%C3%A4bchen_%28Auge%29 ), die lichtempfindlicher sind als die Zapfen. Durch die vorgeschalteten kleinen Filterchen gehen Informationen verloren, die sich durch die Bayer-Interpolation nur näherungsweise rekonstruieren lassen.

Das ist allerdings nur eine akademische Beschreibung. Du musst es selber ausprobieren, um es direkt zu erfahren.

Übrigens kannst Du den von mir beschrieben Test mit dem Herunterskalieren eines hochauflösenden Bayer-Sensors auf dieselbe Auflösung eines anderen niedriger auflösenden Bayer-Sensors (vielleicht eine A7r gegen eine A7s bei ISO100?) auch noch variieren: beim Farbbild wirst Du ziemlich deutlich sehen, was die Bayer-Interpolation in Wirklichkeit so alles anrichtet (nur in der 100% Ansicht deutlich zu erkennen). Das ist schlimmer als man gemeinhin glauben möchte, wenn man es nicht selber gesehen hat (vorausgesetzt das Motiv ist entsprechend feingliedrig und heikel - natürlich ist bei einer weißen Wand kaum was zu sehen, daher besser ein Natur-Motiv nehmen). Das habe ich selber vor Jahren schon mal überprüft. Du kannst dann zusätzlich auch noch beide (auf die gleiche Auflösung gebrachten) Bilder jeweils auf SW desaturieren und dann nochmals gegeneinander vergleichen. Dieses Experiment habe ich bisher noch nicht gemacht. Mich würden die Ergebnisse interessieren. Nach der Theorie müsste der Abstand zwischen den beiden Sensoren dann geringer werden, aber vermutlich nicht völlig verschwinden (was zu überprüfen wäre).
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
athomux hat folgendes geschrieben:
Hi Willi,

ja mit "Informationsverlust" kann man es vielleicht am leichtesten auch beim Vergleich zwichen Bayer- und SW-Sensor erklären.

Beim Bayer-Sensor nimmt jedes Pixel nur eine ganz bestimmte Licht-Wellenlänge auf, während ein SW-Sensor mit der gleichen Pixelzahl ein breitbandigeres Lichtspektrum akzeptiert, genau wie die Stäbchen im menschlichen Auge (siehe http://de.wikipedia.org/wiki/St%C3%A4bchen_%28Auge%29 ), die lichtempfindlicher sind als die Zapfen. Durch die vorgeschalteten kleinen Filterchen gehen Informationen verloren, die sich durch die Bayer-Interpolation nur näherungsweise rekonstruieren lassen.


[...].


Genau so ist es naemlich nicht. Jedenfalls nach meiner jetzigen vorstellung. (die sich dauernd aendert Shocked )
Ich habe auch erst gedacht das sind sensoren fuer farben. Es ist jedoch so das alle sensoren gleich sind und alle nur helligkeitsunterschiede sehen. (graustufen) Man hat keine ahnung welche farbe das licht hat.
Daher geht man her und setzt jedem pixel eine sonnenbrille auf die das meiste(?) licht wegfiltert und beispielsweise nur blau durchlaesst. Daher weiss man, aha, dieser sensor hat blau gemessen. In wirklichkeit natuerlich nicht, der sensor hat wieder nur graustufen gemessen, aber man hat ja nur blaues licht durchgelassen.

Wenn diese vorstellung stimmt, dann wuerde ein SW sensor einfach nur die sonnenbrillen weglassen muessen. Haette dann fuer jeden pixel mehr licht und ist nicht gezwungen seine informationen statistisch mit den nachbarpixeln zu verwischen.

In meiner vorstellungen bekommn wir dann einen lichtstarken detailreichen sensor wie wir ihn noch nie gesehen haben. (bei gleichem, oder geringerem fertigungsaufwand fuer sensoren)

Wobei ich jetzt auch ganz falsch liegen koennte. Twisted Evil

willy

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
OK. Vielleicht habe ich mich nicht klar genug ausgedrückt.

Bei jedem CMOS- oder CCD-Sensor (egal ob als Bayer gebaut oder nicht) nimmt jedes nackte Pixel Licht von mehreren Wellenlängen auf. Von einem Bayer-Sensor spricht man dann, wenn vor jedem Pixel zusätzlich die von Dir beschriebene Sonnenbrille (in einer bestimmten Anordnung) ist, also ein Verbund bestehend aus Sonnenbrille und dem eigentlichen Sensor. Für den reinen Sensor alleine macht die Begriffsbildung "Bayer-Sensor" keinen Sinn, sondern nur für den Verbund als ganzen. [ein Bayeer-Sensor ohne die vielen kleinen Sonnenbrillen wäre kein Bayer-Sensor, sondern ein stinknormaler CCD- oder CMOS-Sensor der ohne weitere Zutaten SW-Bilder machen würde] Ist natürlich ein wenig verwirrend.

Ausnahme: Foveon-Sensoren. Dort sind bereits die nackten Pixel inwendig für mehrere verschiedene Wellenlängen sensibel (mehr oder weniger gleichzeitig => bei neueren Foveon-Sensoren soll die Auflösung gerüchtehalber bei Rot geringer sein als bei den kürzeren Wellenlängen).


Zuletzt bearbeitet von athomux am 21 Mai 2015 18:31, insgesamt einmal bearbeitet
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
athomux hat folgendes geschrieben:
OK. Vielleicht habe ich mich nicht klar genug ausgedrückt.

Bei jedem CMOS- oder CCD-Sensor (egal ob als Bayer gebaut oder nicht) nimmt jedes nackte Pixel Licht von mehreren Wellenlängen auf. Von einem Bayer-Sensor spricht man dann, wenn vor jedem Pixel zusätzlich die von Dir beschriebene Sonnenbrille (in einer bestimmten Anordnung) ist, also ein Verbund bestehend aus Sonnenbrille und dem eigentlichen Sensor. Für den reinen Sensor alleine macht die Begriffsbildung "Bayer-Sensor" keinen Sinn, sondern nur für den Verbund als ganzen. Ist natürlich ein wenig verwirrend.

Ausnahme: Foveon-Sensoren. Dort sind bereits die nackten Pixel inwendig für verschiedene Wellenlängen sensibel (mehr oder weniger gleichzeitig => bei neueren Foveon-Sensoren soll die Auflösung gerüchtehalber bei Rot geringer sein als bei den kürzeren Wellenlängen).


Eigentlich hatte ich das verstanden und wollte auch nicht widersprechen.
Nur darauf hinweisen das der sensor graustufen sieht und man erst durch filter die farben rausfinden kann.
Was sich dann sofort aufdraengt ist das man bei SW keine filter bauchen wuerde weil einem helligkeiten ausreichen.
Was direkt bedeuten wuerde der sensor hat eine bessere lichtempfindlichkeit. (der filter nimmt ja das meiste licht)
Zudem braucht man die bayer tricks nicht, jeder sensor haette, fuer sich alleine, die volle information. Beim bayern pattern nicht, da sind wir durchaus einig.

Das alles weist darauf hin das (bei grundsaetzlich gleicher technik) ein SW sensor hoch ueberlegen sein wuerde.
(lichtstaerker und mehr details)

Das wollte ich sagen.

w

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
  

Forenlevel: Fotokünstler
Forenlevel: Fotokünstler
Anmeldungsdatum: 10.03.2011
Beiträge: 689
Antworten mit Zitat
Ja, dann sind wir uns einig, dass ein reiner CMOS- oder CCD-Sensor (ohne Sonnenbrillen) einem entsprechenden gleichpixeligen Bayer-Sensor bei SW überlegen sein müsste.

Dies nachzuprüfen dürfte aber nicht ganz einfach werden.

Ich vermute, dass der Unterschied zwar sichtbar, aber zumindest bei ISO100 nicht so extrem riesig sein dürfte. Zur Abschätzung kannst Du den Vergleich zwischen A7s und auf gleiche Auflösung heruntergerechneter A7r heranziehen: einen wesentlich besseren Unterschied dürftest Du nach meiner Theorie zwischen einer Farb-A7x und einer gleichpixeligen SW-A7y nicht herausholen können (wenn es eine derartige Kamera denn gäbe).

[bei ungleicher Pixelzahl kann ein derartiges Rennen natürlich ganz anders ausgehen: ein SW-Sensor lässt sich vermutlich bei gleichem Rauschverhalten mit deutlich mehr Pixeln bauen, und dann hätten Deine Wünsche natürlich ein ganz anderes Fundament, denn dann ist ja wohl klar wer ein derartiges Rennen in der SW-Disziplin gewinnen würde - nicht die Schildkröte sondern Achilles]

[noch ein Nachtrag: wer ISO 1.000.000 haben will, der wäre natürlich bei reinen SW-Kameras nicht ganz verkehrt - siehe die Stäbchen in unseren Augen]

Naja, vielleicht hast Du ja mit Deinen Ahnungen recht und Sony überrascht uns demnächst mit sehr spannenden Dingen.... es könnte natürlich auch was mit SW dabei sein, was da angeblich kommen soll.... Nur widersprechen sich einige Gerüchte ständig, und die Termin-Vorhersagen waren bisher alles andere als treffend...

Ich lese jedenfalls ständig bei sonyalpharumors mit, weil ich auf die A7rII schiele, sofern sie IBIS haben sollte....
Hidden Benutzer-Profile anzeigen Alle Beiträge von athomux anzeigen Private Nachricht senden
  

Forenlevel: Fotoreporter
Forenlevel: Fotoreporter
Anmeldungsdatum: 11.01.2015
Beiträge: 226
Wohnort: berlin
Antworten mit Zitat
athomux hat folgendes geschrieben:

[...]

Naja, vielleicht hast Du ja mit Deinen Ahnungen recht und Sony überrascht uns demnächst mit sehr spannenden Dingen.... es könnte natürlich auch was mit SW dabei sein, was da angeblich kommen soll.... Nur widersprechen sich einige Gerüchte ständig, und die Termin-Vorhersagen waren bisher alles andere als treffend...

Ich lese jedenfalls ständig bei sonyalpharumors mit, weil ich auf die A7rII schiele, sofern sie IBIS haben sollte....


Die A7RII kommt ganz sicher, ich tippe dieses jahr noch.
A7M ist wesentlich fraglicher und ich wuesste auch garnicht was ich dann machen soll. 2 boddys in der liga sind nicht so ganz mein standart, das geht eigentlich nicht. Und ich muesste viel wichtiger estmal auf objektive sparen.

w

_________________
Endlich wieder Kleinbild!
Kann ich nicht mehr sagen, denn ich habe den Sensor vergrößert von klein auf Mittelmaß Wink
Offline Benutzer-Profile anzeigen Alle Beiträge von spatz98 anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Du kannst Dateien in diesem Forum nicht posten
Du kannst Dateien in diesem Forum nicht herunterladen
Alle Zeiten sind GMT + 1 Stunde  
Seite 1 von 2  

  
  
 Neue Antwort erstellen  

Traumflieger-Video: Hähnel Combi TF per Funk Kamera auslösen und blitzen (100m) !  kabellos blitzen mit dem Slave Flash - neuer Traumflieger-Report !  das Profihandbuch zur Canon EOS 60D !