Macboy schreef:
Michele het is geweldig om te zien hoeveel kennis jij in huis hebt en hoe je alles met ons deelt.
Dank, maar zoveel kennis heb ik niet. Kennis impliceert dat je ook precies weet hoe het werkt, en ik weet vooral waar ik heel snel de juiste info vandaan moet halen. Heeft te maken met het feit dat ik al een jaar of 12 voor diverse fotobladen schrijf, dan moet je heel veel technisch persmateriaal schiften en komt dus alles wel een keer voorbij fietsen.
allen schreef:@Michele: Even buiten het feit dat de Monochrom voor mij kwa prijs als compleet buiten proporties overkomt en hobbies hun grenzen kennen, kun je me eens je gedachtengang geven over die sensor. Ik ben alles behalve technisch. Ik lees eerder dat het in de 'digitale wereld' beter zou zijn om kleur achteraf om te zetten (ik schiet raw, dus feitelijk gebeurd dat dus ook) in zwart wit omdat je anders al teveel informatie vooraf verliest.
Dat stukje tezamen met wat Leica nu meent te hebben uitgevonden kruist een beetje met de theorie die ik probeer te verwerken.
Ik zie tests van mensen die zowel een Monochrom als een Fuji xpro / xe1 hebben. De een blijft lyrisch over z'n Leica, de ander is blijer met z'n Fuji.
De Monochrom zou iig ragscherpe foto's kunnen maken, maar als ik naar de foto's kijk van de Fuji kan ik niet zeggen dat het ook maar iets onscherp zou zijn. Kun je zelfs nog zo nu en dan in kleur schieten en het kost een kwart van alleen de body van zo'n Monochrom...

Even in simpele bewoordingen en vooral theoretisch (praktijk is veel ingewikkelder): de monochrom sensor is in principe dezelfde sensor als in een M9, maar dan zonder Bayer filter. Dit betekent dat iedere pixel (18 miljoen) in plaats van een kleur, slechts een helderheidswaarde krijgt toegewezen. Sec gesproken heb je hierdoor een hogere resolutie en dus een scherper beeld omdat de 'extra pixels' er niet bij hoeven te worden gerekend en iedere pixel dus de echte waarde geeft die 'gezien wordt'. Want: als je een Bayer filter gaat bekijken, levert die op elke vier pixels 2 groene, 1 blauwe en 1 rode. Het groene kanaal levert dus een 'gat' van 2 pixels per vier, en het blauwe en rode kanaal ieder een gat van drie pixels. Door interpolatie wordt die ontbrekende info erbij gerekend. Dit gaat echter ten koste van de absolute scherpte. Dit geldt trouwens ook voor RAW, want RAW is het beeld dat van de sensor komt en heeft dus al Bayer waarden meegekregen. Een Bayerfilter zit namelijk vóór de sensor, maar hoe die waarden toegepast worden bepaal je achteraf met de software. Doordat de Leica op iedere pixel slechts een absolute waarde geeft, telt iedere pixel voor wat ie is in het uiteindelijke plaatje = scherper. Er is geen informatie 'bijverzonnen'. Nadeel: als je er naast zit met je belichting heb je ook helemaal niets, want zoals gemeld: iedere pixel is absoluut en er wordt geen info bijgerekend (wat bij een verkeerde belichting in het geval van Bayer wel kan: de juiste info wordt dan gereconstrueerd op basis van de omliggende kleuren).
Voordeel van de monochrom is dat je verder kan vergroten zonder dat je in de problemen komt omdat er geen geïnterpoleerd plaatje word opgeblazen, maar een absoluut plaatje. Dus als je een tableau van 2x3 meter aan de muur welt, dan is het wellicht een optie.
Kleur omzetten naar zwartwit kan ook en geeft perfecte resultaten als je weet hoe het moet (per kleurkanaal net als de klassieke doka, bij voorkeur in RAW), maar theoretisch verlies je dan kwaliteit omdat je een geïnterpoleerd plaatje nog verder gaat 'uitkleden', lees: kleurinfo gaat verwijderen. Want: de kleuren rood en blauw hebben een vrijwel vergelijkbare grijswaarde als je ze omzet naar zwartwit. Dat betekent dus dat als je slechts de kleur verwijdert, je ook de helft van je beeldinfo wegmikt. Daardoor verlies je absolute scherpte. Gebruik dus NOOIT de grayscale functie maar zet de boel altijd om via de kleurkanalen of gebruik de verzadigingsschuif.
Dat een plaatje van 16 of 18 megapixels in kleur of zwartwit er sowieso scherp uitziet, heeft te maken met het feit dat je wel heel erg moet gaan zoeken wil je onscherpte vinden als de boel correct belicht is en goed scherpgesteld. Een onscherp objectief veroorzaakt meer onscherpte dan de interpolatie van de pixels. Doorgaans is het alleen aan te tonen met tests en bij beeldscherm op +100% beoordeling. Dan zie je de ontstane artefacten en de ruis die onscherpte veroorzaken. Maar wie doet dat (buiten KW dan...

). Scherpte is afhankelijk van beschouwingsafstand en toleranties. Als alles binnen de toleranties valt en je hebt de correcte beschouwingsafstand, dan is het scherp.