Hallo!
Ich grüble schon seit einiger Zeit warum es bisher keine logarithmisch arbeitenden Sensoren für Digitalkameras gibt.
Menschliches sehen beruht auf logarithmischem Response, ebenso analoger Film. Für den Fall von Film heißt das beispielsweise dass eine bestimmte Region umso weniger Licht aufnimmt je heller sie schon belichtet ist.
Digitale Photographie hingegen reagiert linear auf Helligkeit und das bringt einige Qualitätsnachteile mit sich: die Daten müssen nachträglich per Gamma Kurve auf logarithmische Darstellung gebracht werden (was bedeutet dass die Tiefe und Mitten stark angehoben werden), was in einem Rauschverhalten resultiert, das offenbar weniger ästhetisch und in jedem Fall anders ist als man es von analogem Film gewohnt ist (Rauschen ist in dunklen Partien exponentiell stärker als in hellen). Weiter "fressen" Spitzlichter schneller aus.
Die Frage ist nun folgende: Wäre es nicht möglich während einer Belichtung die Daten des Sensors kontinuierlich (oder in bestimmten Intervallen) auszulesen und quasi in einem Speicher zu sammeln. Je mehr Licht ein bestimmter Pixel schon gesammelt hat, umso weniger nimmt er weiterhin auf (die neu hinzugefügte Helligkeit könnte z.B. durch einen Faktor dividiert werden, der proportional zur bereits angesammelten Helligkeit ist).
Was spricht gegen eine solche Technik? Ist es überhaupt möglich CMOS und CCD Sensoren während der Belichtung kontinuierlich auszulesen?
Wer kennt sich da aus, wer will Licht in meine Unwissenheit führen?
Danke schonmal, bin gespannt auf eure Antworten!
Ich grüble schon seit einiger Zeit warum es bisher keine logarithmisch arbeitenden Sensoren für Digitalkameras gibt.
Menschliches sehen beruht auf logarithmischem Response, ebenso analoger Film. Für den Fall von Film heißt das beispielsweise dass eine bestimmte Region umso weniger Licht aufnimmt je heller sie schon belichtet ist.
Digitale Photographie hingegen reagiert linear auf Helligkeit und das bringt einige Qualitätsnachteile mit sich: die Daten müssen nachträglich per Gamma Kurve auf logarithmische Darstellung gebracht werden (was bedeutet dass die Tiefe und Mitten stark angehoben werden), was in einem Rauschverhalten resultiert, das offenbar weniger ästhetisch und in jedem Fall anders ist als man es von analogem Film gewohnt ist (Rauschen ist in dunklen Partien exponentiell stärker als in hellen). Weiter "fressen" Spitzlichter schneller aus.
Die Frage ist nun folgende: Wäre es nicht möglich während einer Belichtung die Daten des Sensors kontinuierlich (oder in bestimmten Intervallen) auszulesen und quasi in einem Speicher zu sammeln. Je mehr Licht ein bestimmter Pixel schon gesammelt hat, umso weniger nimmt er weiterhin auf (die neu hinzugefügte Helligkeit könnte z.B. durch einen Faktor dividiert werden, der proportional zur bereits angesammelten Helligkeit ist).
Was spricht gegen eine solche Technik? Ist es überhaupt möglich CMOS und CCD Sensoren während der Belichtung kontinuierlich auszulesen?
Wer kennt sich da aus, wer will Licht in meine Unwissenheit führen?
Danke schonmal, bin gespannt auf eure Antworten!
Kommentar