Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • Isaac
    Free-Member
    • 24.05.2006
    • 114

    #76
    AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

    Hallo Canonflexer!
    Zitat von Canonflexer
    Ich verstehe Euch "Vergleichs-Verleugner" nicht... warum soll ich nicht Bilder von Kamera A mit Bildern von Kamera B vergleichen können? Man kann ja die Frage nach der Sinnhaftigkeit stellen, aber es ist und bleibt ein Vergleich.
    Nicht die Frage nach der Sinnhaftigkeit, sondern, nach welchen Kriterien vergleicht werden soll. Auf das reine Bildmäßige angewendet, kann verglichen werden (weil gleiche Vorlage usw) aber was die Kameras und Objektive betrifft, gleichen sich die vielleicht in ihrem Aussehen oder Gewicht, aber eben nicht in ihrer technischen Ausstattung/Leistung. In so einem Fall ist es eine Gegenüberstellung.
    Außerdem: Wäre das Ergebnis anders ausgefallen (nämlich, dass die 5D-Scherbe-Paarung besser wäre), wäre hier genau das gleiche stupide Geblöke losgegangen, von wegen Pixel-Vorsprung (kein Vergleich!!!).
    Um es auf den Punkt zu bringen (ausserhalb der Schafherde), jedes Mehr an Pixel gegenüber (!!!) einem Weniger an Pixel bringt Vorteile. Aber auch, jedes Mehr an Kontrast/Auflösung gegenüber (!!!) einem Weniger an Kontrast/Auflösung bringt Vorteile.
    Und die Auswertung der gegenständlichen Gegenüberstellung läßt den Schluß zu, daß rein visuell die Paarung Kontrast/Auflösung und WENIG Pixel der Paarung VIEL Pixel und wenig Kontrast/Auflösung als überlegen angesehen werden kann.
    Ergänzend ist aber zu bemerken, daß im Fall 5D 'Paarung' der Aufwand nahezu 0 war, im Fall 1D schon einiger Aufwand zur Nachbearbeitung notwendig war (also auch von da her KEIN Vergleich). Derselbe Zeit- und Mittelaufwand in die Paarung 5D reingesteckt, hätte diese wieder an die vordere Position gebracht.
    Im Nachhinein zu sagen: "War ja von vorneherein klar!" ist natürlich eine starke Leistung...
    Der Vorteil des Theoretikers :-)

    Kommentar

    • Alex K.
      Free-Member
      • 20.09.2005
      • 2188

      #77
      AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

      Zitat von Isaac
      Hallo Alex!


      Einspruch :-) weil die 'Auflösung' ist durch die Abtastrate=Pixelanzahl fix vorgegeben. Alles was das AA-Filter macht, ist Auflösungsanteile jenseits der Abtastrate (eigentlich Nyquistrate) so gut als es geht vom Abtaster fernzuhalten.

      Das würde nur dann gelten, wenn das AA-Filter weit unterhalb der Abtastbedingung wirklich extrem abschneiden würde. Und gleichzeitig sagst du aber auch aus, daß dann - völlig richtig - nur Kontrast und Kanten verstärkt werden können.

      Ich denke die nachfolgende A/D Wandlung können wir einmal, was den 'Frequenzgang' betrifft, beiseite lassen (aber nicht was Dynamik und Rauschen betrifft). Ich versuche es mit einem Beispiel, wie ich es ähnlich schon gebracht habe:
      Gegeben sei eine Tonaufnahme auf CD (f_max 20kHz, 44kHz Abtastrate) und der monorale Sendekanal eines UKW Senders (für das L/R Differenzsignal gilt ja ähnliches) der maximal 15kHz (bei 38kHz Abtastrate?) übertragen kann.
      Das CD-Quellsignal wird derart gefiltert, daß die verbleibenden Anteile im Frequenzspektrum gleich und oberhalb 15kHz nahezu 0 (stimmst du mir mit -40dB zu?) sind. So einen idealen Filter könnte man vielleicht bauen, aber um den Preis hoher unlinearität im Bereich unterhalb 15kHz. Also nimmt man einen realen Filter, der bis 10kHz hinauf unter 1dB Abweichung hat und darüber bis 15kHz stetig (!!!) dämpft. Bei 12kHz haben wir dann vielleicht -3dB, bei 13kHz -15dB, bei 14kHz - 25dB und bei 15kHz die gewünschten -40dB (sind jetzt nur geschätzte Hausnummer, aber für das Gedankenexperiment ausreichend).
      Übertragen auf unsere Digakamera sieht das dann so aus, daß das AA-Filter schon weit unterhalb der Abtasttheoremgrenzfrequenz zu dämpfen beginnt, damit auch sicher der Bereich darüber keine Störungen verursacht. Wenn das verwendete Objektiv in der Umgebung der Grenzfrequenz noch Information liefert, dann ist diese Information zwar weiterhin (je tiefer die Frequenz umso mehr) vorhanden, aber eben in Richtung Grenzfrequenz immer stärker gedämpft und idealerweise ab der Grenzfrequen (beinahe) komplett weg. Nochmals: die Information ist vorhanden, aber eben nicht mehr mit dem vollen Pegel!

      Exakt, aber mit der nachfolgenden A/D Wandlung hat das nichts mehr zu tun, die kann so schnell wie es die Ausleseelektronik nur schafft, erfolgen.

      Und du bestätigst jetzt exakt das, was ich in einem vorherigen Beitrag aussagen wollte! Es fällt schwer, äquivalente Schärfeparameter zu finden, einfach weil sie uns unbekannt sind. Unscharfe Maske und Kantenverstärkung KÖNNEN zwar angewandt werden, sind aber mit hoher Wahrscheinlichkeit weit weg davon, den vom AA-Filter gedämpften Bereich wieder exakt (frequenzmäßig) auf den ursprünglichen Wert zu bringen. Wenn nun dem Kamerahersteller die Übertragungsfunktion des AA-Filters bekannt ist (wovon wir einmal ausgehen können) dann kann er (und ich postuliere, NUR ER) die Verluste des realen AA-Filters exakt wiederherstellen. Natürlich mit einem kalkulierbaren Dynamikverlust im Bereich der hohen Auflösungsfrequenzen und dem damit einhergehenden zusätzlichen Rauschen.
      Und um jetzt gleich an einen andren Beitrag von mir anzuknüpfen (JPEG Kompression), es liegt auch auf der Hand, wo sich so eine Frequenzgangkorrektur am elegantesten unterbringen läßt: Bei der Quantifizierung nach der Cosinustransformation, weil da haben wir exakt das was wir brauchen, nämlich das Bildsignal in der Frequenzdomäne. Und ich traue mich zu wetten, daß da dann nur ganz einfach der entsprechende Frequenzbereich (also die letzten 5 - 10 aus dem 64 Pixel Subsample) entsprechend hinquantifiziert werden. Und bei der Dekompression wird 'normal' (linear) dequantifiziert und voilá, wir haben das AA-Filter ausgetrickst. Und wenn wir mit RAW arbeiten, dann kann das am ehesten noch die Originalsoftware (bei Canon das DPP oder der RAW Image Task) und mit an Sicherheit grenzender Wahrscheinlichkeit kein Programm dritter.
      Richtig ist, dass analoge Filter nicht ideal (Rechteck) sondern real sind, d.h. mit begrenzter Flankensteilheit. Dem trägt man dadurch Rechnung, dass man bis zu einem gewissen Grade überabtastet (oversampling). Je schlechter das Filter, je stärker muss ich überabtasten. Oder ich erhalte Artefakte/Moire, was ja auch mal hier und da vorkommen soll..-) Vielleicht bei Nikon eher als bei Canon. Da steckt aber keine Signalinformation drin, das Signal ist daraus nicht rekonstruierbar. Das ist ja gerade die Aussage des WKS-Sampling-Theorems. Nach der Digitalisierung/Abtastung (z.B. mit 2,3 facher statt nur 2 facher Frequenz gegenüber der Grenzfrequenz) erfolgt die digitale Filterung. Und danach sind die Infos nun wirklich weg. Im übrigen muss man sich nicht nur die Amplitude anschauen bei einer Filterung, sondern auch die Phase. Das macht das noch etwas komplexer, ändert aber nichts an der o.a. Aussage.
      USM, Kantenschärfen, was auch immer, hat nichts mit einer Rückgewinnung von Auflösung zu tun. Es ist nur eine Erhöhung des Kontrastes, nichts anderes.

      Kommentar

      • Norbert Wasser
        Free-Member
        • 29.10.2003
        • 837

        #78
        AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

        Der AA-Filter macht eigentlich folgendes:
        Er verteilt die Lichtmenge die auf die Oberfläche einer Pixel-Mikrolinse fällt auf die benachtbarten Pixel um eine Moire-Bildung bei zu feinen Strukturen zu vermeiden.
        In der Elektrotechnik benutzt man zur Analyse eines Filters einen Dirac-Stoß um die Impulsantwort zu ermitteln. Also könnte man ja auch einen "optischen" Dirac-Stoß ausprobieren:
        Aufnahme eines schachbrettartigen Blatt Papiers. Das Muster des Schachbretts sollte natürlich deutlich gröber als die Abtastrate, also die Pixelauflösung sein, so vielleicht 30*20 Felder.
        Nun müßte man an den "Verwaschungen" der Hell-Dunkel-Übergänge eigentlich recht gut erkennen, was denn das AA-Filter so macht, also auf wieviele Pixel das AA-Filter die Lichter verteilt. - Vorausgesetzt natürlich bei der RAW-Entwicklung wird nicht gerade das schon eingerechnet;-)

        Kommentar

        • Canonflexer
          Free-Member
          • 26.07.2005
          • 649

          #79
          AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

          Hallo Isaac!

          Zitat von Isaac
          Nicht die Frage nach der Sinnhaftigkeit, sondern, nach welchen Kriterien vergleicht werden soll.
          Ebent. Und meiner Bescheidenen Meinung nach war die dem Vergleich zu Grunde liegende Frage - also das Kriterium - wie macht sich die 5D eines vollformatfixierten Amateurs mit klischeetauglicher Gummilinse gegenüber einer Profi-Kamera mit entspr. Optik und Workflow?

          Wegen Schärfung, AA-Filter etc: Ist doch alles Kappes... :-)

          Durch Schärfung gewinnt man ja nichts zurück, es gibt nur einen Grund dafür: Es sieht besser aus. Da "besser aussehen" ein höchst subjektives Empfinden ist, dürfte wohl auch die Art der Schärfung ebenso subjektiv sein. Mein Senf.

          Kommentar

          • W.Neuling
            Free-Member
            • 19.03.2006
            • 92

            #80
            AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

            Zitat:
            <TABLE cellSpacing=0 cellPadding=6 width="100%" border=0><TBODY><TR><TD class=alt2 style="BORDER-RIGHT: #505a53 1px solid; BORDER-TOP: #505a53 1px solid; BORDER-LEFT: #505a53 1px solid; BORDER-BOTTOM: #505a53 1px solid">Bezug auf die Nachricht von Isaac

            Hallo Alex!


            Einspruch :-) weil die 'Auflösung' ist durch die Abtastrate=Pixelanzahl fix vorgegeben. Alles was das AA-Filter macht, ist Auflösungsanteile jenseits der Abtastrate (eigentlich Nyquistrate) so gut als es geht vom Abtaster fernzuhalten.

            Das würde nur dann gelten, wenn das AA-Filter weit unterhalb der Abtastbedingung wirklich extrem abschneiden würde. Und gleichzeitig sagst du aber auch aus, daß dann - völlig richtig - nur Kontrast und Kanten verstärkt werden können.

            Ich denke die nachfolgende A/D Wandlung können wir einmal, was den 'Frequenzgang' betrifft, beiseite lassen (aber nicht was Dynamik und Rauschen betrifft). Ich versuche es mit einem Beispiel, wie ich es ähnlich schon gebracht habe:
            Gegeben sei eine Tonaufnahme auf CD (f_max 20kHz, 44kHz Abtastrate) und der monorale Sendekanal eines UKW Senders (für das L/R Differenzsignal gilt ja ähnliches) der maximal 15kHz (bei 38kHz Abtastrate?) übertragen kann.
            Das CD-Quellsignal wird derart gefiltert, daß die verbleibenden Anteile im Frequenzspektrum gleich und oberhalb 15kHz nahezu 0 (stimmst du mir mit -40dB zu?) sind. So einen idealen Filter könnte man vielleicht bauen, aber um den Preis hoher unlinearität im Bereich unterhalb 15kHz. Also nimmt man einen realen Filter, der bis 10kHz hinauf unter 1dB Abweichung hat und darüber bis 15kHz stetig (!!!) dämpft. Bei 12kHz haben wir dann vielleicht -3dB, bei 13kHz -15dB, bei 14kHz - 25dB und bei 15kHz die gewünschten -40dB (sind jetzt nur geschätzte Hausnummer, aber für das Gedankenexperiment ausreichend).
            Übertragen auf unsere Digakamera sieht das dann so aus, daß das AA-Filter schon weit unterhalb der Abtasttheoremgrenzfrequenz zu dämpfen beginnt, damit auch sicher der Bereich darüber keine Störungen verursacht. Wenn das verwendete Objektiv in der Umgebung der Grenzfrequenz noch Information liefert, dann ist diese Information zwar weiterhin (je tiefer die Frequenz umso mehr) vorhanden, aber eben in Richtung Grenzfrequenz immer stärker gedämpft und idealerweise ab der Grenzfrequen (beinahe) komplett weg. Nochmals: die Information ist vorhanden, aber eben nicht mehr mit dem vollen Pegel!

            Exakt, aber mit der nachfolgenden A/D Wandlung hat das nichts mehr zu tun, die kann so schnell wie es die Ausleseelektronik nur schafft, erfolgen.

            Und du bestätigst jetzt exakt das, was ich in einem vorherigen Beitrag aussagen wollte! Es fällt schwer, äquivalente Schärfeparameter zu finden, einfach weil sie uns unbekannt sind. Unscharfe Maske und Kantenverstärkung KÖNNEN zwar angewandt werden, sind aber mit hoher Wahrscheinlichkeit weit weg davon, den vom AA-Filter gedämpften Bereich wieder exakt (frequenzmäßig) auf den ursprünglichen Wert zu bringen. Wenn nun dem Kamerahersteller die Übertragungsfunktion des AA-Filters bekannt ist (wovon wir einmal ausgehen können) dann kann er (und ich postuliere, NUR ER) die Verluste des realen AA-Filters exakt wiederherstellen. Natürlich mit einem kalkulierbaren Dynamikverlust im Bereich der hohen Auflösungsfrequenzen und dem damit einhergehenden zusätzlichen Rauschen.
            Und um jetzt gleich an einen andren Beitrag von mir anzuknüpfen (JPEG Kompression), es liegt auch auf der Hand, wo sich so eine Frequenzgangkorrektur am elegantesten unterbringen läßt: Bei der Quantifizierung nach der Cosinustransformation, weil da haben wir exakt das was wir brauchen, nämlich das Bildsignal in der Frequenzdomäne. Und ich traue mich zu wetten, daß da dann nur ganz einfach der entsprechende Frequenzbereich (also die letzten 5 - 10 aus dem 64 Pixel Subsample) entsprechend hinquantifiziert werden. Und bei der Dekompression wird 'normal' (linear) dequantifiziert und voilá, wir haben das AA-Filter ausgetrickst. Und wenn wir mit RAW arbeiten, dann kann das am ehesten noch die Originalsoftware (bei Canon das DPP oder der RAW Image Task) und mit an Sicherheit grenzender Wahrscheinlichkeit kein Programm dritter.

            </TD></TR></TBODY></TABLE>


            Richtig ist, dass analoge Filter nicht ideal (Rechteck) sondern real sind, d.h. mit begrenzter Flankensteilheit. Dem trägt man dadurch Rechnung, dass man bis zu einem gewissen Grade überabtastet (oversampling). Je schlechter das Filter, je stärker muss ich überabtasten. Oder ich erhalte Artefakte/Moire, was ja auch mal hier und da vorkommen soll..-) Vielleicht bei Nikon eher als bei Canon. Da steckt aber keine Signalinformation drin, das Signal ist daraus nicht rekonstruierbar. Das ist ja gerade die Aussage des WKS-Sampling-Theorems. Nach der Digitalisierung/Abtastung (z.B. mit 2,3 facher statt nur 2 facher Frequenz gegenüber der Grenzfrequenz) erfolgt die digitale Filterung. Und danach sind die Infos nun wirklich weg. Im übrigen muss man sich nicht nur die Amplitude anschauen bei einer Filterung, sondern auch die Phase. Das macht das noch etwas komplexer, ändert aber nichts an der o.a. Aussage.
            USM, Kantenschärfen, was auch immer, hat nichts mit einer Rückgewinnung von Auflösung zu tun. Es ist nur eine Erhöhung des Kontrastes, nichts anderes.
            <!-- / message -->.

            IST DAS COOL HIER!!! Das ist ja wirklich großes Kino! Da kann ich als M.A. mit einem philologischen Studium doch tatsächlich 'ne ganze Menge lernen in diesem Forum. Macht bitte weiter, dann kann ich demnächst im Kollegenkreis mit meinem neuen Technik-Wissen angeben. Nein, aber ehrlich, Hut ab vor diesem Wissen!

            Kommentar

            • Canonicus
              Free-Member
              • 09.09.2005
              • 506

              #81
              AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

              Zitat von Alex K.
              Richtig ist, dass analoge Filter nicht ideal (Rechteck) sondern real sind, d.h. mit begrenzter Flankensteilheit. Dem trägt man dadurch Rechnung, dass man bis zu einem gewissen Grade überabtastet (oversampling). Je schlechter das Filter, je stärker muss ich überabtasten. Oder ich erhalte Artefakte/Moire, was ja auch mal hier und da vorkommen soll..-) Vielleicht bei Nikon eher als bei Canon. Da steckt aber keine Signalinformation drin, das Signal ist daraus nicht rekonstruierbar.
              Aus einem Moiré-verseuchten Bildbereich ist auch nichts "rekonstruierbar". Auch die Analogie zum "Oversampling" (z.B. im digitalen Audio-Bereich) scheint mir nicht hilfreich, sie dient primär der Erkennung von Abtast-Bitfehlern bereits digital gespeicherter Klangereignisse - die gar keine "Informationen" des gekappten Frequenzbereiches mehr enthalten. So ist in diesem Bereich auch die Filterflankensteilheit analoger Audio-Tiefpässe relativ unbedeutend, da ja ein Bereich "gekappt" wird, der eh' nicht hörbar ist. Der hörbare Bereich "darunter" bleibt hinsichtlich seiner "Auflösung" zumindest vom Tiefpaßfilter unbeeinflußt.
              Aber selbst wenn wir bei der "Aufnahmeseite" bleiben - in der Audiotechnik wird auch dort eine Vielzahl von Filtern eingesetzt - vom Trittschall- und Mundlaut-Zischfilter bis hin zu Bandpaßfiltern und sonstigen "Frequenz-Limitern" sowie Laufzeitkorrektur-Filtern bei räumlich großen, "großorchestralen" Klangereignissen und Multi-Mikrofonaufnahmetechnik. Und das gewiß nicht zum Nachteil der Aufnahmequalität.

              Ein vernünftig frequenzlimitierender optischer AA-Filter vor dem Bildsensor verhindert, daß dieser "in den Nyquist hineinläuft", d.h. Moirébildung bei der Abtastung von hohen Ortsfrequenzen. Bei dieser Limitierung wird ein bißchen Auflösung verschenkt, um nicht noch mehr Bildqualität an Herrn Nyquist zu verschenken - durch die überaus häßliche, irreparable Moirébildung.
              Ich würde mir z.B. in der 5D und der 1Dm2N "eigentlich" einen stärkeren AA-Tiefpaß wünschen - die beiden Kameras sind nämlich mit einem Zeiss-Distagon mühelos und gut sichtbar in's Moiré zu treiben, z.B. bei Stadtpanoramen von oben - mit vielen Ziegeldächern.

              Zitat von Alex K.
              Das ist ja gerade die Aussage des WKS-Sampling-Theorems. Nach der Digitalisierung/Abtastung (z.B. mit 2,3 facher statt nur 2 facher Frequenz gegenüber der Grenzfrequenz) erfolgt die digitale Filterung. Und danach sind die Infos nun wirklich weg. Im übrigen muss man sich nicht nur die Amplitude anschauen bei einer Filterung, sondern auch die Phase. Das macht das noch etwas komplexer, ändert aber nichts an der o.a. Aussage.
              Welche "digitale Filterung" meinst Du denn? Das Bayer-"Demosaicing" ist mit dem Begriff "Filterung" doch eher sehr unzureichend beschrieben. Was bewegt Dich zu der Annahme, daß ein optischer AA-Filter überhaupt nennenswerte "Phasenverschiebungen" oder gar "Phasendrehungen" wie z.B. ein analog-elektrischer Tiefpaßfilter verursacht? Und vor allem: in welcher Größenordnung? Mit welchen Problemen dürfte z.B. das AA-filterlose Leica-DMR mehr zu kämpfen haben - dem nachträglichen "Hineinnrechnen" einer "digitalen" AA-Filterung (Blurring) oder dem "Herausrechnen" von Moiré...?

              Zitat von Alex K.
              USM, Kantenschärfen, was auch immer, hat nichts mit einer Rückgewinnung von Auflösung zu tun. Es ist nur eine Erhöhung des Kontrastes, nichts anderes.
              Ja. Das gilt aber auch für Aufnahmen, deren Mangel an Detail-Information einfach nur miesen Linsen geschuldet ist. Und etwas Nachschärfen ist besser, als ein Bild wegen Moirébildung wegschmeißen zu müssen. Deshalb ist die Auseinandersetzung um die "Grundschärfe", d.h. ob ein mehr oder weniger starker AA-Filter jeweils "besser" oder "schlechter" ist, ein Streit um des Kaiser's Bart. Daß ungeachtet dessen mehr MP auch mehr Auflöung bringen (können), ist hingegen unbestritten.

              Kommentar

              • Isaac
                Free-Member
                • 24.05.2006
                • 114

                #82
                AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

                Hallo Canonflexer!

                Zitat von Canonflexer
                Durch Schärfung gewinnt man ja nichts zurück, es gibt nur einen Grund dafür: Es sieht besser aus. Da "besser aussehen" ein höchst subjektives Empfinden ist, dürfte wohl auch die Art der Schärfung ebenso subjektiv sein. Mein Senf.
                Durch die richtige Schärfung (Dekonvolution) gewinnst du innerhalb der Grenzen des Abtasttheorems die verlorene Information (mit schlechterem S/N) wieder zurück.

                Bei der analogen aber auch digitalen Tonübertragung ist das 'Preemphasis' und nachherige 'Deemphasis'. Da ein AA-Filter aber der 'Deemphasis' entspricht, muß man mittels richtiger Schärfung die 'Preemphasis' machen....

                Kommentar

                • Detlev Rackow
                  Moderator
                  • 02.06.2003
                  • 7937

                  #83
                  AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

                  Zitat von Isaac
                  Bei der analogen aber auch digitalen Tonübertragung ist das 'Preemphasis' und nachherige 'Deemphasis'. Da ein AA-Filter aber der 'Deemphasis' entspricht, muß man mittels richtiger Schärfung die 'Preemphasis' machen....

                  Das kann man nicht vergleichen. De- und Preemphasis sind Funktionen mit einem eineindeutigen Ergebnis: Ein Signalwert nach Preemphasis kann eindeutig einem Ausgangswert zugeordnet werden. Zerstreuung (Unschärfe) hat aber nicht einmal ein eindeutiges Ergebnis, geschweige denn ein eineindeutiges. Ein kontrastmindernder Graumatschpixel kann jedem umgebenden Ursprungspixel zugehörig sein, denn alle Ausgangspunkte streuen auf alle benachbarten Abbildungspunkte. Zu welchem Ausgangspixel ein Grauwert also als Schwarz- oder Weißwert zuzuordnen ist, kann nur durch intelligentes Raten geschätzt werden.

                  Ciao,

                  Detlev
                  Amateurs worry about equipment.
                  Professionals worry about money.
                  Masters worry about light.

                  Kommentar

                  • Isaac
                    Free-Member
                    • 24.05.2006
                    • 114

                    #84
                    AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

                    Hallo Detlev!

                    Zitat von Detlev Rackow
                    Das kann man nicht vergleichen. De- und Preemphasis sind Funktionen mit einem eineindeutigen Ergebnis: Ein Signalwert nach Preemphasis kann eindeutig einem Ausgangswert zugeordnet werden. Zerstreuung (Unschärfe) hat aber nicht einmal ein eindeutiges Ergebnis, geschweige denn ein eineindeutiges. Ein kontrastmindernder Graumatschpixel kann jedem umgebenden Ursprungspixel zugehörig sein, denn alle Ausgangspunkte streuen auf alle benachbarten Abbildungspunkte. Zu welchem Ausgangspixel ein Grauwert also als Schwarz- oder Weißwert zuzuordnen ist, kann nur durch intelligentes Raten geschätzt werden.
                    Und das Schätzen durch intelligentes Raten nennt sich "Dekonvolution"...

                    Die "Streuung" ist eine Form der "Konvolution", die kann mathematisch sehr gut nachgebildet werden. Die Inversmatrix dazu ist dann die "Dekonvolutionsmatrix".

                    Etwas mehr darüber erfährst du bei http://de.wikipedia.org/wiki/Dekonvolution

                    Eigentlich können wir dem Weltraumteleskop Hubble nicht dankbar genug sein :-) weil durch die Montage-/Planungsfehler die digitale Bildnachbearbeitung einen ungeheuren Innovationsschub bekommen hat...

                    Kommentar

                    • Canonflexer
                      Free-Member
                      • 26.07.2005
                      • 649

                      #85
                      AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

                      Hallo Isaac!


                      Zitat von Isaac
                      Durch die richtige Schärfung (Dekonvolution) gewinnst du innerhalb der Grenzen des Abtasttheorems die verlorene Information (mit schlechterem S/N) wieder zurück.
                      Du kannst sie nicht zurückgewinnen. Du kannst das verstärken, was noch da ist, oder versuchen nach methematischen Modellen das wieder nachzubilden, was wohl mal da gewesen sein muss.

                      Durch Schärfung gewinnt man nichts, man verstärkt nur, was noch da ist - und das ist größtenteils ein ästhetisch zu bewertender Vorgang.

                      Kommentar

                      • pille
                        Free-Member
                        • 26.04.2006
                        • 22

                        #86
                        AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

                        Zitat von Isaac
                        Die Inversmatrix dazu ist dann die "Dekonvolutionsmatrix".

                        ..
                        Aus dem Glaubensbekenntnis der Digitaljünger:

                        "Ich glaube an die tägliche Matrix, den schönen Schein, wider des schnöden Seins"

                        Es ist doch immer wieder zu beobachten, daß Digitaltechnik (ob Photo, Audio usw.) vor allem eins können soll: Verlorene Daten zu rekonstruieren & fehlerfrei in den Datenstrom einzufügen.
                        Noch besser: Trotz Datenreduktion dem Original gleichen(MP3)...
                        das kann nicht gutgehen, wie man leicht hören kann.

                        Kommentar

                        • Canonicus
                          Free-Member
                          • 09.09.2005
                          • 506

                          #87
                          AW: Pixelvergleich 5D vs 1DIIn (Apfel=Birne)

                          Zitat von Isaac
                          Durch die richtige Schärfung (Dekonvolution) gewinnst du innerhalb der Grenzen des Abtasttheorems die verlorene Information (mit schlechterem S/N) wieder zurück
                          Dies ist sicherlich die Absicht des Verfahrens, aber seine "Verlustfreiheit" ist durchaus zweifelhaft. Dieser Umstand wiederum dürfte aber kaum praxisrelevant sein.

                          Zitat von Isaac
                          Bei der analogen aber auch digitalen Tonübertragung ist das 'Preemphasis' und nachherige 'Deemphasis'. Da ein AA-Filter aber der 'Deemphasis' entspricht, muß man mittels richtiger Schärfung die 'Preemphasis' machen....
                          Ja, aber dieser Vergleich hinkt dennoch etwas. "Pre-Emphasis / De-Emphasis" beruht nämlich auf ähnlichen, aber nicht den gleichen Überlegungen wie denen, die z.B. der Dolby-Rauschunterdrückung zu Grunde liegen - bei analoger Magnetaufzeichnung.

                          Bei Dolby-NR , werden die höherfrequenten Signalanteile vor der Magnetaufzeichnung verstärkt (Amplitude), damit diese Signalanteile die Rauschanteile des Speichermediums überlagern können. Hierdurch findet auch - bezogen auf den gesamten aufgenommenen Frequenzbereich - eine analoge "Dynamik-Kompression" statt, ganz ähnlich wie bei der Schallplatte, wo jedoch der Tieftonbereich per RIAA-Entzerrungskurve "komprimiert" wird. Bei der Wiedergabe muß bei magnetischen Aufzeichnungen die Lautstärke der Höhen entsprechend abgesenkt werden, da sie sonst dominant hervortreten, bei der Schallplatte muß der Tieftonbereich wiedergabeseitig verstärkt (Amplitude) werden.
                          Die "Pre-Emphasis" bei der digitalen Aufzeichnung dient hingegen nicht der "Rauschminderung", sondern dem Ausgleich des "Datenmangels" höherfrequenter Klangbereiche. Der angenommene Verlust an Höhen-Feinzeichnung ("Informationsverlust") rührt daher, daß sowohl aufnahmeseitig als auch wiedergabeseitig bei einer Aufzeichnungs- und Abtastfrequenz von nur 44 KHz die höherfrequenten Schallanteile zunehmend "stiefmütterlicher" behandelt werden als die niederfrequenten, also z.B. hinsichtlich ihrer Abstasthäufigkeit in der Nähe des oberen Fequenzlimits von 20 KHz deutlich "unterrepräsentiert" sind. Als Abhilfe hat man daher zeitweilig zum "Pre-Empasis / De-Emphasis" Verfahren gegriffen, was per Bit-Codierung die Lautstärkeinformation der oberen Frequenzbereiche (Amplitude) bei der digitalen Aufzeichnung anhob, die bei der Wiedergabe natürlich erkannt und wieder abgesenkt werden mußte. Der somit erzielte "Klanggewinn per Detailinformation" hielt sich durch diesem eher schlichten Trick naturgmäß sehr in Grenzen (er änderte ja nichts an der Abtastrate und somit am "Informationsgehalt"), und man ging - zumindest aufnahmeseitig! - zur Klang-Digitalisierung mit höherer Bit-Auflösung und mit höheren Abtastraten ("Master-Produktion") über. Denn mehr "Detailauflösung" blieb zwingend an höhere Abtastraten und höhere "Bit-Auflösung" gebunden. Ob dieser Aufwand angesichts des eher begrenzten menschlichen Hörvermögens jedoch wirklich immer nennenswerte Praxisrelevanz besitzt, sei dahingestellt. Hier dürften "Marketing", "Buzzwords" und "Voodoo" eine viel größere Rolle spielen.

                          Somit dürfte auch klar werden, daß sich die im Audiobereich verwendeten Digitalisierungs-Verfahren nur sehr eingeschränkt beispielhaft auf die der Bildaufzeichnung übertragen lassen - obwohl sie auf den gleichen mathematisch-physikalischen Prinzipien beruhen. Menschlicher Hör- und Gesichtssinn sind zudem unterschiedlich leistungsfähig, sodaß die Praxisrelevanz aller derartiger Vergleiche eigentlich gegen Null geht.

                          So ist und bleibt der diesbezügliche "Tech-Talk" hier nichts anderes ist als das vielfältige Echo von Marketing-Broschüren heutiger und vergangener Tage, von zu "bahnbrechenden Innovationen" hochstilisierten Produktspezifikationen, und von zu Produktbegriffen und Schlagwort-Neuschöpfungen vergewaltigten Splittern von Grundlagen-Physik. "Technisch-historisch interessant" ist das sicher allemal - aber ob das wirklich Verständnisfragen löst, und nicht eher nur die Werbefeldzüge einzelner Hersteller - z.B. hinsichtlich der "Überlegenheit" der einen oder anderen Kamera, Sensors oder sonstwas - hier im Forum fortsetzt?
                          Zuletzt geändert von Canonicus; 11.09.2006, 16:33.

                          Kommentar

                          Lädt...
                          X