Astrofotografie :: Grundlagen

 
Bei der digitalen Bildbearbeitung verläßt man die vertraute Welt der ´analogen´ visuellen Beobachtung. Hier gibt es keinen ´weichen´ Verlauf. Hier geht es um Pixel, Abtast-Theorem, Nyquist-Kriterium und Quantisierung.

Grundlagen

Grundsätzlich besteht ein digitales Bild aus mehreren Millionen winziger Farbpunkte, die wie auf einem Schachbrett angeordnet sind. Genau genommen besteht bei Farbkameras jeder dieser "Punkte", auf neudeutsch auch Pixel genannt, aus einem sogenannten Farbquadrupel.

Farbkameras
Farbchip Farbquadrupel Jeder dieser Pixel setzt sich aus einem Farbquadrupel zusammen, welcher aus je 4 lichtempfindlichen Zellen besteht, vor denen ein roter, zwei grüne und ein blauer Mikrofilter angebracht ist. Jedem dieser Einzelzellen wird ein Helligkeitswert zugeordnet. Und dieser Helligkeitswert kann nur ganz bestimmte Helligkeitsstufen annehmen, wobei die Anzahl der einzelnen "diskreten" Stufen auf 256 begrenzt ist. Das ist recht grob, aber für unsere Augen ergeben sich daraus 256*256*256=16.777.216 verschiedene Farben, woraus sich ein akzeptabler Bildeindruck ergibt. Ausführliche Details dazu auf der Seite ToUcam - Funktionsweise.
Schwarz-Weiß-Kameras
Läßt man nun diese Mikrofilter weg, dann hätte man einen Schwarz-Weiß-Chip mit einer bedeutend höheren Lichtempfindlichkeit, denn die Mikrofilter auf den Farbchips lassen nur gut ¼ des einfallenden Lichts hindurch.

Leider läßt diese Art der Bildspeicherung nicht annähernd den Kontrastbereich zu, der für die korrekte Darstellung vieler Deep-Sky-Objekte nötig wäre. Es gibt zwar auch Bildformate, bei denen jeder Farbpunkt 65.536 verschiedene Werte annehmen kann, doch wird dies nur von wenigen Kameras unterstützt. Und letztlich kommt man zur Darstellung auf dem Bildschirm nicht umhin, diese 65.536 Stufen wieder auf 256 Stufen herunterzurechnen, denn praktisch keine Grafikkarte unterstützt eine solch gewaltige Farbtiefe. Jedoch kann man bei der Gelegenheit eine Sättigung zuverlässig vermeiden.

Nun sollen digitale Bilder nicht schlechtgeredet werden, ganz im Gegenteil! Denn nur digital gespeicherte Bilder erlauben eine Bearbeitung wie sie mit chemisch gespeicherten Bildern ("echte" Fotografien auf Filmmaterial) nicht einmal ansatzweise möglich sind.

Denn digitale Bilder lassen sich rein rechnerisch auch als Helligkeitsverlauf als Funktion des Ortes darstellen. Und auf diese Funktion läßt sich das ganze Arsenal an mathematischen Funktionen loslassen, wie sie heute zum Standard gehören: Fouriertransformation (Filtern, Entrauschen, Schärfen), Kreuzkorrelation (Kombinieren,Entrauschen), Filterfunktionen wie Bessel, Butterworth, Tschebycheff (Schärfen, Weichzeichnen) und dergleichen mehr. Und ganz nebenbei läßt sich die Helligkeit als Funktion des Ortes auch mit frei definierbaren "Fremdfunktionen" überlagern (Kontrast,Helligkeit,Farbton).

Moderne Bildbearbeitungsprogramme haben diese "Tricks" schon eingebaut und lassen sich so intuitiv bedienen, daß der Anwender von dem enormen Komplexheitsgrad nichts bemerkt.

https://astrofotografie.hohmann-edv.de/bildbearbeitung/grundlagen.php
© 2005-2018 Astrofotografie | Stand: 2014-06-12 | CCBot 2.0 / unknown | Programmierung: Hohmann-EDV
Diese Website verwendet Cookies für eine bestmögliche Funktionalität und setzt bei Bedarf auch solche von Drittanbietern. Durch die Nutzung dieser Website erklären Sie sich mit der Nutzung von Cookies einverstanden.

OKMehr Infos...