Digitalkamera:Sterne vom Sensorrauschen trennen?

Hallo Kollegen :wink:

welche Grafiksoftware kann mir bei einer Sternen-Aufnahme via
Digitalkamera die Sterne vom Rauschen annÀhernd halbwegs brauchbar trennen ?

Geschickter Weise sollte das Programm sowohl (a) ein aufgenommenes digitales Himmelsfoto
und (b) ein Rauschpegel-Foto vom Sensor (also bei schlicht verdecktem Objektiv)
einlesen, und so den Rauschhintergrund wegrechnen, und das neue vereinfachte Bild speichern.

Kennt jemand was passendes ? Kann auch Freeware, oder ein Kommandozeilenprogramm
fĂŒr W2K od. Linux sein.

VG,
-Thomas/Stuttgart

Mit Gimp sollte das möglich sein (fĂŒr lau). Die Bilder in zwei Ebenen eines Bildes laden und subtrahieren.
Photoshop natĂŒrlich sowieso.

Kameras können das aber auch teilweise selbst und vollautomatistisch.
Bei der Nikon D70 z.B. lÀuft das unter der Bezeichnung Noisereduction.

Jens

Bilder subtrahieren reicht mE nicht
Hi Jens,

Mit Gimp sollte das möglich sein (fĂŒr lau). Die Bilder in zwei

Ohh, das ist ja schonmal ein guter Vorschlag. Wird ĂŒberprĂŒft.

Ebenen eines Bildes laden und subtrahieren.

Also das Sensor-Rausch-Bild vom Sternen-Bild zu subtrahieren reicht
aus meiner Sicht nicht wirklich. Ich dachte eher an die Bestimmung
eines geeigneten ‚Threshold-Feldes‘, oder zumindest ‚eines‘ Threshold-Wertes aus dem Sensor-Rausch-Bild. Alle Pixel vom Sternen-Bild
mit Werten unterhalb des Thresholds sollten dann auf ‚schwarz‘ gesetzt werden.

Photoshop natĂŒrlich sowieso.

Hmm.

Kameras können das aber auch teilweise selbst und
vollautomatistisch.
Bei der Nikon D70 z.B. lÀuft das unter der Bezeichnung
Noisereduction.

Da muss ich mir doch nicht extra selbst ne Software zusammenbasteln,
die die Noise-Thresholds beherrscht ??

Jens

VG,
-Thomas

Alle Pixel vom
Sternen-Bild
mit Werten unterhalb des Thresholds sollten dann auf ‚schwarz‘
gesetzt werden.

Auch das geht mit GIMP 
 Kontrast auf Maximum drehen, dadurch bekommst du ein Bild, dass nur noch aus Schwarz und Weiß besteht 
 daraus kannst du dann eine Maske bauen 


Aber wofĂŒr brauchst du dann das Bild bei geschlossenem Verschluss?

Photoshop natĂŒrlich sowieso.

Hmm.

Kameras können das aber auch teilweise selbst und
vollautomatistisch.
Bei der Nikon D70 z.B. lÀuft das unter der Bezeichnung
Noisereduction.

Da muss ich mir doch nicht extra selbst ne Software
zusammenbasteln,
die die Noise-Thresholds beherrscht ??

Den exakten Algorithmus kenne ich natĂŒrlich nicht, aber prinzipiell macht die oben genannte Kamera nach dem eigentlichen Bild, noch eins ohne den Verschluss zu öffnen, aber ansonsten mit den selben sonstigen Daten (ISO, Belichtungszeit) und rechnet mit den beiden Bildern rum, mit dem Ziel Rauschen durch ‚hot pixel‘ rauszurechenen.

Gegen rauschen, dass nicht pixel spezifisch ist, gibt es in Grafikprogrammen auch jede Menge optionen, und es gibt spezielle Programme (z.B. Noise Ninja) die sich darauf spezialisiert haben (einfach mal googlen)

In der Astrophotografie werden hĂ€ufig sehr viele Aufnahmen vom selben Motiv gemacht und ĂŒberlagert 
 ich habe aber nie ganz verstanden, warum das besser ist, als einfach entsprechend lange zu belichten.

Jens

Moin,

Alle Pixel vom
Sternen-Bild
mit Werten unterhalb des Thresholds sollten dann auf ‚schwarz‘
gesetzt werden.

Aber wofĂŒr brauchst du dann das Bild bei geschlossenem
Verschluss?

Ein sogenanntes Dark liefert Dir ausschließlich das Sensorrauschen bzw. noch wichtiger, Sensorfehler. Man bekommt also ein schwarzes Bild inklusive evtl. vorhandener heißer Pixel o.Ă€. Dieses vom Orginal zu subtrahieren ist i.A. notwendig und sinnvoll. Bedingung dafĂŒr ist, daß die Belichtungszeiten und die Umgebungstemperatur der beiden Aufnahmen (Orginal und Dark) gleich sind.

Da muss ich mir doch nicht extra selbst ne Software
zusammenbasteln,
die die Noise-Thresholds beherrscht ??

Nein. Siehe unten.

Den exakten Algorithmus kenne ich natĂŒrlich nicht, aber

Sowas ist meist eine exakte Subtraktion. Wenn man will, kann man noch einen Median- oder Gaussfilter (oder sonst einen GlĂ€ttungsfilter) drĂŒberschieben, um ein wenig zu glĂ€tten; aber das ist nicht immer hilfreich.

Gegen rauschen, dass nicht pixel spezifisch ist, gibt es in
Grafikprogrammen auch jede Menge optionen, und es gibt
spezielle Programme (z.B. Noise Ninja) die sich darauf
spezialisiert haben (einfach mal googlen)

In der Astrophotografie werden hÀufig sehr viele Aufnahmen vom
selben Motiv gemacht und ĂŒberlagert 
 ich habe aber nie ganz
verstanden, warum das besser ist, als einfach entsprechend
lange zu belichten.

Zwei oder drei GrĂŒnde:

  • ein Motiv kann man nur eine gewisse Zeit lang belichten, wenn man bspw. wie an einem Teleskop die Blende nicht wĂ€hlen kann. Man wird also solange belichten bis der hellste Bereich fast die SĂ€ttigung erreicht.
  • Selbst wenn der erste Grund nicht gegeben ist, so fĂ€ngt man sich mit kleiner Öffnung Beugungseffekte ein, die die mögliche Auflösung begrenzen. Je kleiner die Öffnung ist, desto grĂ¶ĂŸer sind die Beugungseffekte. Somit wĂ€re es sinnlos, lange zu belichten, wenn weniger Details zu erkennen sind als mit grĂ¶ĂŸerer Öffnung. Auflösung ~ WellenlĂ€nge des Lichts / Öffnung des Objektivs
  • Wenn man mehrere Bilder hintereinander vom selben Motiv macht, dann ist evtl. ein Bild futsch, wenn zwischendrin wer am Stativ wackelt, die NachfĂŒhrung spinnt etc. oder das Objekt noch scharf, wenn die NachfĂŒhrung ungenau ist.

Addiert man jetzt mehrere Bilder, wo steigt das Signal-zu-RauschverhĂ€ltnis an. BegrĂŒndet liegt das darin, daß das Rauschen als zufĂ€llige Störung angesehen werden kann, deren Mittelwert bei Null liegt. Das eigentliche Bildsignal ist jedoch immer gleich. Wenn wir also viele Bilder addieren, so wird die Statistik besser und das Rauschen mittelt sich besser heraus. Es gilt S/N ~ sqrt(N), d.h. man braucht 4 Mal soviele Aufnahmen, um das S/N-VerhĂ€ltnis zu verdoppeln.

ImageJ kann Dir vermutlich helfen: http://rsb.info.nih.gov/ij/

Oder, wenn Du Astronomie mit Belichtungsreihen oder einer Videokamera oder Webcam betreibst, ist fĂŒr Bildsequenzen http://www.videoastronomy.org/ sehr zu empfehlen.

Gruß,
Ingo

Bild bei geschlossenem Verschluss:Sensor-Rauschen
Hi,

Auch das geht mit GIMP 
 Kontrast auf Maximum drehen,

Checking in progress :wink:

Aber wofĂŒr brauchst du dann das Bild bei geschlossenem
Verschluss?

Ich weiss dann, was alles zum Sensor-Rauschen gehört. Kann ja
sein dass da ein-zwei kaputte Pixel (pixel ‚hell‘ wo kein Objekt) dabei sind.
Eigentlich mĂŒsste man sogar ein Bild von einem weissen Blatt
erzeugen, um eventuelle Pixel-Probleme zu erkennen (Pixel ‚schwarz‘ obwohl Objekt vorhanden), oder besser noch ein Bild von einer Graukarte erzeugen, gell ?

Den exakten Algorithmus kenne ich natĂŒrlich nicht, aber
prinzipiell macht die oben genannte Kamera nach dem
eigentlichen Bild, noch eins ohne den Verschluss zu öffnen,
aber ansonsten mit den selben sonstigen Daten (ISO,
Belichtungszeit) und rechnet mit den beiden Bildern rum, mit
dem Ziel Rauschen durch ‚hot pixel‘ rauszurechenen.

Die betroffene Kamer hab ich leider net, werde wohl nur ein
paar Tests mit einer, Àhm, Fujifilm F30 machen. Die nimmt
immerhin erfolgreich den Sternhimmel auf :smile:. DemnÀchst gibts mit einer Spiegelreflex-KonicaMinolta und einem Telekop ein paar bessere Folgefotos.

spezielle Programme (z.B. Noise Ninja) die sich darauf
spezialisiert haben (einfach mal googlen)

OK, wird ĂŒberprĂŒft.

In der Astrophotografie werden hÀufig sehr viele Aufnahmen vom
selben Motiv gemacht und ĂŒberlagert 
 ich habe aber nie ganz
verstanden, warum das besser ist, als einfach entsprechend
lange zu belichten.

Hatte ich auch mal nicht verstanden. Ich denke mal,
(a) man kann einzelne ‚schlechte Bilder‘ (zB verwackelt, od mit
Satellitenspur etc) aus der Sequenz manuell rauswerfen
(b) Mit einem verwendeten SensorChip X (bei digitalen Aufnahmen)
hat man irgendwann nach einer bestimmten Belichtungszeit
den zulÀssigen Maximalpegel pro Pixel an einer Sternenposition Y
erreicht. Eine weitere Belichtung wĂŒrde zu einem falschen Helligkeitspegel fĂŒhren, du weisst, was ich meine ?
Wenn man aber mehrere Bilder addiert, die jeweils einzeln
nirgendwo ihr lokales Pixel-Pegel-Maximum erreichen, dann ist
auch in der Summer der Bilder kein Helligkeitsfehler bzgl
dieses Problems da.
© Im Prinzip steigt mit der Bild-Addition auch die Bit-Tiefe pro
Pixel. Wenn man nur 8 bit pro Farbe hat, dann hÀtte man
bei vier addierten Bildern sozusagen schon 10 bit pro Pixel.

Mit meiner FinePix F30 gibts nur 8bit pro Farbe&amp:stuck_out_tongue_winking_eye:ixel (sie hat laut docu 24bit pro RGB_Pixel), da bin ich sozusagen betroffen. Z.B. eine HP Photosmart M627 hÀtte hier schon meines Wissens 12 Bit pro Farbe&amp:stuck_out_tongue_winking_eye:ixel (hat laut Manual 36 bit pro RGB_Pixel), allerdings wird hier das Bild auf 24 bit Farbtiefe runtergerechnet.

Kann aber sein, dass es noch andere GrĂŒnde fĂŒr Bild-Summationen gibt.

VG,
-Thomas

BegrĂŒndet liegt das darin, daß
das Rauschen als zufÀllige Störung angesehen werden kann,
deren Mittelwert bei Null liegt.

hallo,

Das ist nicht ganz richtig: das Rauschsignal hat einen Mittelwert, der von vielen verschiedenen EinflĂŒssen abhĂ€ngt, jedoch definitv nicht 0 ist. WĂ€re es 0, mĂŒsste eine „negative“ Ruaschleistung möglich sein. Da es das jedoch nicht gibt (ausgenommen in etwaigen exotischen Berecihen der Quantenmechanik, die fĂŒr unseren Fall jedoch keine Rolle spielen), ist auch keine mittlere Rauschleistung von 0 möglich. Die S/N bleibt somit immer gleich. was jedoch möglich ist, ist folgendes: man kann das Rauschen durch oben beschriebene Methoden „glĂ€tten“ und dadurch von Sternen zumindest unterscheiden. (Das Rauschen wird ĂŒbrigens in „guten“ GerĂ€ten hauptsĂ€chlich duch die Umgebungstemperatur, sowie AtmosphĂ€re(-ntemperatur) beeinflusst.)

GrĂŒĂŸe, Tom

Die S/N bleibt somit immer gleich.

sorry
 hier korrigiere ich mich: es ist möglich sie zu verĂ€ndern


hi Thomas

ein kollege verwendet zum nahbearbeiten von astronomischen aufnahmen die software maxime dl
http://www.cyanogen.com/products/maxim_main.htm

generell:
man benötigt drei „dummy“ aufnahmen, um das sensorrauschen wegrechnen zu können:

  • eine aufnahme mit geschlossenem deckel und der kĂŒrzesten belichtungszeit um das ausleserauschen zu ermitteln (wird in folge abgezogen)
  • eine aufnahme mit geschlossenem deckel und der selben belichtungszeit, mit der auch die aufnahmen gemacht werden. damit das grundrauschen des chips ermittelt. wird ebenfalls abgezogen. diese aufnahme sollte ĂŒbrigens ungefĂ€hr zur gleichen zeit wie die echte aufnahme gemacht werden, damit die selben voraussetzungen (z.b. temperatur des chips etc.) gegeben sind. bei sehr langen belichtungszeiten wird die aufnahme ja auf mehrere einzelaufnahmen aufgeteilt. dann auch zwischen den aufnahmen diese schwarzaufnahmen machen und spĂ€ter kombinieren.
  • eine aufnahme von einem möglichst hellem objekt - wenn möglich gleichmĂ€ssig hell. damit kann die empfindlichkeit der einzelnen pixel gemessen werden und damit in folge etwaig unterbelichtete pixel verstĂ€rkt werden.

ist ein ganz schöner aufwand fĂŒr ein paar aufnahmen


lg
erwin

Moin,

das Rauschen als zufÀllige Störung angesehen werden kann,
deren Mittelwert bei Null liegt.

hallo,

Das ist nicht ganz richtig: das Rauschsignal hat einen
Mittelwert, der von vielen verschiedenen EinflĂŒssen abhĂ€ngt,
jedoch definitv nicht 0 ist. WĂ€re es 0, mĂŒsste eine „negative“

Du hast Recht. Ich habe meinen innerlich vorhandenen Schritt, daß ich vom Bild einen konstanten Mittelwert subtrahiere, in meinen AusfĂŒhrungen ĂŒbersprungen bzw. ausgelassen. Es stimmt natĂŒrlich, daß auch der absolute Level des Rauschens ansteigt, die relative Rauschamplitude bezĂŒglich dieses Mittelwertes jedoch mit zunehmender Integration abnimmt. Genau das spiegelt sich auch im besser werdenden S/N-VerhĂ€ltnis wider.

Gruß,
Ingo