Sadr und Umgebung HaLRGBOIIISII

  • Hallo Michael,


    Deine auf mich bezogene Antwort ist mir schon lange bekannt und ich bewundere diese Leute, die sich da einklinken.
    Alleine, man braucht dazu Zeit, Erfahrung und einen guten Himmel. Oft scheitert dies am ersten und am letzten Punkt. Wie das Amateure machen? - Keine Ahnung, ich hätte nie die Zeit dazu. Und wenn ich dann noch deren Vita lese, muß ich mit dem Kopf schütteln. Man sollte denken, naja, das sind Rentner, die haben ja Zeit. Die meisten von denen stehen aber noch voll im Beruf, meinen Respekt.


    Irgendwo mache ich ja das gleiche, nur eben in der historischen Astronomie. Bin ich in der Uni-Biblo, dann "verschwende" ich meine dortige Zeit meist auch an den immernoch währenden Forschungen zur Uranometria von Johannes Bayer. Gemeinsam mit Dr. Arndt Latuseck haben wir nun fast alle Daten zusammen. Da darf ich ansich auch nicht meine Zeit in die Waagschale legen. Im November werde ich meine neuesten Forschungen darüber in Dresden in der Palitzsch-Gesellschaft in einem Vortrag erläutern.


    Daß Amateure auch heute noch viel für die Wissenschaft leisten können ist gut und soll auch so sein. Es gibt wenige Disziplinen, in denen dies gewünscht und "erlaubt" ist. - Unsere gehört zum Glück dazu.

    Liebe Grüße
    Winfried


    Wenn filmen so einfach wäre, dann hieße es "RTL"...

  • Hallo Michael!


    Deine Ausführungen zu Sampling und Superresulotion habe ich mit sehr grossem Interesse gelesen! Hätte mir beinahe die falsche Kamera gekauft, Danke! Ich muss zugeben, dass ich mir zu diesem Punkt zu wenig Gedanken gemacht habe!
    Dann wäre ja die beliebte Kombi DSLR (Farbe ca 5my mal 2) und kurzbrennweitiger Refraktor (F<1000mm) eigentlich nur für "Pretty pictures" nutzbar, richtig? Auch die Kombi C11 mit Hyperstar (F=560mm) und DSLR (eff. Pixelgr. >10my) würde sich ja immer im Undersampling befinden!?
    Auch nicht gerade etwas, mit dem die Händler hausieren gehen:whistling


    Gibt es irgendetwas zum Thema Superresolution, das beschreibt wie das konkret funktioniert (verwendete Software, Workflow?)


    Viele Grüsse


    Thomas

  • Hallo Thomas,


    ich hatte ja schon einen Link bzgl. Super-Resolution in diesem Thread gepostet (auf Seite 2). Du kannst aber einfach einmal danach googlen (Autor Thilo Bauer). Ich habe noch nicht versucht, nach entsprechender Software zu fahnden - vielleicht einfach eine email an Thilo Bauer schicken?


    Naja, ich wollte wirklich niemanden entmutigen. Wenn man undersampled, dann verliert man halt Informationen - das kann einen stören oder auch nicht. Außerdem bedeutet "Seeing" im Zusammenhang mit einer Aufnahme: über die Aufnahmezeit gemitteltes Seeing. Nun kennt jeder von von uns den Effekt, daß man beim visuellen Beobachten auch bei an sich nicht so guten Seeing immer mal wieder Momente erlebt, in denen das "Wabern" kurz aufhört, wie eingefroren. Auf das Photografieren bezogen heißt das, wenn man in schneller Folge mit sehr kurzen Belichtungszeiten aufnimmt, dann ist zu erwarten, daß auf ein paar Aufnahmen der "Verschmierungseffekt" deutlich kleiner ist, als auf dem Rest der Aufnahmen - diese pickt man sich dann heraus. Das trifft insbesondere für helle Planeten, Mond und natürlich Sonne zu. Macht man da schnelle Videosequenzen, dann kann das Seeing bei einigen Aufnahmen durchaus im Bereich der Größe eines Sternbeugungsscheibchens liegen. Man kann also auf dieses sog. "lucky imaging" aus sein und für das Seeing die Größe des Beugungsscheibchens einsetzen. Da kommen dann auch die Öffnung des Teleskops und die Wellenlänge des Lichts ins Spiel.
    Leider gilt qualitativ, bei gegebener Pixelgröße und Brennweite: je miserabler das Seeing, desto besser das Sampling.


    Im will die ganze Rechnerei nicht noch einmal hier aufschreiben, deshalb nur noch einmal die Beziehungen, wenn man eine Samplingrate von 2 - 3,5 zugrunde legt:


    P = Pixelgröße in my (bei Farbkameras muß man für P das Doppelte der Größe eines Einzelpixels nehmen), F = Teleskopbrennweite in mm, S = Seeing in Bogensekunden, L = Wellenlänge des Lichts in nm und B = Blendenzahl, also Brennweite / Öffnung:


    a) 412 * P / S <= F <= 722 * P / S, falls S >= Durchmesser eines Sternbeugungsscheibchens
    b) 1640 * P / L <= B <= 2660 * P / L, andernfalls (exzellentes Seeing)


    (wie gesagt, bei Farbkamera für P die doppelte wahre Pixelgröße einsetzen).


    Will man bei einer Farbkamera im ganzen RGB-Bereich mit 2 - 3,5 samplen, dann erhält man die Faustformel


    B = 8 * P,


    wobei hier die wahre Pixelgröße einzusetzen ist, der Faktor 2 ist schon drin - bei einer S/W Kamera hat man B = 4 * P als
    Faustformel.


    Leider ist es so, daß ein großes Feld und ein gutes Sampling bei gutem Seeing automatisch sehr viele und sehr kleine Pixel bedeutet und das wird dann richtig teuer. Wie Stefan schon geschrieben hat, ist die Mosaikaufnahme dann die Methode der Wahl, denn bei gegebener Kamera und gegebenem Teleskop kann man nur noch an einem Faktor "drehen": der Brennweite. Je besser das Seeing (erwünscht), desto länger muß die Brennweite werden, womit das Feld schrumpft (unerwünscht). Da beisst aber keine Maus einen Faden ab, so ist es halt.


    Zum Abschluss möchte ich noch sagen, dass es mir fern liegt, irgendjemandem den Spass zu verderben. Ich hoffe, dass die einfachen Rechnungen dem Einen oder Anderen helfen, bei einer Neuanschaffung in die richtige Richtung zu gehen - das Optimum wird man bei gegebenem Budget vielleicht nicht erreichen oder es ganz einfach auch nicht wollen aber mit einer grob falschen Entscheidung wird man dann wohl auch nicht glücklich. Ich kann jedem nur raten, einmal mit der Brennweite zu spielen (Barlow) und einfach zu sehen, ob das etwas bringt oder nicht - kostet ja nur Zeit, kein Geld (vorausgesetzt man hat eine Barlow, sonst vielleicht einmal eine ausleihen).



    Lieben Gruß,
    Michael

  • Hallo Michael!


    Keine Bange, mir verdirbst Du mit solch ausführlichen und informativen Antworten ganz sicher nicht den Spass! Ganz im Gegenteil. Sehr motivierend und Ansporn sich noch ein wenig konsequenter mit diesem schönen Hobby auseinander zu setzen. Wenn ich schon viel Geld für hochwertiges Equipment ausgebe und ggf. noch auszugeben bereit bin, möchte ich auch sachgerecht damit arbeiten können. (Ich respektiere selbstverständlich, wenn andere das anders sehen!) Man lernt halt nie aus sondern immer dazu, wenn man will!


    Deshalb Danke und viele Grüsse


    Thomas

  • Hallo Reinhard,


    laß Dich nicht ins Boxhorn jagen. Die Aufnahme ist klasse. Es gibt viele, die arbeiten mit einem FSQ und verschenken laut Stefan Auflösung.
    Machen aber erstklassige Weitfeldaufnahmen. Deine Aufnahme ist ERSTKLASSIG. Nur weil Stefan es so macht, mußt Du es nicht genauso
    machen. Du lieferst hier eine tolle Arbeit ab!!! Dir kann es total egal sein. Du hast Den TEC auch noch und da passt Deine Cam genauso.
    Es gibt super Astrofotographen - wie z.B. ein Immo Gerber der am FSQ sowohl einen 11000er Chip als auch einen 8300er einsetzt.
    Ersteren für mehr Feld, letzteren für mehr Tiefe.
    Also: Hammerstarke Aufnahme und es hat gemundet!
    Beste Grüße,
    Gerrit

  • Hallo Stefan,


    es kann schon mal vorkommen, dass man unterschiedlicher Meinung ist.
    Es kann schon mal vorkommen, dass man den anderen nicht von der eigenen Meinung überzeugen kann.
    Es kann schon mal vorkommen, dass man sich darüber ärgert.
    Es sollte aber niemals vorkommen, dass man deshalb den Anderen beleidigt!


    Man muss nicht jedermann Freund sein, kann aber trotzdem dabei sachlich bleiben und Argumente statt Beleidigungen austauschen.


    Aus dem Grund habe ich mir gestattet diesen, deinen Beitrag zu überschreiben.


    Mit freundlichen Grüßen


    Hans-Ulrich


    Moderator dieses Bereiches

  • Hallo "Argus",


    es wäre ja nett, wenn ich Dich mit richtigem Namen ansprechen könnte.


    Aus der für mich etwas schwer zu verstehenden Zeile "sry dass ich nochmal nachtarokke: " und der Nachfolgenden meine ich entnehmen zu können, daß Du wissen willst, warum das Addieren von Aufnahmen den Rauschabstand, als Verhältnis ausgedrückt, nicht verbessern kann. Nun, wenn ich mich nicht irre, wird beim Überlagern von Aufnahmen (Addition, in diesem Fall) sowohl das Signal als auch das Rauschen addiert. Du kannst die unerwünschten Anteile (Rauschen) nicht einfach von der Summenbildung ausschließen (also: ihr spielt hier nicht mit, wir, die Signale, wollen unter uns bleiben). Damit meine ich ausdrücklich nicht den Dunkelstrom und das Bias - die kann man sehr wohl mehr oder weniger entfernen, ebenso die Normierung, die mit Flats vorgenommen wird (durch Division). Was dannach übrig bleibt ist die Basis für weitere Analysen/Bearbeitungen und das Signal/Rausch-Verhältnis _dieser_ Einzeldaten lässt sich nicht mehr verbessern (z.Bsp. das Photonen-Poisonrauschen). Was sich verbessern läßt, und zwar erheblich, ist die Lokalisierung der Signalquellen, was man sich ja auch einfach vorstellen kann: wenn Du eine Weile vor Deiner Haustür auf- und abgehst, mal 5m nach rechts, dann zurück bis zu 5m nach links, dann wird man nach mehreren Aufnahmen unschwer feststellen können, daß du im Mittel in der Mitte wohnst. Das erhöht also die Ortsschärfe, verbessert aber nicht das Signal/Rauschverhältnis. Es wurden nur verschiedene Informationen, zusammen mit dem Rauschen, zu einer Gesamtinformation (und Gesamtrauschen) zusammengezählt und der interessante Teil (wo wohnt er?) durch Mittelwertsbildung konzentriert. Bei (Astro-)photos hat das den Effekt des "schärferen" Bildes, was zwangsläufig auch kleinere Details heraustreten lässt.


    Die kosmetische Bildbearbeitung, wie sie bei "pretty picture"-Amateurastronomen üblich ist, hat in etwa denselben Effekt wie eine Bluttransfusion: etwas was nicht da ist (genug Blut im Kreislauf des Patienten, bzw. nicht genug Information in den Bildern) wird von außen per Infusion (Bildbearbeitungssoftware, Tastatur, Maus) hinzugefügt. Das verändert, im genauen Sinn, das Signal/Rausch-Verhältnis zum Schlechteren, da man die Kosmetik als Rauschen interpretieren muß - die "Verschönerungen" kommen ja nicht per Photonen von der Signalquelle, sondern per Mausklick vom Künstler. Aber es ist schön anzusehen und man sollte es nehmen als das was es ist - eine schöne Illusion.



    Gruß,
    Michael

    • Offizieller Beitrag

    Hallo Michael,


    Signale und Rauschen verhalten sich bei der Addition (sprich Mittelwertbildung) unterschiedlich. Wenn das nicht so wäre, würden eine ganze Reihe von Verfahren in der Radartechnik nicht funktionieren. Vor 45 Jahren musste ich auch mal die mathematischen Zusammenhänge büffeln, heute weiß ich nur noch, das eine Veränderung des Signal-Rauschverhältnis stattfindet. Ich denke aber, was damals mit speziellen Signalspeicherröhren funktioniert hat, schaffen heute auch die Bildbearbeitungsprogramme.

  • Lieber Hans-Ulrich,


    es interessiert mich, welche Verfahren in der Radartechnik angewandt worden sind oder noch immer angewendet werden, wie Du es in Deinem Beitrag geschrieben hast. Liege ich völlig falsch mit der Annahme, dass es um eine verbesserte Lokalisierung von Objekten ging/geht? Vielleicht kannst Du ja eine Quelle nennen, die öffentlich zugänglich ist, dann kann ich ja meine eventuell falsche Darstellung des Sachverhaltes korrigieren und etwas dazulernen.


    Gruß,
    Michael

    • Offizieller Beitrag

    Hallo Michael,


    mein Kenntnisstand bezieht sich auf eine Technik, wie sie vor 30 - 40 Jahren mal modern war. Damals wurden zur Signalverbesserung Potentialspeicherröhren verwendet. In denen wurde das empfangene Signal zwischen zwei Impulsen spiralförmig in einer besonderen Schicht mit einen Elektronenstrahl aufgezeichnet. Bei einem Objekt rechnete man mit bis zu 10 Beaufschlagungen (dann war der Strahl im Winkel weiter). Wenn man alles richtig eingestellt hatte, ergab sich eine deutliche Verbesserung des Empfanges. Ich vermute aber, dass solche Technik seit Jahren nicht mehr verwendet wird. Mit der immer breiteren Einführung der Rechentechnik in diese Gräte ergaben sich wesentlich bessere Möglichkeiten der Signalverarbeitung. Da war ich aber schon aus diesem Geschäft raus.

    • Offizieller Beitrag

    Hallo Michael,


    Zitat

    das beantwortet meine Frage zwar nicht


    Das war mir klar, aber ich habe aus dieser Zeit absolut keine Unterlagen mehr und auch nicht so die richtige Lust, in dieses mathematische Labyrinth noch mal einzusteigen. Ich habe mal meine restlichen Kenntnisse zu Exel zusammen gekratzt und mal versucht das Verhalten von Rauschen unbehandelt und nach einer Mittelwertbildung darzustellen.


    astrotechnica.de/Archiv-Astro-…ndex.php?attachment/5024/


    Da sich eine Exel-Datei nicht direkt laden lässt, habe ich sie als zip gepackt. Ich habe alle Verbindungen zwischen der Tabelle und dem Rechenwerk gelassen. Somit kannst du auch andere Rauschspektren generieren. Jedes mal, wenn du auf Speichern drückst, werden neue Werte in der Tabelle generiert (es muss da auch noch eine andere Möglichkeit geben).


    Man sieht sehr gut, wie sich die Verteilung der Amplituden ändert. Bei einem Nutzsignal sieht das deutlich anders aus. Dieses Signal ist ja ständig vorhanden, auch wenn es mit einem Rauschanteil überlagert ist.


    Die blaue Linie ist das unbehandelte Signal.

  • hi,
    wahnsinn dieses scharfe feld. äh wo hier grad die experten sind... darf ich unverschämter weise hier schnell fragen was das optimale teleskop für meine 60da wäre. ich hoffe die antwort ist nicht "weitwinkelobjektiv" ;)


    thx grüße
    sven

  • Lieber Hans-Ulrich,


    leider ist im Moment ja hier im Forum eine Diskussion im Gange, an der ich mich, da (unangenehem) angesprochen, beteilige. Deshalb nur kurz: ich werde mir das in Ruhe anschauen - vielleicht hilft es ja bei der Erkenntnisgewinnung - ich bin ja absoluter Anfänger in der Photometrie, sodaß es durchaus wahrscheinlich ist, daß ich mich in einigen, hoffentlich nicht allen, Punkten irre. Danke nochmals für Deine Hilfe.



    Lieben Gruß,
    Michael

  • Hi Michel,



    hmm, das mit der Reduktion des Rauschens durch Bildaddition wie sie in der Astrofotografie angewendet
    wird funktioniert eigentlich nur wenn sich das Objekt *sehr* viel langsamer veraendert als die Belichtungszeit
    betraegt. Angenommen ich will so die Bilder entrauschen die z.B. einen schnellen Helligkeitsanstieg einer Supernova
    zeigen: dann wuerde photometrisch viel Information verlorengehen und wird so nicht funktionieren. Bekannte Grenzen
    sind auch in durch Bildaddition entrauschter Planetenaufnahmen mit Strukturen die sich drehen/bewegen zu sehen - die
    dann unscharf werden. So wie du sagst: dieser "Trick" funktioniert nicht immer.



    Gruesse,
    argus