nu is aber gut!
Hallo,
Du bist zwar kein Physikstudent, deshalb sehe ich jetzt
mal über diese Denkschwäche etwas hinweg.
Logisch ist diese Argumentation jedenfalls nicht.
Ich denke, daß sich die Energiedichte trotzdem mit dem
Quadrat der Entfernung verringern muß.
Wieso sollte sie?
Dann müssten die Photonen ja Energie „verlieren“, was sie :aber nicht tun (Gravitationseffekte jetzt mal
vernachlässigt).
Nein, die Energie eines Photos außert sich in seiner
Wellenlänge. Die ändert sich natürlich nicht.
Bei der Diskusion geht’s aber um die Photonendichte,
die pro Flächeeinheit irgendwo ankommt! (die repräsentieren
nämlich die „Helligkeit“ einer Stahlung
Wenn eine Quelle Energie von 1000 Joule pro Sekunde in Form
von elektromagnetischer Strahlung in alle Richtungen
aussendest, dann verteilt sich die Energie auf die Oberfläche
einer Kugelschale.
ja, und ? Diese Energie könnte auch in einem Raumwinkel
von einem Millionstel Grad abgestrahlt werden. Ändert
nichts am Abstandsgesetz
-> doppelter Abstand => 1/4 Intensität.
In einer Entfernung (=Radius) von 80 Metern, ist die
Kugeloberfläche damit etwa 1000m², und du hast eine
Bestrahlungsstärke von 1 Joule / m² * s = 1 Watt/m².
Wenn du jetzt aber nur in eine Richtung die Energie
aussendest (also eine Kugelhälfte nur „bestrahlst“),
dann ist die Oberfläche nur 500 m², und dann hast du eine
Bestrahlungsstärke von 2 Watt/m².
Ja und, was hat das nun mit dem Abstand zu tun???
Wie groß ist jetzt die Intensität (Bestahlungsstärke/1m²)
in 1000m Abstand ???
Da bin ich jetzt mal gespannt :-?)
Je kleiner also der Abstrahlwinkel, desto weniger nimmt die
Energiedichte ab.
Quatsch das!
Je kleiner der Abstahlwinkel ist, desto größer ist die
Intensität bei gleichem Abstand!
Abnehmen tut sie quadratisch!
Wenn der Winkel 0 ist, also die Strahlung
parallel läuft, dann bleibt die Bestrahlungsstärke genau
gleich und nimmt gar nicht ab, egal wie groß die Entfernung
ist.
Ein Abstahlwinkel von 0 ist in Praxis nicht möglich.
Es gibt keine Strahlungsquelle mit solchen Eigenschaften!
Gutes Beispiel hierfür: Ein Laserstrahl.
Auch jeder Laserstahl hat immer eine Divergenz > 0 !
Halbleiterlasern haben sogar einen Abstahlwinkel bis
ca. 30grd. die kleine Divergenz kommt erst durch die
Kollimation. Deshalb ist für Physiker sowas auch kein
richtiger Laser.
Also: Die Stärke der Bestrahlung nimmt nur mit den
Quadrat zum Abstand ab, wenn man in alle Richtungen
aussendet.
Sobald man die Strahlung bündelt, nimmt die Stärke
auch nicht mehr mit dem Quadrat zum Abstand ab.
Unsinn! Nimm eine Taschenlampe leuchte in eine Richtung
und dann messe mal den Durchmesser des Lichtstahls in
2m und in 4m Entfernung aus. Nach Deiner Theorie müßte
die Lampe bis nach unendlich gleichmäßig hell erscheinen
und der Stahl hat natürlich immer gleichen Durchmesser.
Deshalb kann ein 50 LJ entfernter
Magnetar, der den Gammablitz in einem kleinen Kegel abgibt,
wesentlich mehr Energie zu uns befördern, als einer, der z.B.
nur 5 LJ entfernt ist, aber den Blitz in alle Richtungen
abgibt.
Das scheint mir zwar auch eher sehr unwahrscheinlich, ist
(aber zumindest theoretisch denkbar), hat dann aber nichts
mit dem Abstandsgesetz zu tun, sondern ausschließlich mit
der inhomogenen Abstrahlcharakteristik.
In Praxis bedeutet es nur, daß das 50Lj entfernte Objekt
in die betrachtete Abstrahlrichtung eine 100-fach höhere
Intensität haben müßte. Wenn die abgestahlte Gesamtleistung
ansonsten gleich sein soll, müßte das Objekt die Leistung
z.B. auf einer äquatorialen Scheibe ausschließlich in
einem Öffnungswinkel von ca. 1…2grd abgeben.
Das ist dann doch wohl sehr unwahrscheinlich.
Gruß Uwi