Statistik

Liebe/-r Experte/-in,
ich bin auf ein Problem gestoßen, das vielleicht gar keines ist. Ich hoffe, du als Statistikexperte kannst mir da weiterhelfen. Mir ist bekannt, dass man mit statistischen Methoden nichts (keine Hypothese) beweisen kann. Das leuchtet ein. Dennoch hört man oft von ‚widerlegten Hypothesen‘. Wenn man jedoch davon ausgeht, dass man ja immer der Gefahr eines Alpha-Fehlers (irrtümliche Ablehnung der Nullhypothese) ausgesetzt ist, wie kann man dann davon sprechen, dass eine Hypothese tatsächlich ‚widerlegt‘ ist? Denke ich da völlig daneben? Ich wäre sehr froh zu hören, was du darüber denkst! Danke!

Dein Einwand ist korrekt. Die Formulierung „Die Nullhypothese wurde widerlegt.“ ist irreführend. Weil sie nach Gewissheit klingt, könnte man sie als erkenntnistheoretisch naiv bezeichnen. Man kann jedoch auch argumentieren, dass sie eine feststehende Formulierung ist, die nichts anderes bedeutet als “Die Wahrscheinlichkeit der Daten unter der Nullhypothese ist kleiner als das gewählte Signifikanzniveau. Wir erachten das Risiko des Alpha-Fehlers deshalb als klein genug, um an die Negation der Nullhypothese zu glauben.” Treffendere und nach meinem Eindruck gebräuchlichere Verben sind „abgelehnt“ und „zurückgewiesen“.

Der Grund, warum manche Menschen von „widerlegten“ Hypothesen sprechen, nicht aber von „bewiesenen“ Hypothesen ist, dass man oft die Wahrscheinlichkeit des Alpha-Fehler berechnen kann, die Wahrscheinlichkeit des Beta-Fehlers jedoch nicht.

Danke, Falk, für die klare Antwort. Da bin ich ja froh, dass ich nicht ganz daneben lag!

Hallo,

an sich hast Du recht. Mit statistischen Mehtoden kann man nichts beweisen. Hat man jedoch theoretisch gut fundierte Hypothesen und eindeutige Daten,kann mann immerhin von einer sehr wahrscheinlich validierten oder falsifizierten Hypothese ausgehen.

Die größten Probleme hierbei sind meist mäßig gut oder gar nicht fundierte Hypothesen (Stichwort: Empirismus)sowie schelcht geeignete statistische Methoden.

Hat man jedoch beides im Griff, kann man schon von „widerlegten Hypothesen“ sprechen, auch unter Einbezug des Fehlers erster Ordnung (Alpha).

Allerdings kann man sich darüber, wann eien Hypothse wirklich als widerlegt bezeichnet werden kann, streiten. Beispielswiese kann ich ohne Probleme einen Fragebogen so entwerfen, dass gewünschte Ergebnisse herauskommen. Damit kann ich dann eine Hypothese widerlegen (oder beweisen) und trotzdem ist entwpicht dies nicht der Realität.

Wie du siehst, ein langes Thema. Bei Interesse könne wir uns gerne näher damit befassen.

Gruß
D.

Hallo,
das ist eher ein Problem der Philosophie und Logik denn ein Problem der Statistik.
Karl Poper hat ein sehr interessantes Buch zur Erkenntnistheorie geschrieben. Wir nehmen also an, es gibt einen Test, der ein binäres Ergebnis zu einer Hypothese liefert. (=Ja oder Nein) Eine Hypothese ist eindeutig widerlegt, wenn ein einziges mal der Test das Ergebnis „Nein“ liefert. (Das ist eine echte, sicher widerlegte Hypothese) Eine Hypothese wird jedoch nicht allgemein gültig dadurch bestätigt, dass man sehr häufig „Ja“ und niemals „Nein“ gemessen hat. Da man über die nächste Messung nichts weiß, muss mann für Diese wieder eine 50% Chance annehmen. Damit verringert man also durch zusätzliche Tests der Hypothese nur die Wahrscheinlichkeit, dass die Hypothese falsch ist. Das kann man auch ganz einfach berechnen. Sei X die Wahrscheinlichkeit für das Ergebnis „Ja“ (Anmerkung 1>=x>0, dann ist die Wahrscheinlichkeit n-mal aufeinanderfolgend „Ja“ zu messen X^n. Da wir den Restfehler nicht kennen muss dieser kleiner 0,5 oder 50% sein. Wir können also schreiben X^n>=0,5
Wir ziehen auf beiden Seiten die n-te Wurzel (was ich hier als Exponentialfunktion ausdrücke) und erhalten:
X=exp(ln(0,5)/n) Das kommt permanent näher an 100%=1, wird es aber nie.
Jetzt wird’s metaphysisch (und das meine ich auch so) Es gibt unter Philosophen einen unendlichen Streit darüber ob 0,99999 (Das soll 0,9 periode sein) gleich 1 ist. Cantor hat einen entsprechenden Beweis veröffentlicht, der sehr berühmt ist. Allerdings enthält er einige implizite Annahmen. Es geht hier also um das unendlich kleine, das aber immer noch zuverlässig größer als Null ist. Am ende läuft das mit dem Beweis durch wiederholtes „Ja“ Ergebnis auf eine Grenzwert-Betrachtung hinaus.

Im realen Leben können wir sehr gut mit einer meistens bestätigten Hypothese überleben: Die Wahrscheinlichkeit, beim Autofahren zu sterben, ist bekanntermaßen größer Null. Tausende Leute fahren Auto…

Soviel zu den erkenntnistheoretischen Überlegungen.
Das Buch von Popper heißt „Erkenntnistheorie“. Kann ich nur empfehlen.