Hallo Experten, eine neue Frage vom OnkelHeini.
Wie interpretiert man den F-Wert, der z.B. von SPSS bei der ANOVA ausgegeben wird?
Nimmt er bestimmte Werte an, etwa so wie Korrelationen einen Wert von -1 bis +1 annehmen, oder wovon hängt er ab?
Die Sache mit den freiheitsgraden hab ich auch nicht verstanden…
Schon jetzt vielen Dank für all Eure Erklärungen!
Grüße von OnkelHeini
Hallo,
Wie interpretiert man den F-Wert, der z.B. von SPSS bei der
ANOVA ausgegeben wird?
ich beziehe mich auf die einfaktorielle ANOVA: Der F-Wert ist der Quotient aus zwei Varianzschätzungen, der Schätzung der Varianz zwischen den unterschiedenen Gruppen und der Schätzung der Varianz innerhalb der Gruppen. Sind beide Varianzschätzungen ungefähr gleich, nimmt der F-Bruch einen Wert um 1 an, was dafür spricht, daß die Gruppenmittelwerte sich nicht signifikant voneinander unterscheiden. Ist der F-Bruch dagegen größer als 1, spricht dies dafür, daß sich die Gruppenmittelwerte signifikant voneinander unterscheiden.
Der F-Bruch ist F-verteilt mit (J-1), (n*J-J) Freiheitsgraden. J ist die Anzahl der Gruppen, n die Anzahl der Personen in den Gruppen. Diese Angaben bestimmen, wie die F-Verteilung genau aussieht, falls es keine signifikanten Unterschiede in den Gruppenmittelwerten gibt. Ist der F-Bruch größer als 1, kann man das Signifikanzniveau an dieser Verteilung ablesen, indem man danach schaut, wie wahrscheinlich es ist, F-Brüche dieser Größe oder darüber zu erhalten.
Grüße,
Oliver Walter
Auch hallo.
Wie interpretiert man den F-Wert, der z.B. von SPSS bei der
ANOVA ausgegeben wird?ich beziehe mich auf die einfaktorielle ANOVA: Der F-Wert ist
der Quotient aus zwei Varianzschätzungen, der Schätzung der
Varianz zwischen den unterschiedenen Gruppen und der Schätzung
der Varianz innerhalb der Gruppen. Sind beide
Varianzschätzungen ungefähr gleich, nimmt der F-Bruch einen
Wert um 1 an, was dafür spricht, daß die Gruppenmittelwerte
sich nicht signifikant voneinander unterscheiden. Ist der
F-Bruch dagegen größer als 1, spricht dies dafür, daß sich die
Gruppenmittelwerte signifikant voneinander unterscheiden.
Moment: da man zwei Mittelwerte durcheinander dividiert kann der Bruch auch kleiner 1 sein (zweiseitiger Test vorausgesetzt)
Aber siehe http://de.wikipedia.org/wiki/Varianzanalyse , http://de.wikipedia.org/wiki/F-Test , http://de.wikipedia.org/wiki/Statistischer_Test
für genauere Informationen
Der F-Bruch ist F-verteilt mit (J-1), (n*J-J) Freiheitsgraden.
J ist die Anzahl der Gruppen, n die Anzahl der Personen in den
Gruppen. Diese Angaben bestimmen, wie die F-Verteilung genau
aussieht, falls es keine signifikanten Unterschiede in den
Gruppenmittelwerten gibt. Ist der F-Bruch größer als 1, kann
man das Signifikanzniveau an dieser Verteilung ablesen, indem
man danach schaut, wie wahrscheinlich es ist, F-Brüche dieser
Größe oder darüber zu erhalten.
Das Strickmuster bei stat. Tests ist immer dasselbe: Verteilung(en) identifizieren, Kenngrössen ermitteln, Prüfgössen errechnen und mit tabellierten Werten vergleichen (Voraussetzungen beachten wie z.B. Freiheitsgrade)
Wenn die Prüfgrösse
Hallo Markus,
wie schön, daß Du Zeit und Muße hast, mir Redundantes zu posten. Dafür ein Sternchen.
Viel Spaß im (Rest-)Studium!
Oliver Walter
Hallo Oliver und Markus,
danke für die bisherigen Antworten, das war schon mal eine Hilfe.
Ich versuche mich mal an einem Beispiel, an dem ihr vielleicht beurteilen könnt, wo es bei mir noch hakt:
Einfaktorielle ANOVA (mit SPSS 11.5) ergab einen F-Wert von 6,05 und eine Signifikanz von ,000 für P = 0,95; alpha = 0,05.
n = 336 (Gesamtanzahl aller Werte, nach Deiner Rechnung Oliver wäre n = 84, aber das kommt ja auf dasselbe heraus, oder?)
Freiheitsgrade gesamt = 335; (n - 1)
J = 4, der Faktor kann also vier verschiedene Werte annehmen, wird daher in vier Gruppen geteilt
Freiheitsgrade zwischen den Gruppen J - 1 = 3
Freiheitsgrade innerhalb der Gruppen = 332; (n - J)
Ein Blick in die Tabelle (Sachs, Angewandte Statistik, für mich ein Buch mit ca. 7 Siegeln) ergab folgendes:
Bei Freiheitsgraden > 200 und F(obere Schranken) = 3 liegt der theoretische F-Wert für die Irrtumswahrscheinlichkeit alpha bei 2,60; demnach unterscheiden sich die Varianzen meiner Stichproben signifikant voneinander. Ich darf die Nullhypothese ablehnen. Also unterscheiden sich auch die Mittelwerte signifikant mit einer Wahrscheinlichkeit von 0,95 voneinander.
Alle richtig gemacht?
OnkelHeini
Hallo nochmal.
Einfaktorielle ANOVA (mit SPSS 11.5) ergab einen F-Wert von
6,05 und eine Signifikanz von ,000 für P = 0,95; alpha = 0,05.
Der Wert ,000 ist kleiner als alpha. Von daher kann H1 nicht abgelehnt werden.
n = 336 (Gesamtanzahl aller Werte, nach Deiner Rechnung Oliver
wäre n = 84, aber das kommt ja auf dasselbe heraus, oder?)
…oder da hat sich ein Rechenfehler eingeschlichen ?
Freiheitsgrade gesamt = 335; (n - 1)
J = 4, der Faktor kann also vier verschiedene Werte annehmen,
wird daher in vier Gruppen geteilt
Freiheitsgrade zwischen den Gruppen J - 1 = 3
Freiheitsgrade innerhalb der Gruppen = 332; (n - J)Ein Blick in die Tabelle (Sachs, Angewandte Statistik, für
Das Buch kenne ich. Vielleicht mal ausleihen ? Obwohl das ein halber Wälzer ist…
mich ein Buch mit ca. 7 Siegeln) ergab folgendes:
Bei Freiheitsgraden > 200 und F(obere Schranken) = 3 liegt
der theoretische F-Wert für die Irrtumswahrscheinlichkeit
alpha bei 2,60; demnach unterscheiden sich die Varianzen
meiner Stichproben signifikant voneinander. Ich darf die
Nullhypothese ablehnen. Also unterscheiden sich auch die
Mittelwerte signifikant mit einer Wahrscheinlichkeit von 0,95
voneinander.
Achtung, zwei Stichproben können durchaus fast dieselben MW’e haben aber signifikant unterschiedliche Varianzen. Die Schlussrichtung ist daher mit Vorsicht zu geniessen.
HTH
mfg M.L., der jetzt mal in die Bibliothek marschiert
Hallo,
Einfaktorielle ANOVA (mit SPSS 11.5) ergab einen F-Wert von
6,05 und eine Signifikanz von ,000 für P = 0,95; alpha = 0,05.
was ist P? Die Power?
n = 336 (Gesamtanzahl aller Werte, nach Deiner Rechnung Oliver
wäre n = 84, aber das kommt ja auf dasselbe heraus, oder?)
Wir bezeichnen mit „n“ etwas Unterschiedliches. Dein „n“ ist die Gesamtanzahl aller Werte / Personen, mein „n“ die Zahl der Personen / Werte in den Gruppen. Daher rechnest Du
Freiheitsgrade gesamt = 335; (n - 1)
J = 4, der Faktor kann also vier verschiedene Werte annehmen,
wird daher in vier Gruppen geteilt
Freiheitsgrade zwischen den Gruppen J - 1 = 3
Freiheitsgrade innerhalb der Gruppen = 332; (n - J)
und ich:
Freiheitsgrade zwischen den Gruppen J - 1 = 3
Freiheitsgrade innerhalb: (n*J-J) = (84*4-4) = 332.
Daher kommen wir zum gleichen Ergebnis.
Ein Blick in die Tabelle (Sachs, Angewandte Statistik, für
mich ein Buch mit ca. 7 Siegeln) ergab folgendes:
Bei Freiheitsgraden > 200 und F(obere Schranken) = 3 liegt
Du mußt schauen bei F3,332;0,05. Der Wert steht bestimmt nicht in der Tabelle(kann aber über die Normalverteilungsapproximation bestimmt werden). Er liegt exakt bei 2,6318 (ich habe ein Computerprogramm für so etwas).
der theoretische F-Wert für die Irrtumswahrscheinlichkeit
alpha bei 2,60; demnach unterscheiden sich die Varianzen
meiner Stichproben signifikant voneinander.
Nein, nicht die Varianzen, sondern die Mittelwerte. Die Varianzanalyse heißt zwar Varianzanalyse, weil Varianzen analysiert werden, getestet werden aber Mittelwertsunterschiede. Um die ANOVA einsetzen zu können, sollten die Varianzen in den Gruppen allerdings gleich sein (sogenannte Varianzhomogenität, kann man mit dem Levene-Test testen; macht SPSS auch, wenn Du dieses Feature angefordert hat).
Ich darf die Nullhypothese ablehnen.
Ja.
Also unterscheiden sich auch die
Mittelwerte signifikant mit einer Wahrscheinlichkeit von 0,95
voneinander.
Die Mittelwertsunterschiede sind signifikant mit einem Alpha-Fehler von 0,05 oder 5%.
Mit meinem Programm kann ich für Deine Daten eine Effektstärke f von 0,228 rekonstruieren. Damit erhält man eine Power von 0,9511 bei einer Gesamtanzahl von Personen = 336 und einem Alpha-Fehler von 0,05.
Alle richtig gemacht?
Im Grunde ja. Super!
Grüße,
Oliver
Hallo Oliver,
eine Frage geklärt, mindestens zwei neue tauchen auf…
Du mußt schauen bei F3,332;0,05. Der Wert steht
bestimmt nicht in der Tabelle(kann aber über die
Normalverteilungsapproximation bestimmt werden). Er liegt
exakt bei 2,6318 (ich habe ein Computerprogramm für so etwas).
Angenommen, ich hätte für meine Daten einen F-Wert von 2,65 berechnet, Signifikanz = 0,000. Mein „gefühltes“ Statistik-Wissen würde nun Bachschmerzen kriegen ob der Signifikanz der Mittelwertsunterschiede. Ist der Unterschied wahrscheinlich, sobald der errechnete Wert geringfügig größer oder gleich dem Tabellenwert ist?
Um die ANOVA einsetzen zu können,
sollten die Varianzen in den Gruppen allerdings gleich sein
(sogenannte Varianzhomogenität, kann man mit dem Levene-Test
testen; macht SPSS auch, wenn Du dieses Feature angefordert
hat).
ich habe tatsächlich zunächst SPSS die Homogenität der Varianzen mithilfe des Levene-Tests ermitteln lassen.
Das habe ich gemacht, weil das in meinem SPSS-Buch empfohlen wurde… )
Ergebnisse:
Levene-Statistik = 8,691
df1 = 3
df2 = 332
Signifikanz ,000
Was sagt mir denn das? Ich hab nur auf die Signifikanz geschaut, diese für wundervoll befunden und mich der ANOVA zugewandt.
Mit meinem Programm kann ich für Deine Daten eine Effektstärke
f von 0,228 rekonstruieren. Damit erhält man eine Power von
0,9511 bei einer Gesamtanzahl von Personen = 336 und einem
Alpha-Fehler von 0,05.
Äh, coole Sache, aber dem kann ich nicht folgen. Effektstärke, wat is dat’n? Power von 0,9511 heißt: der Mittelwertsunterschied ist mit 95,11-prozentiger Wahrscheinlichkeit vorhanden, oder wie? Ist das nun für meine Aussagen eher relevant oder redundant? Ich bin schließlich kein Statistiker sondern ein Anwender (konkret für meine mikrobiologische Diss).
Viele Grüße vom OnkelHeini, der sich auf neue Antworten und Fragen freut!
Ebenfalls Hallo nochmal.
Der Wert ,000 ist kleiner als alpha. Von daher kann H1 nicht
abgelehnt werden.
Moment, sollte nicht stattdessen H0 abgelehnt werden? Wir haben doch H0 getestet und nicht H1, oder?
Achtung, zwei Stichproben können durchaus fast dieselben MW’e
haben aber signifikant unterschiedliche Varianzen. Die
Schlussrichtung ist daher mit Vorsicht zu geniessen.
Daher hab ich den Levene-Test vorgeschaltet, siehe Antwort auf Oliver.
HTH
mfg M.L., der jetzt mal in die Bibliothek marschiert
Fündig geworden?
Grüße, OH
Hallo OnkelHeini,
Angenommen, ich hätte für meine Daten einen F-Wert von 2,65
berechnet, Signifikanz = 0,000. Mein „gefühltes“
Statistik-Wissen würde nun Bachschmerzen kriegen ob der
Signifikanz der Mittelwertsunterschiede. Ist der Unterschied
wahrscheinlich, sobald der errechnete Wert geringfügig größer
oder gleich dem Tabellenwert ist?
ich verstehe nicht, von welchem Unterschied Du sprichst. Das Signifikanzniveau, das SPSS ausgibt, ist das auf Dreinachkommastellen berechnete Niveau, auf dem die Mittelwertsunterschiede gerade eben noch signifikant würden. Bei einem Niveau von 0,000 bedeutet das, daß Du einen Alpha-Fehler von weniger als 0,001 hättest wählen können und der empirische F-Bruch gerade eben größer geworden wäre als F3,332,0,05.
ich habe tatsächlich zunächst SPSS die Homogenität der
Varianzen mithilfe des Levene-Tests ermitteln lassen.
Das habe ich gemacht, weil das in meinem SPSS-Buch empfohlen
wurde…)
Ergebnisse:
Levene-Statistik = 8,691
df1 = 3
df2 = 332
Signifikanz ,000
Was sagt mir denn das? Ich hab nur auf die Signifikanz
geschaut, diese für wundervoll befunden und mich der ANOVA
zugewandt.
Die Signifikanz ist wirklich wundervoll, bloß hier höchst ungünstig für Dich. Die ANOVA nimmt nämlich an, daß die Varianzen in den Gruppen gleich sind. Der Levene-Test testet dagegen. Ist sein Ergebnis signifikant, sollte die Annahme der Varianzengleichheit verworfen werden und die ANOVA ist strenggenommen nicht mehr durchführbar.
Ein für Dich sprechendes Ergebnis hätte ein Signifikanzniveau von 0,1 oder 0,2 oder 0,3 oder noch mehr erfordert. Grund: Man will die Nullhypothese (alle Varianzen sind gleich) bestätigen. Dann ist nicht mehr der Alpha-Fehler das Problem, sondern der Beta-Fehler. Um den Beta-Fehler klein zu halten, sollte man den Alpha-Fehler raufsetzen. Daher: einen großen p-Wert wählen.
Äh, coole Sache, aber dem kann ich nicht folgen. Effektstärke,
wat is dat’n?
Ins Unreine gesprochen: Die Effektstärke bezieht sich auf die Größe der Mittelwertsunterschiede. Je größer die Unterschiede in den Mittelwerten sind, desto größer wird die Effektstärke. Eine Effektstärke von 0,228 ist schon ganz gut (mittelgroß, wenn man den Konventionen folgt). Leider ist bloß der Levene-Test hochsignifikant
Power von 0,9511 heißt: der
Mittelwertsunterschied ist mit 95,11-prozentiger
Wahrscheinlichkeit vorhanden, oder wie?
Die Power ist die Wahrscheinlichkeit, mit der man signifikante Unterschiede in den Mittelwerten findet, wenn es tatsächlich signifikante Unterschiede gibt. Eine Wahrscheinlichkeit von 0,9511 sagt, daß man - wenn man den Test unendlich oft durchführen würde (mit anderen Werten natürlich) - in 95,11% der Fälle ein signifikantes Ergebnis bekommen würde.
Ist das nun für meine
Aussagen eher relevant oder redundant? Ich bin schließlich
kein Statistiker sondern ein Anwender (konkret für meine
mikrobiologische Diss).
Ich würde mich erst einmal um das viel dringendere Problem der Varianzenheterogenität kümmern. In SPSS gibt es einige Tests, die gegen so etwas Unschönes robust sind: Brown-Forsythe und Welch. Die kann man auch bei der einfaktoriellen ANOVA auswählen (unter options). Dann sollte man sich eher an deren Ergebnissen orientieren.
Grüße,
Oliver
Hallo OnkelHeini.
Der Wert ,000 ist kleiner als alpha. Von daher kann H1 nicht
abgelehnt werden.Moment, sollte nicht stattdessen H0 abgelehnt werden? Wir
haben doch H0 getestet und nicht H1, oder?
Natürlich. Aber das ist dieselbe Aussage. Dann sag’ eben „H0 kann abgelehnt werden“
Achtung, zwei Stichproben können durchaus fast dieselben MW’e
haben aber signifikant unterschiedliche Varianzen. Die
Schlussrichtung ist daher mit Vorsicht zu geniessen.Daher hab ich den Levene-Test vorgeschaltet, siehe Antwort auf
Oliver.
Gut
mfg M.L., der jetzt mal in die Bibliothek marschiert
Fündig geworden?
Na klar. Sinnigerweise war aber Feueralarm. Danach war nix mehr mit Ausleihen/Recherchieren…
Sachen gibt’s…
mfg M.L.
***Psychologie - Der Mörder von nebenan***
http://62.27.84.81/cgi-bin/onchange/anzeige.pl?kennu…
Guten Morgen!
ich verstehe nicht, von welchem Unterschied Du sprichst. Das
Signifikanzniveau, das SPSS ausgibt, ist das auf
Dreinachkommastellen berechnete Niveau, auf dem die
Mittelwertsunterschiede gerade eben noch signifikant würden.
Bei einem Niveau von 0,000 bedeutet das, daß Du einen
Alpha-Fehler von weniger als 0,001 hättest wählen können und
der empirische F-Bruch gerade eben größer geworden wäre als
F3,332,0,05.
OK. Akzeptiert!
Die Signifikanz ist wirklich wundervoll, bloß hier höchst
ungünstig für Dich. Die ANOVA nimmt nämlich an, daß die
Varianzen in den Gruppen gleich sind. Der Levene-Test testet
dagegen. Ist sein Ergebnis signifikant, sollte die Annahme der
Varianzengleichheit verworfen werden und die ANOVA ist
strenggenommen nicht mehr durchführbar.
Die ANOVA ist empfindlich gegenüber inhomogenen Varianzen, ja?
Ein für Dich sprechendes Ergebnis hätte ein Signifikanzniveau
von 0,1 oder 0,2 oder 0,3 oder noch mehr erfordert. Grund: Man
will die Nullhypothese (alle Varianzen sind gleich)
bestätigen. Dann ist nicht mehr der Alpha-Fehler das Problem,
sondern der Beta-Fehler. Um den Beta-Fehler klein zu halten,
sollte man den Alpha-Fehler raufsetzen. Daher: einen großen
p-Wert wählen.
Das habe ich nicht verstanden.
Du meinst, von vornherein einen großen p-Wert bei der ANOVA vorgeben, oder wie?
Die Power ist die Wahrscheinlichkeit, mit der man signifikante
Unterschiede in den Mittelwerten findet, wenn es tatsächlich
signifikante Unterschiede gibt. Eine Wahrscheinlichkeit von
0,9511 sagt, daß man - wenn man den Test unendlich oft
durchführen würde (mit anderen Werten natürlich) - in 95,11%
der Fälle ein signifikantes Ergebnis bekommen würde.
Diese Power hat Dein Programm (wie auch immer) errechnet, die ANOVA gibt das nicht raus, richtig?
Ich würde mich erst einmal um das viel dringendere Problem der
Varianzenheterogenität kümmern. In SPSS gibt es einige Tests,
die gegen so etwas Unschönes robust sind: Brown-Forsythe und
Welch. Die kann man auch bei der einfaktoriellen ANOVA
auswählen (unter options). Dann sollte man sich eher an deren
Ergebnissen orientieren.
Ich habe die Tests ausprobiert, da tun sich für mich mal wieder neue Fragen auf, wie ich die Ergebnisse zu interpretieren habe. Sind das auch F-Werte, die ich anhand der Tabelle einschätzen kann?
Was wäre denn eine Alternative, um meine Fragestellung zu klären? Viele T-Tests hintereinander sind es nicht, weil dann die Fehlerwahrscheinlichkeit zu groß wird, oder so ähnlich.
Hoffe, Du kannst mir noch helfen! Ich blick zwar immer noch nicht durch, aber gestern haben sich schon einige grundlegende Sachen bei mir geklärt. Super Sache!
Viele Grüße vom Heini
Guten Morgen,
Die Signifikanz ist wirklich wundervoll, bloß hier höchst
ungünstig für Dich. Die ANOVA nimmt nämlich an, daß die
Varianzen in den Gruppen gleich sind. Der Levene-Test testet
dagegen. Ist sein Ergebnis signifikant, sollte die Annahme der
Varianzengleichheit verworfen werden und die ANOVA ist
strenggenommen nicht mehr durchführbar.Die ANOVA ist empfindlich gegenüber inhomogenen Varianzen, ja?
definitiv ja. Bei Varianzheterogenität kann ein signifikantes Ergebnis nicht mehr (so ohne weiteres) auf signifikante Mittelwertsunterschiede zurückgeführt werden. Deshalb sollte man das Ergebnis mit äußerster Vorsicht genießen.
Ein für Dich sprechendes Ergebnis hätte ein Signifikanzniveau
von 0,1 oder 0,2 oder 0,3 oder noch mehr erfordert. Grund: Man
will die Nullhypothese (alle Varianzen sind gleich)
bestätigen. Dann ist nicht mehr der Alpha-Fehler das Problem,
sondern der Beta-Fehler. Um den Beta-Fehler klein zu halten,
sollte man den Alpha-Fehler raufsetzen. Daher: einen großen
p-Wert wählen.Das habe ich nicht verstanden.
Du meinst, von vornherein einen großen p-Wert bei der ANOVA
vorgeben, oder wie?
Laß Dir zusätzlich zur ANOVA den Levene-Test immer mit ausgeben. Ist das Signifikanzniveau dieses Tests größer als 0,1 (oder 0,2 oder 0,3 - kannst Du Dir aussuchen; je höher, umso besser), kannst Du mit einer gewissen Berechtigung von Varianzhomogenität ausgehen. Wenn jedoch das Signifikanzniveau unterhalb von 0,1 ist, dann sind die Varianzen signifikant unterschiedlich und die ANOVA-Ergebnisse sollten eher nicht verwendet werden.
Die Power ist die Wahrscheinlichkeit, mit der man signifikante
Unterschiede in den Mittelwerten findet, wenn es tatsächlich
signifikante Unterschiede gibt. Eine Wahrscheinlichkeit von
0,9511 sagt, daß man - wenn man den Test unendlich oft
durchführen würde (mit anderen Werten natürlich) - in 95,11%
der Fälle ein signifikantes Ergebnis bekommen würde.Diese Power hat Dein Programm (wie auch immer) errechnet, die
ANOVA gibt das nicht raus, richtig?
Doch. Allerdings nicht bei der einfaktoriellen ANOVA. Du müßtest sie über das GLM (Allgemeines Lineares Modell) berechnen. Dort findest Du die Powerberechnung unter den Optionen. (In der deutschen Fassung heißt die Option: beobachtete Schärfe - schlechte Übersetzung). Allerdings ist diese Powerschätzung nicht besonders treffsicher, wie zwei Methodiker von der Uni Magdeburg berichten.
Ich habe die Tests ausprobiert, da tun sich für mich mal
wieder neue Fragen auf, wie ich die Ergebnisse zu
interpretieren habe. Sind das auch F-Werte, die ich anhand der
Tabelle einschätzen kann?
Die Statistiken dieser Tests sind asymptotisch F-verteilt. Du könntest sie in der Tabelle nachschlagen, brauchst Du aber nicht, weil SPSS das Signifikanzniveau angibt. Liegt es unter 0,05, ist das Ergebnis signifikant.
Was wäre denn eine Alternative, um meine Fragestellung zu
klären? Viele T-Tests hintereinander sind es nicht, weil dann
die Fehlerwahrscheinlichkeit zu groß wird, oder so ähnlich.
Du kannst doch die beiden Tests verwenden, die ich Dir nannte. Wo ist das Problem?
Grüße,
Oliver
Hi Markus,
Moment, sollte nicht stattdessen H0 abgelehnt werden? Wir
haben doch H0 getestet und nicht H1, oder?Natürlich. Aber das ist dieselbe Aussage. Dann sag’ eben „H0
kann abgelehnt werden“
Das stimmt definitiv nicht!!! Es ist ein riesiger Unterschied, ob ich H0 ablehne oder H1 nicht ablehne (was man im übrigen nicht macht; man testet immer nur, ob man H0 ablehnen kann). Hintergund ist die Aussage - die auf Karl Popper zurückgeht - dass man eine Theorie empirisch nie beweisen, sondern nur widerlegen kann.
Gruß
Katharina
Hallo Markus,
Das Strickmuster bei stat. Tests ist immer dasselbe:
Verteilung(en) identifizieren, Kenngrössen ermitteln,
Prüfgössen errechnen und mit tabellierten Werten vergleichen
(Voraussetzungen beachten wie z.B. Freiheitsgrade)
Vergiss nicht die Vielzahl an nichtparametrischen bzw. verteilungsfreien Verfahren. Die sind etwas anders gestrickt
Gruß
Katharina
Hallo Onkel Heini,
was Oliver dir sagte, ist schon super, deswegen von mir nur eine kleine, erklärende Ergänzung.
Der Welch-Test wie auch Brown-Forsythe adjustieren die Freiheitsgrade bei der Teststatistik und sind so für das sogenannte „Behrens-Fisher-Problem“ heterogener Varianzen geeignet. Daher kommt auch die asymptotische F-Verteilung der Teststatistik - es sind im Prinzip F-Tests, aber mit modifizierten Freiheitsgraden. Sie sind konservativer als die ANOVA, lehnen also H0 nicht so schnell ab.
Gruß
Katharina
Hallo die Dame.
Das stimmt definitiv nicht!!! Es ist ein riesiger Unterschied,
ob ich H0 ablehne oder H1 nicht ablehne (was man im übrigen
nicht macht; man testet immer nur, ob man H0 ablehnen kann).
Hintergund ist die Aussage - die auf Karl Popper zurückgeht -
dass man eine Theorie empirisch nie beweisen, sondern nur
widerlegen kann.
Stimmt. Jetzt fällt’s mir wieder ein. Da merkt man wie man im Sprachgebrauch schludern kann
Hier eine Quelle: http://science.orf.at/science/news/54766/forum?from=…
mfg M.L., der Besserung gelobt
Hello again,
Die Statistiken dieser Tests sind asymptotisch F-verteilt. Du
könntest sie in der Tabelle nachschlagen, brauchst Du aber
nicht, weil SPSS das Signifikanzniveau angibt. Liegt es unter
0,05, ist das Ergebnis signifikant.
Signifikant gleich oder ungleich? Die Tests prüfen auf Gleichheit der Mittelwerte, ein Signifikanzniveau
Mahlzeit,
Signifikant gleich oder ungleich? Die Tests prüfen auf
Gleichheit der Mittelwerte, ein Signifikanzniveau Populationsmittelwerte sind wahrscheinlich nicht gleich.
Kein Problem, außer dem, dass ich immer noch zu wenig darüber
weiß, was ich mit diesen Testverfahren eigentlich tue und ob
ich die richtigen Verfahren auf meinen Datensatz und meine
Fragestellungen anwende.
Brown-Forsythe und Welch testen ebenfalls gegen die Gleichheit der Populationsmittelwerte.
Aber Deine Erklärungen bringen mich hochsignifikant auf den
richtigen Weg!
Danke.
Ich teile sowohl mit der ANOVA (nach Levene-Test) als auch
beim Brown-Forsythe- und Welch-Test meinen Datensatz anhand
einer Variablen (die man dann auch Faktor nennt) in Gruppen
auf (in meinem Fall 4 Gruppen).
Du bildest 4 Gruppen und verwendest dann die ANOVA oder alternativ die anderen Tests, falls Levene-Test signifikant ist.
Die Mittelwerte und Varianzen
dieser Gruppen werden miteinander verglichen und die
Ergebnisse anhand der F-Verteilung beurteilt.
Nein. Die Varianzen in den Gruppen sollen doch gleich sein, sonst klappt das mit der ANOVA nicht so gut.
Noch mal (siehe weiter oben im Thread): Die einfaktorielle ANOVA verwendet zwei Varianzschätzungen:
MSzwischen
MSinnerhalb
Wenn die Gruppenmittelwerte sich nicht signifikant voneinander unterscheiden, dann sind die beiden Schätzungen gleich. Wenn sich die Mittelwerte signifikant unterscheiden, ist MSzwischen größer als MSinnerhalb. Man macht man sich bei der ANOVA als mögliche Unterschiede in Varianzschätzungen zunutze, um Mittelwertsunterschiede auf Signifikanz zu testen.
Sobald mir das Programm für eine Variable ein
Signifikanzniveau unter 0,05 rausgibt, ist der
Mittelwertsunterschied signifikant auf eben jenem Niveau. Eine
Aussage, wie groß dieser Unterschied ist, habe ich bis dahin
noch nicht getroffen.
Das ist korrekt. Und weitergehend: Die ANOVA sagt Dir nicht, welche Gruppenmittelwerte sich voneinander signifikant unterscheiden. Sie sagt nur: Da sind Unterschiede. Wenn Du wissen willst, welche Gruppen sich in ihrem Mittelwerten signifikant unterscheiden -> post hoc-Kontraste.
In meinem Datensatz stecken noch ein paar andere unabhängige
Variablen (Faktoren), anhand derer sich andere Gruppen bilden
lassen. Ich bin mir daher nicht sicher, ob ich überhaupt davon
ausgehen darf, dass meine Stichproben alle aus der selben
Grundgesamtheit stammen. Konkret kann ich anhand von drei
Faktoren meine Daten gruppieren: Temperatur (drei Gruppen),
Zeitpunkt der Beprobung nach Versuchsbeginn (5 Gruppen) und
Chlorkonzentration (4 Gruppen). Auf letztere bezog sich
bislang unsere Diskussion.
Natürlich ergeben sich je nach Kombination der drei Faktoren
für meine Variablen schön unterschiedliche Ergebnisse, die ich
später mithilfe multipler oder partieller Korrelationsanalyse
verallgemeinert beschreiben möchte. Mit der Varianzanalyse
möchte ich alle anderen Unterschiede beiseite lassen und
grundsätzliche Zusammenhänge für den kompletten Datensatz
aufzeigen. Z.B. je höher die Temperatur, desto stärker die
Verkeimung, egal wie es um die anderen Faktoren steht.
Liege ich mit dieser Vorgehensweise richtig?
Wenn die unabhängigen Variablen in diskreten Abstufungen vorliegen (also z.B. Temperatur niedrig, mittel, hoch), dann kannst Du Zusammenhänge der UVn mit Deiner abhängigen Variable mit der ANOVA prüfen. Dazu ist es vielleicht geschickter, eine mehrfaktorielle ANOVA zu berechnen, weil Du dann Haupt- und Interaktionseffekte testen kannst und die Fehlervarianz minimiert wird (bei der einfaktoriellen ANOVA geht alles, was nicht auf den einen Faktor zurückzuführen ist, in die Fehlervarianz -> Power sinkt, d.h. Wahrscheinlichkeit für signifikantes Ergebnis ist niedriger). Korrelationen sind bei wenigen diskreten Abstufungen weniger sinnvoll.
Grüße,
Oliver
Hi,
Populationsmittelwerte sind wahrscheinlich
nicht gleich.
Kleine Erbsenzählerei: mit Population meinst Du die Grundgesamtheit? Für mich als Biologen ist eine Population was anderes
Die Mittelwerte und Varianzen
dieser Gruppen werden miteinander verglichen und die
Ergebnisse anhand der F-Verteilung beurteilt.Nein. Die Varianzen in den Gruppen sollen doch gleich sein,
sonst klappt das mit der ANOVA nicht so gut.
War schlurig von mir formuliert.
Die ANOVA sagt Dir nicht,
welche Gruppenmittelwerte sich voneinander signifikant
unterscheiden. Sie sagt nur: Da sind Unterschiede. Wenn Du
wissen willst, welche Gruppen sich in ihrem Mittelwerten
signifikant unterscheiden -> post hoc-Kontraste.
Post-hoc-Kontraste funktionieren auch für Brown-F. und Welch?
Welche sollte ich da denn wählen, vermutlich die, wenn keine Varianzgleichheit angenommen wird?
In meinem Datensatz stecken noch ein paar andere unabhängige
Variablen (Faktoren), anhand derer sich andere Gruppen bilden
lassen. Ich bin mir daher nicht sicher, ob ich überhaupt davon
ausgehen darf, dass meine Stichproben alle aus der selben
Grundgesamtheit stammen. Konkret kann ich anhand von drei
Faktoren meine Daten gruppieren: Temperatur (drei Gruppen),
Zeitpunkt der Beprobung nach Versuchsbeginn (5 Gruppen) und
Chlorkonzentration (4 Gruppen). Auf letztere bezog sich
bislang unsere Diskussion.
Natürlich ergeben sich je nach Kombination der drei Faktoren
für meine Variablen schön unterschiedliche Ergebnisse, die ich
später mithilfe multipler oder partieller Korrelationsanalyse
verallgemeinert beschreiben möchte. Mit der Varianzanalyse
möchte ich alle anderen Unterschiede beiseite lassen und
grundsätzliche Zusammenhänge für den kompletten Datensatz
aufzeigen. Z.B. je höher die Temperatur, desto stärker die
Verkeimung, egal wie es um die anderen Faktoren steht.
Liege ich mit dieser Vorgehensweise richtig?Wenn die unabhängigen Variablen in diskreten Abstufungen
vorliegen (also z.B. Temperatur niedrig, mittel, hoch), dann
kannst Du Zusammenhänge der UVn mit Deiner abhängigen Variable
mit der ANOVA prüfen. Dazu ist es vielleicht geschickter, eine
mehrfaktorielle ANOVA zu berechnen, weil Du dann Haupt- und
Interaktionseffekte testen kannst und die Fehlervarianz
minimiert wird
entspricht das bei SPSS dem ALM - univariat?
Korrelationen sind bei
wenigen diskreten Abstufungen weniger sinnvoll.
War auch von mir verwirrend formuliert: Korrelationen will ich mit intervallskalierten Daten berechnen, zB. Chlorkonzentration liegt auch als konkreter Messwert vor. Temperaturen bleiben hier außen vor - die taugen zur Varianzanalyse, wie ich gestern gelernt habe.
Die robusten Tests waren bei den wichtigen Parametern hochsignifikant.
Habe auch ALM ausprobiert, aber noch nicht durchgeblickt. Wenn ich das richtig verstanden habe, ist das eine Kombination aus ANOVA und Regressionsanalyse. Taugt das bei inhomogenen Varianzen?
Es gibt noch viel zu tun.
Viele Grüße, OnkelHeini