Hallo!
Schon einmal vielen Dank für die Antwort!
gern geschehen
Die Nullhypothese : Die Urteilerübereinstimmung ist in
der trainierten Gruppe größer.
Die alternative Hypothese ist: Die Urteilerübereinstimmung ist
in der trainierten Gruppe nicht größer.
Dies meine ich, wobei ich dann noch die Definition der
alternativen H. mit der Null-H. vertausche.
So geht es nicht! Wenn du die Hypothesenpaare tauschst, dann wäre unklar, was deine Hypothese ist. Sie kann dann Gleichheit oder Kleinergleich sein. Also zweiseitig oder einseitig …
Du hast quasi je eine Realisationen zweier Experimente. Wenn du davon ausgehst, dass sie Realisationen, zwei verschiedener Verteilungen sind, dann kannst du keine vergleichende statistische Aussage machen.
Dann kannst du nur Sätze sagen wie: „Die Wahrscheinlichkeit, dass die Varianz der ersten Gruppe in Wahrheit den Wert hat, den du für die zweite Gruppe schätzt, ist p!“ Du kannst aber NICHT vergleichen, da sie ja aus verschiedenen Verteilungen sind.
Anders gesagt: Wenn du annimmst, sie stammen aus zwei unabhängigen Verteilungen, dann kann als Differenz ALLES rauskommen, da du die „WAHREN“ Prozesse ja nicht kennst.
Wenn du einen einseitigen Test machst, lautet H_NULL Gleichheit, und H_EINS lautet a größer b. Dann wird H_NULL schneller verworfen.
Wenn du einen zweiseitigen Test auf Ungleicheit machst, lautet H_EINS a ungleich b. Dann ist dein Intervall wird dann breiter.
Es kann also passieren, dass er dir die NULLHYPOTHESE auf GLEICHHEIT im zweiseitigen Test nicht verwerfen kann, ABER die NULLHYPOTHESE auf GLEICHHEIT im einseitigen Test kann verworfen werden.
Da ich nicht weiß wieviele Menschen du befragst, stellt sich
die Frage, welche Verteilung die Punkte haben. Wenn es genug
sind, könnten die Punkte einer Normalverteilung folgen. Dann
sind die Varianzen allerdings Chi^2-Verteilt und ein t-test
ist dann völlig fehl am Platz.
Jede Gruppe besteht aus genau 30 Personen. Insgesamt also 60.
Leider bin ich es gewohnt, normalerweise jegliche
Statistikfrage mit t-Tests und ANOVA/MANOVA zu erschlagen.
Chi2 sagt mir nur etwas im Zusammenhang mit Unabhängigkeit von
Variablen in Kontingenztafeln.
Jetzt wird es spannend! Fangen wir mal vorne an.
- Die T-Verteilung gilt, wenn du einen Quotienten aus Standardnormalverteilung und Chi^2-Verteilung hast. SONST NICHT!
Also schauen wir erstmal welche Verteilung deine Punkte haben. Nimm hierfür die Ergebnisse der 30 Personen und mach ein Jarque-Bera-Test. (Machen viele Programme standardmäßig in der Ausgabe)
Bei 30 Beobachtungen ist dieser Test recht tolerant. Also wenn der Test H_0 (Normalverteilung) verwirft, solltest du dir Gedanken machen!!!
Von Kolgomorow-Smirnov rate ich ab, da er bei kleinen Stichproben verzerrt ist. Bei großen Stichprobem aber zuverlässiger…
- Haben wir nun festgestellt, dass unsere Größen Normalverteilt sind, können wir die Varianzen schätzen. Da wir nun die wahre Varianz nicht kennen, haben wir ein Problem. Würden wir nun die Mittelwerte der beiden Gruppen vergleichen wollen, wäre der T-Test richtig. WOLLEN wir aber NICHT!
Wir wollen Varianzen vergleichen. Also Schätzen wir die Varianz folgender Maßen:
s^2=\frac{1}{n}\sum_{k=1}^n \left(P_k-\bar{P}\right)^2
Hierbei ist \bar{P} der jeweilige Gruppenmittelwert als Schätzer für den Erwartungswert. Diese Größe ist aber noch nicht \chi^2 verteilt, da P-\bar{P} zwar Normalverteilt mit Mittelwert 0 ist, aber die Varianz ist \sigma^2, die wahre unbekannte Varianz! Also dividieren wir durch die wahre aber unbekannte Standartabweichung \sigma, dann gilt:
s^2=\frac{1}{\sigma^2\cdot (n-1)}\sum_{k=1}^n \left(P_k-\bar{P}\right)^2\sim \chi^2_{n-1}
Nun haben wir immernoch unser unbekanntes sigma drin! DOOOOF!
Nun können wir aber das mit beiden Stichproben machen, den Quotienten bilden, und wir sehen, dass sich unter H_0, dass beide Stichproben die gleiche Varianz haben, sich \sigma^2 rauskürzt:
\frac{s_1^2}{s_2^2}=\frac{\frac{1}{\sigma^2\cdot (n-1)}\sum_{k=1}^n \left(P_{1k}-\bar{P_1}\right)^2}{\frac{1}{\sigma^2\cdot (n-1)}\sum_{k=1}^n \left(P_{2k}-\bar{P_2}\right)^2}\sim F_{n-1,n-1}
Wir erhalten durch kürzen:
\frac{s_1^2}{s_2^2}=\frac{\sum_{k=1}^n \left(P_{1k}-\bar{P_1}\right)^2}{\sum_{k=1}^n \left(P_{2k}-\bar{P_2}\right)^2}\sim F_{n-1,n-1}
Wenn ich deinen Versuchsaufbau richtig verstehe, hast du Zwei Gruppen mit je 30 Leuten, die 40 identische Dinge bewerten. (richtig?!)
Wenn das so ist, kannst du 40 mal diesen Test mit jeweils 30 Teilnehmer pro Gruppe machen. n-1 ist dann 29.
Eine weitere Möglichkeit wäre, wenn du annimmst, dass die Varianzen über die verschiedenen, zu bewertenden Gegenständen, innerhalb der zwei Gruppen gleich sind, kannst du den Test mit je 40*30=1200 machen. Du fässt quasi die einzelnen Bewertungen einer Gruppe zusammen. Du tust also so, als ob die Varianz der Bewertung unabhängig vom Objekt ist.
Das liegt daran, dass du Varianzen vergleichst. Du vergleichst
40 Varianzen, daher ist deine Stichprobengröße 40.
Welche Bedeutung hat dann aber die Anzahl der Personen pro
Gruppe in diesem Fall? Bisher war bei meinen Fragestellungen
immer die Anzahl der Versuchspersonen gleich der
Stichprobengröße und ich konnte die Power erhöhen, indem ich
mehr Versuchspersonen rekrutierte.
Das kannst du prinzipiell IMMER.
In dieser Untersuchung
müsste ich dafür die Anzahl der zu bewertenden Objekte
erhöhen?
Wäre sicher auch interessant. Hier könnte man schauen, ob die Varianz vom Mittelwert abhängt. Wäre ziemlich plausibel.
Mal angenommen, ich hätte eine unterschiedliche Anzahl von
Versuchspersonen in den Gruppen; in der einen nur eine
einzige. Die wäre sich ja mit sich selbst immer zu 100 %
hinsichtlich der Objektbewertung einig und alle Varianzen in
der Gruppe wäre 0. Das macht zwar keinen Sinn im Bezug zur
Richtig, und deine Freiheitsgrade(n-1) auch. Dies zeigt statistisch, dass deine Sicherheit gegen NULL geht, wenn du nur eine Beobachtung hast.
Fragestellung, zeigt aber doch, dass die Anzahl der Personen
pro Gruppe eine Rolle spielen sollte, oder?
Macht sie ja auch! IN n!
Viele Grüße
Hans-Peter
Ich hoffe ich konnte alle Klarheiten beseitigen?!