Standardabweichung?

Hallo,
mir ist einiges unklar in Sachen Standardabweichung:

  1. Es gibt zwei verschiedene Formeln. Einmal wird durch n dividiert, ein anderes Mal durch n-1. Warum?
  2. Wie begründet sich die zweite Formel (durch n -1)? Durch n zu dividieren macht ja Sinn, ist es doch der Mittelwert der n-quadratischen Abweichungen. Aber durch n-1?

Ich hoffe, mir kann jemand helfen…
Vielen Dank schon mal!

Auch hallo

  1. Es gibt zwei verschiedene Formeln. Einmal wird durch n
    dividiert, ein anderes Mal durch n-1. Warum?

Eine Freihanderklärung: die Formel durch n ergibt sich als Ergebnis einer sog. „Maximum-Likelihood Schätzung“. Die Formel mit n-1 ergibt sich anschaulich dadurch, dass ein Element für sich alleine keine Abweichung haben kann. Und man beachte noch das Stichwort „Freiheitsgrade“.
Ausserdem soll n-1 der bessere Schätzer sein (ohne Beweis)

mfg M.L.

Hallo,

  1. Es gibt zwei verschiedene Formeln. Einmal wird durch n
    dividiert, ein anderes Mal durch n-1. Warum?
  2. Wie begründet sich die zweite Formel (durch n -1)? Durch n
    zu dividieren macht ja Sinn, ist es doch der Mittelwert der
    n-quadratischen Abweichungen. Aber durch n-1?

Durch n wird geteilt, wenn der Mittelwert bekannt ist.
Durch N-1, wenn der Mittelwert unbekannt ist, also erst aus den Daten berechnet werden muss. In diesem Fall steht dann ein Datenpunkt weniger zur Verfügung.

Gruss,
TR

Durch n wird geteilt, wenn der Mittelwert bekannt ist.
Durch N-1, wenn der Mittelwert unbekannt ist, also erst aus
den Daten berechnet werden muss. In diesem Fall steht dann ein
Datenpunkt weniger zur Verfügung.

Gruss,
TR

Aber werden im Zähler in beiden Formeln nicht die Abstände zum Mittelwert berechnet? Jedenfalls unterscheiden sich beide Formeln im Zähler nicht voneinander… Oder hab ich etwas falsch verstanden?

Hallo,

Aber werden im Zähler in beiden Formeln nicht die Abstände zum
Mittelwert berechnet? Jedenfalls unterscheiden sich beide
Formeln im Zähler nicht voneinander… Oder hab ich etwas
falsch verstanden?

Sagen wir es mal so:
1/n-1 ist immer grösser als 1/n.
Dass die Standardabweichung bei unbekanntem Mittelwert grösser sein muss als bei bekanntem Mittelwert, ist anschaulich nachvollziehbar, da der Mittelwert ja aus der Stichprobe errechnet werden muss und somit selbst eine gewisse Unschärfe besitzt.

Warum jetzt gerade 1/n-1 statt 1/n, das ergibt sich aufgrund höherer Mathe. Ich kenne leider keinen Weg, das anschaulich zu beschreiben.

Gruss,
TR

1 Like

Hallo,

  1. Es gibt zwei verschiedene Formeln. Einmal wird durch n
    dividiert, ein anderes Mal durch n-1. Warum?
  2. Wie begründet sich die zweite Formel (durch n -1)? Durch n
    zu dividieren macht ja Sinn, ist es doch der Mittelwert der
    n-quadratischen Abweichungen. Aber durch n-1?

für beide Fragen ist die Antwort folgende:

http://www.wer-weiss-was.de/cgi-bin/forum/showarchiv…

Beste Grüße

mh, mal konkret:
ich habe eine Stichprobe, von der kann ich den Mittelwert bestimmen. Dennoch teile ich durch n-1. (empirische Standardabweichung)
Klar lässt sich dies wohl beweisen, doch gehts mir mehr um eine anschauliche Erklärung. (durch n lässt sich ja erklären)

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Soweit ich es noch zusammenkriege:

Das mit n-1 ist ein „erwartungstreuer“ Schätzer, was bedeutet, dass der Erwartungswert dieses Schätzers dann auch die Standardabweichung ist.

… ah hier findest Du das sogar konkret für Deine Frage: http://de.wikipedia.org/wiki/Erwartungstreu