Korrigierte Stichprobenvarianz

Korrigierte Stichprobenvarianz

Die korrigierte Stichprobenvarianz (s2) ist eine Schätzfunktion für die Varianz einer Zufallsvariablen aus Beobachtungswerten, die einer Stichprobe der Grundgesamtheit entstammen. Diese Varianz wird auch in der deskriptiven Statistik als Maß für die Streubreite von Daten verwendet.

Inhaltsverzeichnis

Definition

Die korrigierte Stichprobenvarianz der Stichprobe x_1, \cdots, x_n ist definiert als

s^2= \frac{1}{n-1} \sum \limits_{i=1}^n\left(x_i-\overline x\right)^2

Dabei ist \bar{x}= \frac{1}{n} \sum_{i=1}^n{x_i} der empirische Mittelwert, also das arithmetische Mittel der Stichprobe.

Die korrigierte Stichprobenvarianz wird oft auch als empirische Varianz oder einfach als Stichprobenvarianz bezeichnet. Diese Bezeichnung ist aber nicht eindeutig; manche Autoren bezeichnen mit empirischer Varianz bzw. Stichprobenvarianz die Größe

s_n^2=\frac{1}{n}\sum\limits_{i=1}^n\left(x_i-\overline x\right)^2;

dies ist der Maximum-Likelihood-Schätzer der Varianz unter Annahme von Normalverteilung.

Berechnung ohne vorherige Mittelwertbildung

Mit dem Verschiebungssatz lässt sich die korrigierte Stichprobenvarianz in einem Durchlauf auch ohne vorherige Mittelwertbildung berechnen:

s^2=\frac{1}{n-1}\left(\sum_{i=1}^n x_i^2-\frac{1}{n}\left(\sum_{i=1}^n x_i\right)^2\right)

Der Verzicht der vorausgehenden Mittelwertbereinigung hat aber eine numerische Instabilität zur Folge, falls der quadrierte Mittelwert der Daten wesentlich größer als deren Varianz ist.

Erwartungstreue Schätzung der Varianz der Grundgesamtheit

Der Nenner n − 1 in der korrigierten Stichprobenvarianz erklärt sich folgendermaßen: Sind die xi die Ausprägungen unabhängig identisch verteilte Zufallsvariablen X_1, \cdots, X_nmit Varianz σ2 und ist der Mittelwert μ der Grundgesamtheit bekannt, so ist

S_0^2=\frac{1}{n}\sum_{i=1}^{n}\left(X_i-\mu\right)^2

eine erwartungstreue Schätzfunktion für die Varianz σ2 der Grundgesamtheit.[1] und damit auch

s_0^2=\frac{1}{n}\sum_{i=1}^{n}\left(x_i-\mu\right)^2,

eine erwartungstreue Schätzung für die Varianz. Es gilt namentlich:

E (S_0^2) = E\left(\frac 1n\sum_{i=1}^n(X_i-\mu)^2\right) = \frac 1n\sum_{i=1}^n E\left( (X_i-\mu)^2\right) = \frac 1n n\sigma^2 = \sigma^2.

Üblicherweise kennt man aber den Mittelwert μ der Grundgesamtheit nicht und schätzt ihn daher durch den Stichprobenmittelwert

\bar{x}=\frac{1}{n}\sum_{i=1}^{n}x_i.

Setzt man diesen Schätzwert unbekümmert in obige Formel ein, so erhält man für die Varianz σ2 der Grundgesamtheit die Schätzung

 s_1^2 = \frac 1n\sum_{i=1}^{n}\left(x_i-\bar x\right)^2.

Um zu entscheiden, ob dieser Schätzer erwartungstreu ist, betrachtet man ihn als Ausprägung der Schätzfunktion

 S_1^2 = \frac 1n\sum_{i=1}^{n}\left(X_i-\bar X\right)^2.

und berechnet wie folgt den Erwartungswert:

\begin{align} E (S_1^2)
&= \frac 1n \sum_{i=1}^n E\left( (X_i-\overline{X})^2 \right)= 
\frac 1n E \left(\sum_{i=1}^n (X_i-\mu+\mu-\overline{X})^2\right)\\
&=\frac1n E \left(\sum_{i=1}^n \left((X_i-\mu)^2 - 2(X_i-\mu)
(\overline{X}-\mu) + (\overline{X}-\mu)^2\right) \right)\\
&=\frac1n E\left(\sum_{i=1}^n (X_i-\mu)^2 - 2\sum_{i=1}^n(X_i-\mu)
(\overline{X}-\mu) + n(\overline{X}-\mu)^2\right) \\
&=\frac1n E\left(\sum_{i=1}^n (X_i-\mu)^2 - 2n(\overline{X}-\mu)
(\overline{X}-\mu) + n(\overline{X}-\mu)^2\right) \\
&=\frac1n E\left(\sum_{i=1}^n (X_i-\mu)^2 -n(\overline{X}-\mu)^2\right) \\
&=\frac1n \left(\sum_{i=1}^n E\left((X_i-\mu)^2\right) -nE\left((\overline{X}-\mu)^2\right)\right) \\
&=\frac1n \left(nVar(X)-nVar(\overline{X})\right) \\
&=Var(X)-Var(\overline{X}) = \sigma^2 - \frac{\sigma^2}{n} = \frac{n-1}{n}\,\sigma^2, \end{align}

wobei beim vorletzten Gleichheitszeichen die Definition der Varianz und die Formel zur Berechnung des Standardfehlers aus der Varianz der Grundgesamtheit und dem Stichprobenumfang benutzt wurden. Daraus ergibt sich, dass die Schätzfunktion S_1^2 nicht erwartungstreu ist, und dass man einen erwartungstreuen Schätzer für die Varianz erhält, wenn man s_1^2 mit dem Faktor \tfrac{n}{n-1} multipliziert. So gelangt man zur korrigierten Stichprobenvarianz

S^2=\frac{1}{n-1}\sum\limits_{i=1}^n\left(X_i-\bar X\right)^2.

Für diese gilt nun unabhängig von der genauen Verteilung der xi

\mathrm{E\,}(S^2)=\sigma^2.

Der Erwartungswert der korrigierten Stichprobenvarianz ist also gleich der Varianz der Grundgesamtheit. Die korrigierte Stichprobenvarianz ist somit eine erwartungstreue Schätzung für die Varianz.[1]

Darstellung mit paarweisen Differenzen

Die Formel der korrigierten Stichprobenvarianz lässt sich auch so darstellen, dass sie keinen Bezug auf ein Lage-Maß wie den Mittelwert beinhaltet:

s^2=\frac{1}{2}\cdot\frac{1}{n(n-1)}\sum_{\mathrm{alle~}i\ne j}\left(x_i-x_j\right)^2=\frac{1}{n(n-1)}\sum_{i=1}^n\sum_{j=i+1}^n\left(x_i-x_j\right)^2.

Insbesondere gilt für eine Stichprobe des Umfangs n = 2:

s^2=\frac{\left(x_1-x_2\right)^2}2.

Diese Formel liefert den gleichen Wert wie obige Formel, wie sich beispielsweise folgendermaßen erkennen lässt:

\sum_{i=1}^n\sum_{j=i+1}^n\left(x_i-x_j\right)^2
=\sum_{i=1}^n\sum_{j=i+1}^n\left(\left(x_i-\bar x\right)-\left(x_j-\bar x\right)\right)^2
=\sum_{i=1}^n\sum_{j=i+1}^n\left(\left(x_i-\bar x\right)^2+\left(x_j-\bar x\right)^2\right) - 2\sum_{i=1}^n\sum_{j=i+1}^n\left(x_i-\bar x\right)\left(x_j-\bar x\right)
=\left(n-1\right)\sum_{i=1}^n\left(x_i-\bar x\right)^2 - 2\sum_{i=1}^n\sum_{j=i+1}^n\left(x_i-\bar x\right)\left(x_j-\bar x\right)
=n\sum_{i=1}^n\left(x_i-\bar x\right)^2,

denn

 - 2\sum_{i=1}^n\sum_{j=i+1}^n\left(x_i-\bar x\right)\left(x_j-\bar x\right)=\sum_{i=1}^n\left(x_i-\bar x\right)^2.

Diese folgt nämlich aus

0=\left(\sum_{i=1}^n\left(x_i-\bar x\right)\right)^2=\sum_{i=1}^n\left(x_i-\bar x\right)^2+2\sum_{i=1}^n\sum_{j=i+1}^n\left(x_i-\bar x\right)\left(x_j-\bar x\right).

Die Formel

s^2=\frac{1}{2}\cdot\frac{1}{n(n-1)}\sum\limits_{\mathrm{alle~}i\ne j}\left(x_i-x_j\right)^2

lässt deutlich die Absicht der korrigierten Stichprobenvarianz erkennen. Paare i = j werden nicht berücksichtigt; die Differenz der entsprechenden x-Werte wäre ohnehin nur null. Berücksichtigte man sie, was übrigens dem Ersetzen des Divisors n − 1 durch n in der eingangs erwähnten Definition entspräche, dann unterläge die Stichprobenvarianz einer groben Verzerrung hinsichtlich der Datenzahl n. Bei nur zwei Daten gäbe es vier Paare, wovon zwei, nämlich (x1,x1) und (x2,x2) stets die Differenz null aufwiesen, was die Stichprobenvarianz kräftig nach unten drücken würde. Hat man dagegen viele Daten, dann ginge der Anteil der (xi,xi)-Paare drastisch zurück. Deshalb berücksichtigt man bei der Definition der korrigierten Stichprobenvarianz nur Paare (xi,xj) mit i\ne j. Nur wenn deren Differenzen sich zu null ergeben (wenn also xi = xj ist) oder wenigstens nicht groß sind, ist es ein Indiz für eine kleine Streuung der Daten.

Die ausschließliche Berücksichtigung von Paaren (xi,xj) mit i\ne j bei der Berechnung der korrigierten Stichprobenvarianz entspricht der eingangs erwähnten Varianz-Definition und rechtfertigt so die Division der dortigen Summe durch n − 1.

Die sich auf paarweise Differenzen beziehende Definition der korrigierten Stichprobenvarianz in diesem Abschnitt bildet auch die Grundlage[2] der Definition empirischer Variogrammwerte, die in Unkenntnis der Bedeutung des Faktors \frac{1}{2} oft Semivarianzen genannt werden.

Stichprobenstandardabweichung

Die Wurzel aus der korrigierten Stichprobenvarianz, s, ist die Stichprobenstandardabweichung. Da die Erwartungstreue bei Anwendung einer nichtlinearen Funktion in den meisten Fällen verloren geht, ist die Stichprobenstandardabweichung im Gegensatz zur korrigierten Stichprobenvarianz kein erwartungstreuer Schätzer für die Standardabweichung.

Einzelnachweise

  1. a b Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. VEB Deutscher Verlag der Wissenschaften, Elfte Auflage, Berlin 1989, Beispiel 13.3.2, Seite 538f.
  2. Martin Bachmaier & Matthias Backes: Variogram or Semivariogram - Explaining the Variances in a Variogram. Article DOI: 10.1007/s11119-008-9056-2, Precision Agriculture, Springer Verlag, Berlin, Heidelberg, New York, 2008.

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Stichprobenvarianz — Die Stichprobenvarianz oder empirische Varianz ist ein Maß für die Streuung von Daten in der (deskriptiven) Statistik. Die Stichprobenstandardabweichung oder empirische Standardabweichung ist die Wurzel aus der Stichprobenvarianz und hat die… …   Deutsch Wikipedia

  • Empirische Standardabweichung — Die korrigierte Stichprobenvarianz (s2) ist eine Schätzfunktion für die Varianz einer Zufallsvariablen aus Beobachtungswerten, die einer Stichprobe der Grundgesamtheit entstammen. Diese Varianz wird auch in der deskriptiven Statistik als Maß für… …   Deutsch Wikipedia

  • Empirische Varianz — Die korrigierte Stichprobenvarianz (s2) ist eine Schätzfunktion für die Varianz einer Zufallsvariablen aus Beobachtungswerten, die einer Stichprobe der Grundgesamtheit entstammen. Diese Varianz wird auch in der deskriptiven Statistik als Maß für… …   Deutsch Wikipedia

  • Stichprobenstandardabweichung — Die korrigierte Stichprobenvarianz (s2) ist eine Schätzfunktion für die Varianz einer Zufallsvariablen aus Beobachtungswerten, die einer Stichprobe der Grundgesamtheit entstammen. Diese Varianz wird auch in der deskriptiven Statistik als Maß für… …   Deutsch Wikipedia

  • — Die korrigierte Stichprobenvarianz (s2) ist eine Schätzfunktion für die Varianz einer Zufallsvariablen aus Beobachtungswerten, die einer Stichprobe der Grundgesamtheit entstammen. Diese Varianz wird auch in der deskriptiven Statistik als Maß für… …   Deutsch Wikipedia

  • Varianzschätzer — In diesem Artikel oder Abschnitt fehlen folgende wichtige Informationen: In diesem Artikel wird als einzige Varianzschätzung die korrigierte Stichprobenvarianz erwähnt. Es fehlen konkrete Verfahren zur Schätzung der Varianz, die auf den… …   Deutsch Wikipedia

  • Standardabweichung — Die Standardabweichung ist ein um 1860 von Francis Galton eingeführter Begriff der Statistik und der Wahrscheinlichkeitsrechnung und ein Maß für die Streuung der Werte einer Zufallsvariablen um ihren Mittelwert. Sie ist für eine Zufallsvariable X …   Deutsch Wikipedia

  • Mittlerer Fehler — Dieser Artikel befasst sich mit der Standardabweichung σ einer Zufallsvariablen. Zur Standardabweichung s der Stichprobe siehe: empirische Varianz. Zur Standardabweichung des Stichproben Mittelwertes siehe: Standardfehler. Die Standardabweichung… …   Deutsch Wikipedia

  • Sigma-Umgebung — Dieser Artikel befasst sich mit der Standardabweichung σ einer Zufallsvariablen. Zur Standardabweichung s der Stichprobe siehe: empirische Varianz. Zur Standardabweichung des Stichproben Mittelwertes siehe: Standardfehler. Die Standardabweichung… …   Deutsch Wikipedia

  • Standard-Abweichung — Dieser Artikel befasst sich mit der Standardabweichung σ einer Zufallsvariablen. Zur Standardabweichung s der Stichprobe siehe: empirische Varianz. Zur Standardabweichung des Stichproben Mittelwertes siehe: Standardfehler. Die Standardabweichung… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”