Kumulante

Kumulante

Kumulanten sind Kenngrößen der Verteilungsfunktion einer Zufallsvariablen.

Inhaltsverzeichnis

Definition

Bezeichne G(k) die charakteristische Funktion einer Zufallsvariablen X, d.h.

G(k)=E(e^{ikX})\,

Die Kumulanten κn erhält man, wenn man den Logarithmus der charakteristischen Funktion G(k) nach k entwickelt:

\ln G(k)=\sum_{n=1}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}\kappa_{n}

Die n-te Kumulante κn ist dann definiert durch

\kappa_n=\frac{1}{i^n}\frac{\partial^n}{\partial k^n}\ln G(k)\bigg|_{k=0}

Eigenschaften

Verschiebungs-Invarianz

Die Kumulanten werden auch als Semiinvarianten der Dichtefunktion p(x) bezeichnet, da sie sich, mit Ausnahme von κ1, bei einer Verschiebung des Erwartungswertes nicht ändern. Sei X eine Zufallsvariable, dann gilt für eine beliebige Konstante c\in \mathbb R:

\kappa_1(X + c) = \kappa_1(X) + c\,
\kappa_n(X + c) = \kappa_n(X) ~ \text{ mit } ~ n \ge 2\,

Homogenität

Die n-te Kumulante ist homogen vom Grad n, sei c eine beliebige Konstante, dann gilt:

\kappa_n(cX)=c^n\kappa_n(X)\,

Additivität

Seien X1 und X2 stochastisch unabhängige Zufallsvariablen, dann gilt für Y = X1 + X2

\kappa_{n}(Y)=\kappa_{n}(X_1)+\kappa_{n}(X_2)\,

Für unabhängige Zufallsvariablen ist die charakteristische Funktion ein Produkt G_{Y}(k)=G_{X_{1}}(k)\cdot G_{X_{2}}(k) und somit der Logarithmus eine Summe:

\ln G_{Y}(k)=\ln G_{X_{1}}(k)+\ln G_{X_{2}}(k)=\sum_{n=1}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}\left[\kappa_{n}(X_{1})+\kappa_{n}(X_{2})\right]=\sum_{n=1}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}\kappa_{n}(Y)

Für die Summe Y=\sum_{i=1}^{N}X_i aus N stochastisch unabhängigen Zufallsvariablen X_1, X_2, \ldots, X_N gilt:

\kappa_{n}(Y)=\sum_{i=1}^{N}\kappa_{n}(X_i)\,

Besonderheit der Gauß-Verteilung

Für eine Gauß-Verteilung ist die charakteristische Funktion gleich G(k) = exp(imk − σ2k2 / 2) und somit die Kumulanten:

\kappa_{1}=m\ ;\quad\kappa_{2}=\sigma^{2}\ ;\quad\kappa_{n\geq 3}=0

Alle Kumulanten größer als 2. Ordnung verschwinden. Diese Eigenschaft charakterisiert die Gauß-Verteilung.

Man kann zeigen, dass

  • entweder alle Kumulanten außer den ersten beiden verschwinden
  • oder unendlich viele nichtverschwindende Kumulanten existieren.

Anders ausgedrückt: Die Kumulanten generierende Funktion ln G(k) kann kein endliches Polynom der Ordnung größer 2 sein.

Kumulanten und Momente

Kumulanten als Funktion der Momente

Bezeichne mn das n-te Moment einer Zufallsvariablen X. Durch G(k) lässt sich mn darstellen als

m_n=\frac{1}{i^n}\frac{\partial^n}{\partial k^n}G(k)\bigg|_{k=0}

Folglich lassen sich die Kumulanten durch die Momente mn bzw. durch ausdrücken:

\kappa_1=m_1\,
\kappa_2=m_2-m_1^2\,
\kappa_{3}=m_{3}-3m_{2}m_{1}+2m_{1}^{3}\,
\kappa_{4}=m_{4}-4m_{3}m_{1}-3m_{2}^{2}+12m_{2}m_{1}^{2}-6m_{1}^{4}\,
\kappa_{5}=m_{5}+5m_{1}(6m_{2}^{2}-m_{4})-10m_{3}m_{2}+20m_{3}m_{1}^{2}-60m_{2}m_{1}^{3}+24m_{1}^{5}\,

Im Allgemeinen lässt sich die Abhängigkeit der Kumulanten von den Momenten durch folgende Rekursionsformel beschreiben:

\kappa_{n}=m_{n}-\sum_{k=1}^{n-1}{n-1 \choose k-1}\kappa_{k}m_{n-k}

Mit den zentralen Momenten μn sind die Formeln meist kürzer:

\kappa_1=m_1\,
\kappa_2=\mu_2\,
\kappa_3=\mu_3\,
\kappa_4=\mu_4-3\mu_2^2\,
\kappa_5=\mu_5-10\mu_3\mu_2\,
\kappa_6=\mu_6-15\mu_4\mu_2-10\mu_3^2+30\mu_2^3\,

Von besonderer Bedeutung sind die ersten beiden Kumulanten: κ1 ist der Erwartungswert m1 = E(X) und κ2 ist die Varianz μ2 = V(X). Ab der vierten Ordnung stimmen Kumulante und zentrales Moment nicht mehr überein.

Herleitung der ersten Kumulanten

Man entwickelt ln G(k) um G(k) = 1

\ln G(k)=\sum_{n=1}^{\infty}(-1)^{n+1}\frac{(G(k)-1)^{n}}{n}=(G(k)-1)-\frac{(G(k)-1)^{2}}{2}+\frac{(G(k)-1)^{3}}{3}\mp\ldots

und setzt die Reihendarstellung von G(k)

G(k)=\sum_{n=0}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}m_n=1+\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\frac{(ik)^{3}}{6}m_{3}+\ldots

in obige Entwicklung ein

\begin{align}
\ln G(k)= & \left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\frac{(ik)^{3}}{6}m_{3}+\ldots\right]\\
 & -\frac{1}{2}\left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\ldots\right]^{2}\\
 & +\frac{1}{3}\left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\ldots\right]^{3}\mp\ldots\\
= & \left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\frac{(ik)^{3}}{6}m_{3}+\ldots\right]\\
 & -\frac{1}{2}\left[(\mathrm{i}k)^{2}m^{2}_{1}+2\frac{(ik)^{3}}{2}m_{1}m_{2}+\frac{(ik)^{4}}{4}m^{2}_{2}+\ldots\right]\\
 & +\frac{1}{3}\left[(\mathrm{i}k)^{3}m^{3}_{1}+2\frac{(ik)^{4}}{2}m^{2}_{1}m_{2}+2\frac{(ik)^{5}}{4}m_{1}m^{2}_{2}+\frac{(ik)^{6}}{8}m^{3}_{2}\ldots\right]\mp\ldots\end{align}

Sortiert man noch nach Potenzen von k, so erhält man die Kumulanten:

\ln G(k)=\mathrm{i}k\underbrace{\left[m_{1}\right]}_{\kappa_{1}}+\frac{(ik)^{2}}{2}\underbrace{\left[m_{2}-m^{2}_{1}\right]}_{\kappa_{2}}+\frac{(ik)^{3}}{6}\underbrace{\left[m_{3}-3m_{1}m_{2}+2m^{3}_{1}\right]}_{\kappa_{3}}+\ldots

Momente als Funktion der Kumulanten

Das n-te Moment ist ein Polynom n-ten Grades der ersten n Kumulanten. Hier die ersten sechs Momente:

m_1=\kappa_1\,
m_2=\kappa_2+\kappa_1^2\,
m_3=\kappa_3+3\kappa_2\kappa_1+\kappa_1^3\,
m_4=\kappa_4+4\kappa_3\kappa_1+3\kappa_2^2+6\kappa_2\kappa_1^2+\kappa_1^4\,
m_5=\kappa_5+5\kappa_4\kappa_1+10\kappa_3\kappa_2+10\kappa_3\kappa_1^2+15\kappa_2^2\kappa_1+10\kappa_2\kappa_1^3+\kappa_1^5\,
m_6=\kappa_6+6\kappa_5\kappa_1+15\kappa_4\kappa_2+15\kappa_4\kappa_1^2+10\kappa_3^2+60\kappa_3\kappa_2\kappa_1+20\kappa_3\kappa_1^3+15\kappa_2^3+45\kappa_2^2\kappa_1^2+15\kappa_2\kappa_1^4+\kappa_1^6.\,

Die Koeffizienten entsprechen genau denjenigen in der Formel von Faà di Bruno.

Um die zentralen Momente als Funktion der Kumulanten auszudrücken, vernachlässige in obigen Polynomen für die Momente alle Terme, bei denen κ1 als Faktor auftaucht.

\mu_1=0\,
\mu_2=\kappa_2\,
\mu_3=\kappa_3\,
\mu_4=\kappa_4+3\kappa_2^2\,
\mu_5=\kappa_5+10\kappa_3\kappa_2\,
\mu_6=\kappa_6+15\kappa_4\kappa_2+10\kappa_3^2+15\kappa_2^3.\,

Folgerungen

Gegeben seien die stochastisch unabhängigen Zufallsvariablen X_1, X_2, \ldots, X_N.

Zentraler Grenzwertsatz

Für die Zufallsvariable

Y=\frac{1}{\sqrt{N}}(X_{1}+X_{2}+\ldots+X_{N})\,

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

\kappa_{n}(Y)=\frac{1}{\sqrt{N}^{n}} \sum_{i=1}^{N} \kappa_{n}(X_i) \approx \mathcal{O}(N^{1-n/2})\,

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten \sum_{i=1}^{N}\kappa_{n} von der Ordnung \mathcal{O}(N) ist. Hier die Ordnungen der ersten Kumulanten:

\kappa_{1}(Y)=\mathcal{O}(N^{1/2})\ ,\quad\kappa_{2}(Y)=\mathcal{O}(N^{0})\ ,\quad\kappa_{3}(Y)=\mathcal{O}(N^{-1/2})\ ,\quad\kappa_{4}(Y)=\mathcal{O}(N^{-1})

Für n\geq 3 ist die Ordnung N hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

\lim_{N\to\infty}\kappa_{n}(Y)=0\quad\text{mit}\quad n\geq3

D. h. es bleiben nur die beiden ersten Kumulanten bzw. die beiden ersten Momente übrig. Die einzige Verteilung, die nur die erste und zweite Kumulante besitzt, ist die Gauß-Verteilung. Somit gilt, dass die Summe beliebiger Zufallsvariablen geteilt durch die Wurzel der Anzahl im Grenzfall vieler Zufallsvariablen gegen die Gauß-Verteilung konvergiert; dies ist der zentrale Grenzwertsatz. Die Gauß-Verteilung nimmt also eine besondere Stellung unter allen Verteilungen ein. Wirken bei einem Experiment viele stochastisch unabhängige Einflüsse, so kann man die Gesamtheit der Einflüsse durch eine Gaußsche Zufallsvariable darstellen.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch Xi = X mit Mittelwert 0, Varianz σ2 und beliebigen höheren Momenten.

\kappa_{1}(Y)=\frac{1}{\sqrt{N}}\sum_{i=1}^{N}0=0\ ,\quad\kappa_{2}(Y)=\frac{1}{N}\sum_{i=1}^{N}\sigma^{2}=\sigma^{2}\ ,\quad\kappa_{3}(Y)=\frac{1}{\sqrt{N}^3}\sum_{i=1}^{N}\kappa_{3}(X) =\frac{\kappa_{3}(X)}{\sqrt{N}} \underset{N\to\infty}{\longrightarrow}0

Für die Zufallsvariable Z

Z:=Y-E(Y)=\frac{1}{\sqrt{N}}(X_{1}-E(X_{1})+X_{2}-E(X_{2})+\ldots+X_{N}-E(X_{N}))\,

kann man gegenüber Y die Verschiebungsinvarianz der Kumulanten der Ordnung größer gleich 2 ausnutzen. Der einzige Unterschied zur Zufallsvariablen Y ist, dass Erwartungswert von Z Null ist, auch dann wenn die Erwartungswerte der Xi nicht verschwinden.

\begin{align}
\kappa_{1}(Z) & =\frac{1}{\sqrt{N}}\sum_{i=1}^{N}\underbrace{\kappa_{1}(X_{i}-E(X_{i}))}_{E(X_{i})-E(X_{i})}=0\\
\kappa_{2}(Z) & =\frac{1}{N}\sum_{i=1}^{N}\kappa_{2}(X_{i}-E(X_{i}))=\frac{1}{N}\sum_{i=1}^{N}\kappa_{2}(X_{i})=\kappa_{2}(Y)=\frac{1}{N}\sum_{i=1}^{N}\sigma_{i}^{2}\overset{\text{ Spezialfall }}{\underset{\sigma_{i}=\sigma,\,\forall i}{=}}\sigma^{2}\\
\kappa_{3}(Z) & =\frac{1}{\sqrt{N}^{3}}\sum_{i=1}^{N}\kappa_{3}(X_{i}-E(X_{i}))=\frac{1}{\sqrt{N}^{3}}\sum_{i=1}^{N}\kappa_{3}(X_{i})=\kappa_{3}(Y)\underset{N\to\infty}{\longrightarrow}0\end{align}

Gesetz der großen Zahlen

Für die Zufallsvariable

Y=\frac{1}{N}(X_{1}+X_{2}+\ldots+X_{N})\,

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

\kappa_{n}(Y)=\frac{1}{N^{n}} \sum_{i=1}^{N} \kappa_{n}(X_i) \approx \mathcal{O}(N^{1-n})\,

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten \sum_{i=1}^{N}\kappa_{n} von der Ordnung \mathcal{O}(N) ist. Hier die Ordnungen der ersten Kumulanten:

\kappa_{1}(Y)=\mathcal{O}(N^{0})\ ,\quad\kappa_{2}(Y)=\mathcal{O}(N^{-1})\ ,\quad\kappa_{3}(Y)=\mathcal{O}(N^{-2})\ ,\quad\kappa_{4}(Y)=\mathcal{O}(N^{-3})

Für n\geq 2 ist die Ordnung N hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

\lim_{N\to\infty}\kappa_{n}(Y)=0\quad\text{mit}\quad n\geq2

D. h. es bleibt nur die erste Kumulante bzw. das erste Moment übrig. Mit wachsendem N erhält man eine Gauß-Verteilung um den Mittelwert

\kappa_{1}(Y)=\frac{1}{N} \sum_{i=1}^{N} \kappa_{1}(X_i),

wobei die Breite von der Ordnung N − 1 ist, und im Grenzfall N\to\infty einen scharfen (Delta-förmigen) Peak bei κ1.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch Xi = X mit Mittelwert μ, Varianz σ2 und beliebigen höheren Momenten.

\kappa_{1}(Y)=\frac{1}{N}\sum_{i=1}^{N}m=m\ ,\quad\kappa_{2}(Y)=\frac{1}{N^{2}}\sum_{i=1}^{N}\sigma^{2}=\frac{\sigma^{2}}{N}\underset{N\to\infty}{\longrightarrow}0\ ,\quad\kappa_{3}(Y)=\frac{1}{N^{3}}\sum_{i=1}^{N}\kappa_{3}(X)=\frac{\kappa_{3}(X)}{N^{2}}\underset{N\to\infty}{\longrightarrow}0

Somit ist Y eine Zufallsvariable mit demselben Mittelwert wie X (man nennt Y erwartungstreuer Schätzer für den Mittelwert von X). Die für wachsende N immer schmäler werdende Breite der Gauß-Verteilung (Standardabweichung um Mittelwert) beträgt \sigma_Y=\sigma_X/\sqrt{N}.

Literatur

  • C. W. Gardiner: Handbook of Stochastic Methods. Springer, 2009. ISBN 9783540707127
  • M. Abramowitz, I. A. Stegun: Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables. Dover, 1965. ISBN 9780486612720

Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Gauss-Verteilung — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gaussfunktion — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gausskurve — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gausssche Verteilung — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gaussverteilung — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gauß'sche Glockenkurve — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gauß-Funktion — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gauß-Glocke — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gauß-Kurve — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gauß-Profil — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”