Poisson Statistik

Poisson Statistik

Die Poisson-Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli-Experiments entsteht. Letzteres ist ein Zufallsexperiment, das nur zwei mögliche Ergebnisse besitzt (z. B. „Erfolg“ und „Misserfolg“). Führt man ein solches Experiment sehr oft durch und ist die Erfolgswahrscheinlichkeit gering, so ist die Poisson-Verteilung eine gute Näherung für die entsprechende Wahrscheinlichkeitsverteilung. Die Poisson-Verteilung wird deshalb manchmal als die Verteilung der seltenen Ereignisse bezeichnet (siehe auch Gesetz der kleinen Zahlen). Zufallsvariablen mit einer Poisson-Verteilung genügen dem Poisson-Prozess.

Die mit Pλ bezeichnete Wahrscheinlichkeitsverteilung wird durch den Parameter λ bestimmt, der gleichzeitig Erwartungswert und Varianz der Verteilung ist. Sie ordnet den natürlichen Zahlen  k = 0, 1, 2, \ldots die Wahrscheinlichkeiten wie folgt zu:

P_\lambda (X=k) = \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda}

wobei

bezeichnen.

Die Poisson-Verteilung liefert also Voraussagen über die Anzahl (k) des Eintretens seltener, zufälliger und voneinander unabhängiger Ereignisse innerhalb eines bestimmten Intervalls, wenn aus vorangehender Beobachtung bereits bekannt ist, wie viele Ereignisse man im Mittel innerhalb dieses Intervalls erwartet (λ). Sie ist ein Spezialfall der Panjer-Verteilung.

Siméon Denis Poisson veröffentlichte 1837 seine Gedanken zu dieser Verteilung zusammen mit seiner Wahrscheinlichkeitstheorie in dem Werk „Recherches sur la probabilité des jugements en matières criminelles et en matière civile“ („Untersuchungen zur Wahrscheinlichkeit von Urteilen in Straf- und Zivilsachen“).

Erweiterungen der Poisson-Verteilung wie die Verallgemeinerte Poisson-Verteilung und die Gemischte Poisson-Verteilung werden vor allem im Bereich der Versicherungsmathematik angewandt.

Inhaltsverzeichnis

Herleitung

Die Poisson-Verteilung ergibt sich einerseits als Grenzfall der Binomial-Verteilung, andererseits lässt sie sich aus grundlegenden Prozesseigenschaften (poissonsche Annahmen) ableiten. Wenn diese Eigenschaften einem Geschehen in guter Näherung zugeordnet werden können, wird die Ereignishäufigkeit Poisson-verteilt sein.

Man betrachtet ein Raum- oder Zeitkontinuum w (das Bernoulli-Experiment wird sehr oft, sozusagen an jedem Punkt des Kontinuums durchgeführt), 'auf' dem zählbare Ereignisse mit konstanter mittlerer Anzahl g pro Einheitsintervall stattfinden. Nun richtet man den Blick auf ein 'genügend' kleines Kontinuumsintervall Δw, das je nach Experiment einen Bereich, ein Zeitintervall, eine abgegrenzte Strecke, Fläche oder Volumen darstellen kann. Was sich dort ereignet, bestimmt die globale Verteilung auf dem Kontiunuum.

Die drei poissonschen Annahmen lauten:

  1. Innerhalb des Intervalls [w,w + Δw] gibt es höchstens ein Ereignis (Seltenheit).
  2. Die Wahrscheinlichkeit, ein Ereignis im Intervall zu finden, ist proportional zur Länge des Intervalls Δw (g ist konstant und damit auch unabhängig von w).
  3. Das Eintreten eines Ereignisses im Intervall Δw wird nicht beeinflusst von Ereignissen, die in der Vorgeschichte stattgefunden haben (Geschichtslosigkeit).

Mit Annahme 1 und 2 ist die Wahrscheinlichkeit, ein Ereignis im Intervall Δw zu finden, gegeben durch

P_1(\Delta w ) =  g \cdot  \Delta w,

sowie die Wahrscheinlichkeit eines leeren Intervalls durch

P_0(\Delta w ) = 1 - P_1(\Delta w ) = 1 - g \cdot  \Delta w.

Nach Annahme 3 ist die Wahrscheinlichkeit eines leeren Intervalls Δw unabhängig vom Auftreten irgendwelcher Ereignisse im Bereich w davor. So berechnet man die Wahrscheinlichkeit für kein Ereignis bis zum Punkt w + Δw zu

P_0(w + \Delta w ) = P_0(w) \cdot P_0(\Delta w)= P_0(w) - g \cdot  P_0(w) \cdot \Delta w.

Das ergibt näherungsweise die Differentialgleichung d P_0(w) / dw = - g \cdot P_0(w) mit der Lösung

P_0(w) = \mathrm{e}^{-g  \cdot w}

unter der Randbedingung P0(0) = 1. Ebenso findet man die Wahrscheinlichkeit für m Ereignisse bis zum Punkt w + Δw

P_m(w + \Delta w ) = P_m(w) \cdot P_0(\Delta w) + P_{m-1}(w) \cdot P_1(\Delta w) = P_m(w) - g \cdot  P_m(w) \cdot \Delta w + g \cdot  P_{m-1}(w) \cdot \Delta w.

Jedes drangehängte Intervall Δw darf nach Annahme 1 nur entweder kein oder ein Ereignis enthalten. Die entsprechende Differentialgleichung d P_m(w) / dw = - g \cdot P_m(w) + g \cdot P_{m-1}(w) hat die Lösung

P_m(w) = \frac{(g \cdot w)^m}{m!}\mathrm{e}^{-g  \cdot w}.

Identifiziert man nun in diesem Ausdruck für die Wahrscheinlichkeit des Eintretens von m Ereignissen im Kontinuumsbereich w die Parameter ( g \cdot w ) mit λ und m mit k, stimmt er mit der Formel der Poisson-Verteilung überein. Die Zahl λ ergibt sich in vielen Aufgabenstellungen als Produkt einer Rate (Anzahl von Ereignissen pro Einheitsintervall) und einem Vielfachen des Einheitsintervalls.

Eigenschaften

  • Die Poisson-Verteilung Pλ wird durch den Parameter λ vollständig charakterisiert.
  • Die Poisson-Verteilung ist stationär, d. h. nicht von der Zeit abhängig.
  • In einem Poisson-Prozess ist die zufällige Anzahl der Ereignisse bis zu einem bestimmten Zeitpunkt Poisson-verteilt, die zufällige Zeit bis zum n-ten Ereignis Erlang-verteilt. Wichtig ist der Spezialfall n = 0, der zur Exponentialverteilung führt. Sie beschreibt die Zeit bis zum ersten zufälligen Ereignis (sowie die Zeit zwischen zwei aufeinanderfolgenden Ereignissen) eines Poissonprozesses.

Einfache rekursive Berechnung

Zuerst bestimmt man Pλ(0) = e − λ, dann ergeben sich nacheinander P_\lambda(i)=\tfrac{\lambda}{i}\cdot P_\lambda (i-1), (i=1,2,3...). Mit wachsendem i werden dabei die Wahrscheinlichkeiten grösser, solange i < λ ist. Wird i > λ, schrumpfen sie.

Verteilungsfunktion

Die Verteilungsfunktion F(x) der Poisson-Verteilung lautet

F_{\lambda}(n)=\sum_{k=0}^n P_\lambda (k) = \mathrm{e}^{-\lambda} \sum_{k=0}^n \frac{\lambda^k}{k!} = Q(n+1,\lambda)

und gibt die Wahrscheinlichkeit dafür, höchstens n Ereignisse zu finden, wo man λ im Mittel erwartet. Q(a,x) ist die regularisierte Gammafunktion der unteren Grenze.

Erwartungswert, Varianz, Moment

λ ist zugleich Erwartungswert, Varianz und auch 3. zentriertes Moment \operatorname{E} \left( (X-\operatorname{E}(X))^3 \right) , denn

Erwartungswert

\operatorname{E}(X) =\sum_{k=0}^{\infty}k\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}
              =  \lambda\, \mathrm{e}^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}
              =  \lambda\, \mathrm{e}^{-\lambda}\sum_{j=0}^{\infty}\frac{\lambda^{j}}{j!} 
              = \lambda

Varianz


\begin{align}
\operatorname{Var}(X)&amp;amp;amp;= \sum_{k=0}^{\infty}(k-\lambda)^2\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}
= \sum_{k=0}^{\infty}(k^{2}-2k\lambda+\lambda^{2})\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}\\
&amp;amp;amp;= \sum_{k=0}^{\infty}k^{2}\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} -2\lambda^{2} +\lambda^{2}
= \sum_{k=0}^{\infty}(k(k-1)+k)\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} -\lambda^{2}\\
&amp;amp;amp;= \sum_{k=0}^{\infty} k(k-1) \frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} +\lambda -\lambda^{2}
 = \lambda^{2}\sum_{k=2}^{\infty}\frac{\lambda^{k-2}}{(k-2)!}\,\mathrm{e}^{-\lambda} +\lambda -\lambda^{2}
              = \lambda
\end{align}

Alternative Berechnung von Erwartungswert und Varianz

Seien X_1,\ldots,X_n\sim B\left(1,\frac{\lambda}{n}\right) unabhängige binomialverteilte Zufallsvariablen und sei X:=X_1+\dotsb+X_n. Für n\to\infty gilt X\sim\operatorname{Pois}(\lambda).

\begin{align}
\operatorname{E}(X)&amp;amp;amp;=\operatorname{E}(X_1)+\dotsb+\operatorname{E}(X_n)=\underbrace{\frac{\lambda}{n}+\dotsb+\frac{\lambda}{n}}_{n\, \mathrm{mal}}=\lambda\to\lambda\\
\operatorname{Var}(X)&amp;amp;amp;=\operatorname{Var}(X_1)+\dotsb+\operatorname{Var}(X_n)\\
&amp;amp;amp;=\underbrace{\frac{\lambda}{n}\left(1-\frac{\lambda}{n}\right)+\dotsb+\frac{\lambda}{n}\left(1-\frac{\lambda}{n}\right)}_{n\, \mathrm{mal}}=\lambda\left(1-\frac{\lambda}{n}\right)\to\lambda
\end{align}

Variationskoeffizient

Aus Erwartungswert und Varianz erhält man sofort den Variationskoeffizienten

\operatorname{VarK}(X) = \frac{1}{\sqrt{\lambda}}.

Schiefe und Wölbung

Die Schiefe ergibt sich zu

\operatorname{v}(X) = \frac{1}{\sqrt{\lambda}}.

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

\beta_2 = \frac{1}{\lambda}.

Charakteristische Funktion

Die charakteristische Funktion hat die Form

\phi_{X}(s) = \sum_{k=0}^{+\infty}\mathrm{e}^{iks}\frac{\lambda^{k}}{k!}\,\mathrm{e}^{-\lambda}
               = \mathrm{e}^{-\lambda} \sum_{k=0}^{+\infty} \frac{(\lambda\, \mathrm{e}^{is})^{k}}{k!}
               = \mathrm{e}^{-\lambda} \mathrm{e}^{\lambda\, \mathrm{e}^{is}}
               = \mathrm{e}^{\lambda(\mathrm{e}^{is}-1)}.

Erzeugende Funktion

Für die erzeugende Funktion erhält man

gX(s) = eλ(s − 1).

Momenterzeugende Funktion

Die momenterzeugende Funktion der Poisson-Verteilung ist

m_{X}(s) = \mathrm{e}^{\lambda(\mathrm{e}^{s}-1)}.

Reproduktivität

Die Poisson-Verteilung ist reproduktiv, d.h. die Summe X1 + X2 zweier stochastisch unabhängiger Poisson-verteilter Zufallsvariablen X1 und X2 mit den Parametern λ1 und λ2 ist wieder Poisson-verteilt mit dem Parameter λ1 + λ2. Denn es gilt:


\begin{align}
P(X_1+X_2=n)&amp;amp;amp;=\sum_{k=0}^n P(X_1=k) \, P(X_2=n-k)\\
&amp;amp;amp;=\sum_{k=0}^n \frac{\lambda_1^k}{k!}\, \mathrm{e}^{-\lambda_1} \, \frac{\lambda_2^{n-k}}{(n-k)!} \,\mathrm{e}^{-\lambda_2}\\
&amp;amp;amp;=\frac{1}{n!}\, \mathrm{e}^{-(\lambda_1+\lambda_2)} \, \sum_{k=0}^n \binom{n}{k} \lambda_1^k \, \lambda_2^{n-k}=\frac{(\lambda_1+\lambda_2)^n}{n!} \, \mathrm{e}^{-(\lambda_1+\lambda_2)}
\end{align}

Dies lässt sich auch auf mehrere stochastisch unabhängige poissonverteilte Zufallsvariablen X_i\sim\textrm{P}(\lambda_i)\, verallgemeinern. Hier ist X_1+\dotsb+X_n\sim\textrm{P}(\lambda_1+\dotsb+\lambda_n)\,.

Nach einem Satz des sowjetischen Mathematiker D. A. Raikow gilt auch die Umkehrung: Ist eine Poisson-verteilte Zufallsvariable X die Summe von zwei unabhängigen Zufallsvariablen X1 und X2, dann sind die Summanden X1 und X2 ebenfalls Poisson-verteilt. Eine Poisson-verteilte Zufallsvariable lässt sich also nur in Poisson-verteilte unabhängige Summanden zerlegen. Dieser Satz ist ein Analogon zu dem Satz von Cramér für die Normalverteilung.

Die Poisson-Verteilung ist unendlich teilbar.

Symmetrie

Die Poisson-Verteilung Pλ hat für kleine Mittelwerte λ eine stark asymmetrische Gestalt. Für größer werdende Mittelwerte wird Pλ symmetrischer und lässt sich für λ > 30 in guter Näherung durch die Gauß-Verteilung darstellen.

Beziehung zu anderen Verteilungen

Beziehung zur Binomialverteilung

Die Poisson-Verteilung lässt sich aus der Binomialverteilung \operatorname{B}(n;p) herleiten. Sie ist die Grenzverteilung der Binomialverteilung bei sehr kleinen Anteilen der interessierten Merkmale und sehr großem Stichprobenumfang: n\rightarrow\infty und p\rightarrow 0 unter der Nebenbedingung, dass das Produkt np = λ konstant ist. λ ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poisson-Verteilung der Erwartungswert.

Mit p=\frac{\lambda}{n} ist der Wert einer Poisson-verteilten Zufallsvariable an der Stelle k der Grenzwert

\lim_{n\to\infty} P(X=k) =\lim_{n\to\infty}{n! \over (n-k)!\,k!} \left({\lambda \over n}\right)^k \left(1-{\lambda\over n}\right)^{n-k}
=\lim_{n\to\infty} \left({{(n-k+1)\cdots(n-2)(n-1)n}\over {n^k}}\right) \left({{\lambda}^k \over k!}\right)\left(1-{\lambda \over n}\right)^n \left(1-{\lambda \over n}\right)^{-k}
={\lambda^k \over k!}\cdot \lim_{n\to\infty} \begin{matrix} \\ \underbrace{\left({n \over n}\cdot {n-1 \over n}\cdot {n-2 \over n}\cdots {n-k+1 \over n}\right)} \\ {\to 1}\end{matrix} \begin{matrix} \\ \cdot  \\ \quad\end{matrix} \begin{matrix} \\ \underbrace{\left(1-{\lambda \over n}\right)^n} \\ \to {\mathrm{e}^{-\lambda}}\end{matrix} \begin{matrix} \\ \underbrace{\left(1-{\lambda \over n}\right)^{-k}} \\ {\to 1} \end{matrix}
={\lambda^k \mathrm{e}^{-\lambda} \over k!}.

Beziehung zur Normalverteilung

Für große λ kann die Poisson-Verteilung durch die Gaußsche Normalverteilung mit μ = λ und σ2 = λ angenähert werden:

P_{\lambda}(X=k) \approx \frac {1}{\sqrt{2\pi\lambda}}\exp\left(-\frac{(k-\lambda)^2}{2\lambda}\right)

Beziehung zur Erlang-Verteilung

  • In einem Poisson-Prozess genügt die zufällige Anzahl der Ereignisse bis zu einem festgelegten Zeitpunkt der Poisson-Verteilung \operatorname{Poi}(\lambda,n). Die zufällige Zeit bis zum Eintreffen des n-ten Ereignis hingegen ist \operatorname{Erl}(\lambda,n) Erlang-verteilt. Im Fall n = 1 geht diese Erlang-Verteilung in eine Exponentialverteilung über \operatorname{Erl}(\lambda,1)=\operatorname{Exp}(\lambda). Man sagt auch, dass die Poisson-Verteilung und die Erlang-Verteilung zueinander konjugierte Verteilungen sind.
  • Für die Verteilungsfunktionen der Erlang-Verteilung und der Poisson-Verteilung gilt
FErlang(n + 1) + FPoisson(n) = 1.

Beziehung zur Exponentialverteilung

Die Zeit bis zum ersten zufälligen Ereignis sowie die Zeit zwischen zwei aufeinanderfolgenden Ereignissen eines Poisson-Prozesses mit dem Parameter λ ist \operatorname{Exp}(\lambda) exponentialverteilt.

Anwendungsbeispiele

Die Poisson-Verteilung ist eine typische Verteilung für die Zahl von Phänomenen, die innerhalb einer Einheit auftreten.

So wird sie häufig dazu benutzt, zeitliche Ereignisse zu beschreiben. Gegeben sind ein zufälliges Ereignis, das durchschnittlich einmal in einem zeitlichen Abstand t1 stattfindet, sowie ein zweiter Zeitraum t2, auf den dieses Ereignis bezogen werden soll.

Die Poissonverteilung Pλ(n) mit λ = t2 * 1 / t1 gibt die Wahrscheinlichkeit an, dass im Zeitraum t2 genau n Ereignisse stattfinden. Anders ausgedrückt ist λ die mittlere Auftretenshäufigkeit eines Ereignisses.

Kaufhauskunden

Ein Kaufhaus wird an einem Samstag durchschnittlich alle 10 Sekunden (t1) von einem Kunden betreten. Werden nun im Takt von einer Minute bzw. 60 Sekunden die Personen gezählt, so würde man im Mittel 6 Personen erwarten (λ = 6 Personen/Minute), die das Kaufhaus betreten. P6(n) gibt die Wahrscheinlichkeit dafür an, dass in der nächsten Minute (t2) genau n Kunden das Kaufhaus betreten.

Poisson-Verteilung mit λ=6.
P6(n)
n Wahrscheinlichkeit in % Summe in %
0 0,25 0,25
1 1,49 1,74
2 4,46 6,20
3 8,92 15,12
4 13,39 28,51
5 16,06 44,57
6 16,06 60,63
7 13,77 74,40
8 10,33 84,72
9 6,88 91,61
10 4,13 95,74
11 2,25 97,99
12 1,13 99,12
13 0,52 99,64
14 0,22 99,86
15 0,09 99,95

Mit einer Wahrscheinlichkeit von rund 4,5 % betreten genau 2 Personen in einer Minute das Kaufhaus. Mit einer Wahrscheinlichkeit von fast 92 % treten 0 bis 9 Personen (aufsummiert) ein. Die Wahrscheinlichkeit, dass mehr als 9 Personen in einer Minute eintreten, ist folglich 8 %.

Die Werte in der mittleren Spalte ergeben sich jeweils aus dem darüberliegenden Wert, multipliziert mit 6/n.

Radioaktiver Zerfall

In der Natur folgt zum Beispiel die zeitliche Abfolge radioaktiver Zerfälle einzelner Atome der Poisson-Statistik.

Blitzeinschläge

Die Blitzhäufigkeit in Deutschland beträgt 10 Einschläge pro km² = 0,1 Einschläge pro ha und Jahr. Wie groß ist die Wahrscheinlichkeit, dass es in einer Parzelle von 1 ha zu n Blitzeinschlägen in einem Jahr kommt?

λ = 0,1 Einschläge pro Hektar und Jahr.

P0,1(n = 0) (kein Einschlag im betrachteten Jahr): 90%
P0,1(n = 1) (ein Einschlag im betrachteten Jahr): 9%
P0,1(n = 2) (zwei Einschläge im betrachteten Jahr): 0,5%
P0,1(n = 3) (drei Einschläge im betrachteten Jahr): 0,02%

Statistisch ist es nicht verwunderlich, wenn ein Blitz innerhalb von 200 Jahren zweimal am gleichen Ort einschlägt, wobei es außerordentlich unwahrscheinlich ist, den Ort voraussagen zu können (Siehe hierzu auch Geburtstagsparadoxon).

Verstreute Reiskörner

Zufällig auf dem Boden verstreute Reiskörner.

Das Bild rechts zeigt N = 66 Reiskörner, die zufällig auf n = 49 Quadrate verteilt wurden. Die Felder enthalten k=0,\ldots,5 Reiskörner. Der Vergleich zwischen Experiment und berechneter Poissonverteilung P(X = k), wobei λ = N / n = 66 / 49 = 1,33 Reiskörner/Quadrate ist, zeigt eine gute Übereinstimmung:

k gezählt P(X=k)\cdot49

0

16

13

1

14

17

2

10

11

3

6

5

4

1

2

5

2

0,5

Die Wahrscheinlichkeit, dass ein bestimmtes Feld leer bleibt, ist etwas größer als 25%:

P(X=0)=\frac{1{,}33^0}{0!}\,\mathrm{e}^{-1{,}33} \approx 0{,}2645

Zufallszahlen

Zufallszahlen zur Poisson-Verteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Literatur

  • Erich Härtter: Wahrscheinlichkeitsrechnung für Wirtschafts- und Naturwissenschaftler. Vandenhoeck und Ruprecht, Göttingen 1974, ISBN 3-525-03114-9.
  • Frodesen, Skjeggestad, Tofte: Probabibility and Statistics in Particle Physics, Universitetsforlaget, Bergen - Oslo - Tromsö

Weblinks


Wikimedia Foundation.

Игры ⚽ Нужен реферат?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Poisson Verteilung — Die Poisson Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli Experiments entsteht. Letzteres ist ein Zufallsexperiment, das nur zwei mögliche Ergebnisse besitzt (z. B. „Erfolg“ und… …   Deutsch Wikipedia

  • Poisson-Verteilung — Wahrscheinlichkeitsfunktion der Poisson Verteilung für λ = 1 (blau), λ = 5 (grün) und λ = 10 (rot) Die Poisson Verteilung (benannt nach dem Mathematiker Siméon Denis Poisson) ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen… …   Deutsch Wikipedia

  • Statistik — Daten; Datenmaterial * * * Sta|tis|tik [ʃta tɪstɪk], die; , en: a) Wissenschaft von der zahlenmäßigen Erfassung, Untersuchung und Auswertung von Massenerscheinungen: vielen BWL Studierenden fällt Statistik schwer. b) schriftliche Zusammenstellung …   Universal-Lexikon

  • Poisson-Verteilung — I Poisson Verteilung   [pwa sɔ̃ ; nach S. D. Poisson], Grenzfall der Binomialverteilung B (n, p), bei der die Wahrscheinlichkeit p eines bestimmten Ereignisses sehr klein, die Anzahl n der unabhängigen Wiederholungen aber sehr groß ist (»Gesetz… …   Universal-Lexikon

  • Poisson-Gamma-Verteilung — Die Poisson Gamma Verteilung ist eine univariate Verteilung für diskrete Zufallsvariablen, die in der Bayesschen Statistik und in der Inferenztheorie eine wichtige Rolle spielt, da es sich um eine Mischverteilung handelt. Sie wird auch als… …   Deutsch Wikipedia

  • Boltzmann-Statistik — Die Boltzmann Statistik (auch: Gibbs Boltzmann Verteilung, nach Josiah Willard Gibbs und Ludwig Boltzmann) gibt die Wahrscheinlichkeit eines Zustandes eines Systems an, welches im thermodynamischen Gleichgewicht an ein Wärmebad der Temperatur T… …   Deutsch Wikipedia

  • Wahrscheinlichkeit und Statistik — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • David Poisson — Nation Frankreich  Frankreich Gebur …   Deutsch Wikipedia

  • Poissonverteilung — Die Poisson Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli Experiments entsteht. Letzteres ist ein Zufallsexperiment, das nur zwei mögliche Ergebnisse besitzt (z. B. „Erfolg“ und… …   Deutsch Wikipedia

  • Antibunching — Vergleich zwischen Super , Sub und Poisson Statistik bei einer Messung der zeitlichen Korrelation. Die gezeigten Linien entsprechen der Wahrscheinlichkeit einer Koinzidenz Messung zu einem Zeitpunkt der τ − Achse. Unter Antibunching wird das… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”