Unabhängigkeitsanalyse

Unabhängigkeitsanalyse

Die Unabhängigkeitsanalyse bzw. Independent Component Analysis (ICA) ist eine Methode der multivariaten Statistik. Sie dient der Berechnung unabhängiger Komponenten in einer Mischung statistisch unabhängiger Zufallsvariablen. Sie ist nahe verwandt mit dem Blind-Source-Separation-Problem (BSS).

Inhaltsverzeichnis

Problemstellung

Es wird davon ausgegangen, dass der Vektor \vec{s} aus n\! statistisch unabhängigen Zufallsvariablen besteht. Damit die ICA angewendet werden kann, darf maximal eine der Zufallsvariablen gauß-verteilt sein. Die Zufallsvariablen werden mit einer Mischmatrix A multipliziert. Der Einfachheit halber wird davon ausgegangen, dass diese Mischmatrix quadratisch ist. Das Resultat sind gemischte Zufallsvariablen im Vektor \vec{x}, welcher die gleiche Dimension besitzt wie \vec{s}.

\vec{x}=A\vec{s}

Das Ziel der ICA ist es, die unabhängigen Zufallsvariablen im Vektor \vec{y} möglichst originalgetreu zu rekonstruieren. Hierfür steht nur das Ergebnis der Mischung \vec{x} zur Verfügung und das Wissen, dass die Zufallsvariablen ursprünglich stochastisch unabhängig waren. Es ist eine geeignete Matrix B = A − 1 gesucht, so dass

\vec{y}=B\vec{x}.

Da weder die Mischmatrix noch die unabhängigen Zufallsvariablen bekannt sind, lassen sich diese nur mit Abstrichen rekonstruieren. Die Varianz und damit die Energie der unabhängigen Zufallsvariablen lässt sich nicht bestimmen, da die unabhängigen Zufallsvariablen \!s_i und der korrespondierende Spaltenvektor \vec{a}_i der Mischmatrix mit einer beliebigen Konstante \alpha_i\! so gewichtet werden können, dass sich die Skalierungen gegenseitig aufheben:

\vec{X}=\sum_i(\frac{1}{\alpha_i}\vec{a}_i)(s_i\alpha_i)

Zudem kann die Reihenfolge der Spaltenvektoren der Mischmatrix nicht rekonstruiert werden.

Problemlösung

In der Regel wird davon ausgegangen, dass die gemischten Zufallsvariablen mittelwertfrei sind. Ist dies nicht der Fall so kann dies durch Subtraktion des Mittelwerts erreicht werden.

Pre-Whitening

Das Pre-Whitening ist eine lineare Transformation, welche der Vorverarbeitung dient. Dazu wird eine Hauptkomponentenanalyse (PCA) durchgeführt. Das Ergebnis sind die Eigenwerte und die Eigenvektoren der Kovarianzmatrix der gemischten Zufallsvariablen. Die Eigenvektoren formen eine Drehmatrix \!R welche mit dem Vektor \vec{x} multipliziert wird. Die Eigenwerte \!e_i entsprechen der Varianz der jeweiligen Hauptkomponente. Ihre Kehrwerte werden zur Bildung der Diagonalmatrix \!D benutzt, so dass

\vec{z}=DR\vec{x}

, mit

D = \begin{pmatrix} e_1^{-1} &  &  & 0 \\  & . &  & \\  &  & . & \\ 0 &  &  & e_n^{-1} \end{pmatrix}.

Durch das Multiplizieren mit der Diagonalmatrix wird die Varianz der Hauptkomponenten auf 1 normiert.

Bestimmung der unabhängigen Komponenten

Durch das Pre-Whitening sind die Zufallsvariablen noch nicht stochastisch unabhängig, aber das Problem wurde auf die Suche nach einer orthogonalen Drehmatrix U reduziert:

\!y=Uz

Für die Suche nach U wird auf den Zentralen Grenzwertsatz zurückgegriffen. Dieser besagt, dass die Mischung normierter, zentrierter Zufallszahlen mit zunehmender Anzahl einer Normalverteilung ähnelt. Da die Zufallsvariablen in \!\vec{z} diese Voraussetzung erfüllen, muss es eine Drehmatrix U geben, die möglichst nicht normalverteilte Zufallszahlen in \!\vec{y} erzeugt. Für die konkrete Umsetzung dieser Suche gibt es verschiedene Lösungsansätze.

Kurtosis

Die Kurtosis ist ein Maß für die Abweichung von einer Normalverteilung. Sie ist definiert durch

\! kurt(X) = E(X^4)-3E(X^2)^2 = E(X^4)-3.

Da die Zufallsvariablen in ihrer Varianz normiert sind, wird E(X2) gleich Eins. Die Kurtosis wird Null, wenn die Verteilung gauß-ähnlich ist. Ist die Kurtosis negativ, so ähnelt sie zunehmend einer Gleichverteilung. Ist sie positiv, so ist die Verteilung eher eine Laplace-Verteilung. Die Kurtosis muss demnach maximiert bzw. minimiert werden, um sich von einer Normalverteilung zu entfernen. Hierzu werden Gradientenverfahren verwendet, zum Beispiel in Anlehnung an die Lernregel von Oja.

Negentropie

Ein weiterer Ansatz ist die Maximierung der Negentropie.

\! J(X) = H(X_{Gauss})-H(X) \geq 0

Wobei XGauss in Hinsicht auf Varianz und Mittelwert der Verteilung von X entspricht. Da diese jedoch schwer zu bestimmen ist, verwendet man hier meist eine Näherung.

Fast ICA

Fast ICA ist ein Fixpunktalgorithmus, welcher das Problem über ein Newton-Verfahren löst.

Literatur

  • Pierre Comon: Independent Component Analysis: a new concept?. In: Signal Processing Vol. 36, Nr. 3, 1994, ISSN 0165-1684, S. 287-314
  • Aapo Hyvärinen, Juha Karhunen, Erkki Oja: Independent Component Analysis. John Wiley & Sons Inc., New York 2001, ISBN 978-0-471-40540-5

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Motivation — Der Begriff Motivation bezeichnet das auf emotionaler bzw. neuronaler Aktivität (Aktivierung) beruhende Streben nach Zielen oder wünschenswerten Zielobjekten und ist somit eine Art Triebkraft für Verhalten.[1] Inhaltsverzeichnis 1 Geschichte 2… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”