Rangkorrelationskoeffizient

Rangkorrelationskoeffizient

Ein Rangkorrelationskoeffizient ist ein parameterfreies Maß für Korrelationen, das heißt, er misst, wie gut eine beliebige monotone Funktion den Zusammenhang zwischen zwei Variablen beschreiben kann, ohne irgendwelche Annahmen über die Wahrscheinlichkeitsverteilung der Variablen zu machen.

Anders als Pearsons Korrelationskoeffizient benötigt er nicht die Annahme, dass die Beziehung zwischen den Variablen linear ist. Der Rangkorrelationskoeffizient ist robust gegenüber Ausreißern.

Es gibt zwei bekannte Rangkorrelationskoeffizienten: Spearmans Rangkorrelationskoeffizient (Spearmans Rho) und Kendalls Tau. Während Spearmans Rho von einer Gleichabständigkeit (= Äquidistanz) der Skalenwerte/Ränge ausgeht, basiert Tau rein auf ordinaler Information. Das ist z. B. bei den oft genutzten Likert-Skalen von Bedeutung. Zur Ermittlung der Übereinstimmung zwischen mehreren Beobachtern (Interrater-Reliabilität) auf Ordinalskalenniveau wird dagegen auf den mit den Rangkorrelationskoeffizienten verwandten Konkordanzkoeffizient W nach Kendall zurückgegriffen.

Inhaltsverzeichnis

Konzept

Wir beginnen mit N Paaren von Messungen (xi,yi). Das Konzept der nichtparametrischen Korrelation besteht darin, den Wert xi einer jeden Messung durch den Rang relativ zu allen anderen xj in der Messung zu ersetzen, also 1,2,3,...,N. Nach dieser Operation stammen die Werte von einer wohlbekannten Verteilung, nämlich einer Gleichverteilung von Zahlen zwischen 1 bis N. Falls die xi alle unterschiedlich sind, kommt jede Zahl genau einmal vor. Falls manche xi identische Werte haben, wird ihnen der Mittelwert der Ränge zugewiesen, die sie erhalten hätten, wenn sie leicht unterschiedlich gewesen wären. In diesem Fall wird von Bindungen oder Ties gesprochen.[1] Dieser gemittelte Rang ist manchmal eine ganze Zahl, manchmal ein „halber“ Rang. In allen Fällen ist die Summe aller zugewiesener Ränge gleich der Summe aller Zahlen von 1 bis N, nämlich N(N + 1) / 2.

Anschließend wird genau dieselbe Prozedur mit den yi durchgeführt und jeder Wert durch seinen Rang unter allen yj ersetzt.

Durch das Ersetzen der Originalwerte in Ränge geht Information verloren. Die Anwendung bei intervallskalierten Daten kann aber dennoch sinnvoll sein, da eine nichtparametrische Korrelation robuster ist als die lineare Korrelation, widerstandsfähiger gegen ungeplante Fehler und Ausreißerwerte in den Daten, genau wie der Median robuster ist als der Mittelwert. Liegen als Daten nur Rangreihen, also Daten auf Ordinalniveau vor, gibt es zudem keine Alternative zu Rangkorrelationen.

Spearmans Rangkorrelationskoeffizient

Spearmans Rangkorrelationskoeffizient ist benannt nach Charles Spearman und wird oft mit dem griechischen Buchstaben ρ (rho) oder – in Abgrenzung zum Pearson’schen Produkt-Moment-Korrelationskoeffizienten als rs bezeichnet.

Im Prinzip ist ρ ein Spezialfall von Pearsons Produkt-Moment-Korrelationskoeffizient, bei dem die Daten in Ränge konvertiert werden, bevor der Korrelationskoeffizient berechnet wird:

 r_s = \frac{\sum_{i}(rg(x_i)-\overline{rg}_x)(rg(y_i)-\overline{rg}_y)} {\sqrt{\sum_{i}(rg(x_i)-\overline{rg}_x) ^2}\sqrt{\sum_{i}(rg(y_i)-\overline{rg}_y)^2}} = \frac { \frac{1}{n} \sum_{i}(rg(x_{i})  rg(y_{i})) - \overline{rg_x rg_y}   }  {s_{rg_x} s_{rg_y}} = \frac {Cov(rg_{x},rg_{y} )} { s_{rg_x} s_{rg_y} }
.

mit:

rg(xi) = der Rang von xi,
\overline{rg}_x = der Mittelwert der Ränge von x,
s_{rg_x} = die Standardabweichung der Ränge von x
Cov(rg(x),rg(y)) = die Kovarianz von rg(x) und rg(y)

In der Praxis wird meistens eine einfachere Formel zur Berechnung von ρ benutzt, die aber nur korrekt ist, wenn alle Ränge genau ein mal vorkommen.

Die Rohdaten werden in Ränge konvertiert und die Differenz di zwischen den Rängen beider Variablen werden für jede Beobachtung berechnet. ρ ist dann gegeben durch:


r_s = 1 - \frac{6 \sum_{i} d_i^2} { n \cdot (n^2 - 1)} \qquad \text{mit} \quad d_i = rg(x_i)-rg(y_i)
,

mit:

d = die Differenz zwischen den Rängen von x und y einer Beobachtung und
n = Anzahl der Wertepaare.

Sind alle Ränge verschieden, ergibt diese einfache Formel exakt dasselbe Ergebnis.

Bei Bindungen

Die Formel wird etwas komplizierter, wenn identische Werte für X oder Y (also Bindungen) existieren, aber solange nicht sehr viele Werte identisch sind, ergeben sich nur kleine Abweichungen:[2]

r_s = \frac{2*\frac{n^3-n}{12}-T_x-T_y-\sum_{i} d_i^2}{2\sqrt{\left(\frac{n^3-n}{12}-T_x\right)\left(\frac{n^3-n}{12}-T_y\right)}}

mit T_{\bullet} = \sum_k (t_{\bullet,k}^3- t_{\bullet,k})/12. Dabei ist t_{\bullet,k} die Anzahl der Beobachtungen mit gleichem Rang; einmal für die X Variable und einmal für die Y Variable.

Beispiele

Beispiel 1

Als Beispiel sollen Größe und Körpergewicht verschiedener Menschen untersucht werden. Die Paare von Messwerten seien 175 cm, 178 cm und 190 cm und 65 kg, 70 kg und 98 kg.

In diesem Beispiel besteht die maximale Rangkorrelation: Die Datenreihe der Körpergröße wird nach Rang geordnet, und die Rangzahlen der Körpergrößen entspricht auch den Rangzahlen der Körpergewichte. Eine niedrige Rangkorrelation herrscht, wenn etwa die Körpergröße im Verlauf der Datenreihe größer wird, das Gewicht jedoch abnimmt. Dann kann man nicht „Der schwerste Mensch ist der größte“ sagen. Der Rangkorrelationskoeffizient ist der zahlenmäßige Ausdruck des Zusammenhanges zweier Rangordnungen.

Beispiel 2

Gegeben sind acht Beobachtungen zweier Variablen a und b:

i 1 2 3 4 5 6 7 8
ai 2,0 3,0 3,0 5,0 5,5 8,0 10,0 10,0
bi 1,5 1,5 4,0 3,0 1,0 5,0 5,0 9,5


Das Ermitteln des Rangs für die Beobachtungen von b im Detail, zunächst wird nach dem Wert sortiert, dann wird der Rang vergeben (d.h. neu durchnummeriert) und normiert, d.h. bei gleichen Werten, wird der Mittelwert gebildet. Zuletzt wird die Eingangsreihenfolge wiederhergestellt, damit dann die Differenzen der Ränge gebildet werden können.

Eingang Sort(Wert) Rang ermitteln Sort(Index)

\begin{array}{c|c}
  Index & Wert\\
\hline
  1  & 1,5 \\
  2  & 1,5 \\
  3  & 4,0 \\
  4  & 3,0 \\
  5  & 1,0 \\
  6  & 5,0 \\
  7  & 5,0 \\
  8  & 9,5 \\
\end{array}

\begin{array}{c|c}
  Index & Wert\\
\hline
  5  & 1,0 \\
  1  & 1,5 \\
  2  & 1,5 \\
  4  & 3,0 \\
  3  & 4,0 \\
  6  & 5,0 \\
  7  & 5,0 \\
  8  & 9,5 \\
\end{array}

\begin{array}{c|c|c||c}
  Index & Wert & Rang & Normiert\\
\hline
  5  & 1,0 & 1 & 1\\
\hline
  1  & 1,5 & 2 & (2+3)/2 \\
  2  & 1,5 & 3 &  =2,5 \\
\hline
  4  & 3,0 & 4 & 4\\
\hline
  3  & 4,0 & 5 & 5\\
\hline
  6  & 5,0 & 6 & (6+7)/2\\
  7  & 5,0 & 7 &  =6,5\\
\hline
  8  & 9,5 & 8 &  8\\
\end{array}

\begin{array}{c|c|c}
  Index & Wert & Rang Normiert\\
\hline
  1  & 1,5 & 2,5 \\
  2  & 1,5 & 2,5 \\
  3  & 4,0 & 5,0 \\
  4  & 3,0 & 4,0 \\
  5  & 1,0 & 1,0 \\
  6  & 5,0 & 6,5 \\
  7  & 5,0 & 6,5 \\
  8  & 9,5 & 8,0 \\
\end{array}

Aus den zwei Datenreihen a und b ergibt sich folgende Zwischenrechnung:

Werte von a Werte von b Rang von a Rang von b d = Rg(a) − Rg(b) (Rg(a) − Rg(b))2
2,0 1,5 1,0 2,5 −1,5 2,25
3,0 1,5 2,5 2,5 0,0 0,00
3,0 4,0 2,5 5,0 −2,5 6,25
5,0 3,0 4,0 4,0 0,0 0,00
5,5 1,0 5,0 1,0 4,0 16,00
8,0 5,0 6,0 6,5 −0,5 0,25
10,0 5,0 7,5 6,5 1,0 1,00
10,0 9,5 7,5 8,0 −0,5 0,25
        \sum = 26

Die Tabelle ist nach der Variablen a geordnet. Wichtig ist, dass sich Einzelwerte einen Rang teilen können. In der Reihe a gibt es zweimal „3“, und sie haben jeweils den „durchschnittlichen“ Rang (2+3)/2 = 2.5. Dasselbe geschieht bei der Reihe b.


r_s = 1 - \frac{6 \sum_{i} d_i^2} { n \cdot (n^2 - 1)} \qquad \text{mit} \quad d_i = rg(a_i)-rg(b_i) \text{ aus der Tabelle},n=\text{Anzahl der Elemente}

r_s = 1- \frac{6*26}{8*(8^2-1)} \approx 0,69

Je kleiner die Summe der Rangdifferenzquadrate, desto größer ist die Rangkorrelation nach Spearman. Die Signifikanz wird durch den Vergleich des Ergebnis mit tabellierten kritischen Werten festgestellt.

Beispiel 2 mit Korrektur nach Horn

Werte von a Werte von b ta,k t_{a,k}^3-t_{a,k} tb,k t_{b,k}^3-t_{b,k}
2,0 1,5 1 0 2 6
3,0 1,5 2 6 - -
3,0 4,0 - - 1 0
5,0 3,0 1 0 1 0
5,5 1,0 1 0 1 0
8,0 5,0 1 0 2 6
10,0 5,0 2 6 - -
10,0 9,5 - - 1 0
    Ta = 1 Tb = 1

und es ergibt sich

r_s = \frac{2 \frac{8^3-8}{12} - 1 - 1 - 26}{2\sqrt{\left(\frac{8^3-8}{12}-1\right)\left(\frac{8^3-8}{12}-1\right)}} = \frac{56}{82} = 0,6829.

Bestimmung der Signifikanz

Der moderne Ansatz für den Test, ob der beobachtete Wert von ρ sich signifikant von null unterscheidet führt zu einem Permutationstest. Dabei wird die Wahrscheinlichkeit berechnet, dass ρ für die Nullhypothese größer oder gleich dem beobachteten ρ ist.

Dieser Ansatz ist traditionellen Methoden überlegen, wenn der Datensatz nicht zu groß ist, um alle notwendigen Permutationen zu erzeugen, und weiterhin, wenn nicht klar ist, wie man für die gegebene Anwendung sinnvolle Permutationen für die Null-Hypothese erzeugt (was aber normalerweise recht einfach ist).

Kendalls Tau

Im Gegensatz zu Spearmans ρ nutzt Kendalls τ nur den Unterschied in den Rängen und nicht die Differenz der Ränge. Der Vorteil hierbei ist das keine gleicher Abstand zwischen benachbarten Rängen unterstellt wird. In der Regel ist der Wert von Kendalls τ etwas kleiner als der Wert von Spearmans ρ. Speziell empfohlen wird τ, wenn die Daten nicht normal verteilt sind, die Skalen ungleiche Teilungen aufweisen oder bei sehr kleinen Stichprobengrößen.

Berechnung

Um τ zu berechnen, betrachten wir Paare nach x sortierterte Beobachtungen (xi,yi) und (xj,yj) mit i = 1,...,n und j=i,\ldots,n. Es gilt also:

x_1\leq x_2 \leq \ldots \leq x_n.

Dann wird das Paar 1 mit allen folgenden Paaren (2,3,\ldots,n) verglichen, das Paar 2 mit allen folgenden Paaren (3,\ldots,n), usw. Es werden also insgesamt n(n − 1) / 2 Paarvergleiche durchgeführt. Gilt für ein Paar:

  • xi < xj und yi < yj, so heisst es konkordant oder übereinstimmend,
  • xi < xj und yi > yj, so heisst es diskonkordant oder uneinig,
  • xi < xj und yi = yj, so ist es ein Bindung in Y,
  • xi = xj und y_i\neq y_j, so ist es ein Bindung in X und
  • xi = xj und yi = yj, so ist es ein Bindung in X und Y.

Die Anzahl der Paare, die

  • konkordant oder übereinstimmend sind, wird mit C,
  • diskonkordant oder uneinig sind. wird mit C,
  • die Bindungen in Y sind, wird mit TY,
  • die Bindungen in X sind, wird mit TX und
  • die Bindungen in X und Y sind, wird mit TXY bezeichnet.

Kendalls τ Werte vergleicht nun die Zahl der konkordanten und der diskonkordanten Paare:

\tau = \frac{C-D}{\sqrt{(C+D+T_X)\cdot (C+D+T_Y)}}

Ist Kendalls τ positiv, so gibt es mehr konkordante Paare als diskonkordante, d.h. im Allgemeinen gilt wenn x_i\leq x_j dann folgt auch y_i\leq y_j, Ist Kendalls τ negativ, so gibt es mehr diskordante Paare als konkonkordante, d.h. im Allgemeinen gilt wenn x_i\leq x_j dann folgt auch y_i\geq y_j. Der Wert \sqrt{(C+D+T_X)\cdot (C+D+T_Y)} normiert Kendalls τ, so dass gilt:

-1\leq \tau\leq +1.

Test von Kendalls τ

Betrachtet man die Zufallsvariable Τ, so hat Kendall herausgefunden, dass für den Test

H0:τ = 0 vs. H_1:\tau\neq 0

diese unter Nullhypothese approximativ normalverteilt ist: \Tau\approx N\left(0; \frac{4n+10}{9n(n-1)}\right). Neben der approxmativen Test kann auch ein exakter Permutationstest durchgeführt werden.

Weitere τ Koeffizienten

Mit den obigen Definitionen hatte Kendall insgesamt drei τ Koeffizienten definiert:

Kendalls \tau_a = \frac{C-D}{n(n-1)/2}
Kendalls \tau_b = \frac{C-D}{\sqrt{C+D+T_x}\sqrt{C+D+T_y}} (siehe oben)
Kendalls \tau_c = \frac{2m(C-D)}{(m-1)n^2}

Kendalls τa kann nur auf Daten ohne Bindungen angewandt werden. Kendalls τb erreicht auf nicht quadratischen Kontingenztabellen nicht die Extremwerte + 1 bzw. − 1 und berücksichtigt, da Txy nicht einfliesst, keine Bindungen in X und Y. Bei Vierfeldertafeln ist τb mit dem Vierfelderkoeffizienten Φ (Phi) und, wenn die Ausprägungen der beiden dichotomen Variablen jeweils mit 0 und 1 kodiert sind, auch mit Pearsons r identisch.

Tetra- und polychorische Korrelation

Im Zusammenhang mit Likert-Skalen wird oft auch die tetra- (bei zwei binären Variablen) oder polychorische Korrelation berechnet. Dabei geht man davon aus, dass z.B bei einer Frage mit der Antwortform (Trifft überhaupt nicht zu, ..., Trifft vollständig zu) die Befragten eigentlich in einem metrischen Sinn geantwortet hätten, aber aufgrund der Antwortform sich für eine der Alternativen entscheiden mussten.

D.h. hinter den beobachteten Variablen X_i\,, die ordinal sind, stehen also unbeobachtete intervallskalierte Variablen X_i^*. Die Korrelation zwischen den unbeobachteten Variablen heißt tetra- oder polychorische Korrelation.

Die Anwendung der tetra- bzw. polychorischen Korrelation bei Likert-Skalen empfiehlt sich, wenn die Zahl der Kategorien bei den beobachteten Variablen kleiner als sieben ist.[3] In der Praxis wird stattdessen oft der Bravais-Pearson-Korrelationskoeffizient zu Berechnung der Korrelation benutzt, jedoch kann man zeigen, dass damit die wahre Korrelation unterschätzt wird. [4]

Schätzverfahren für die tetra- oder polychorische Korrelation

Unter der Annahme, dass die unbeobachteten Variablen X_i^* paarweise bivariate normal verteilt sind, kann man mit Hilfe der Maximum-Likelihood-Methode die Korrelation zwischen den unbeobachteten Variablen schätzen. Dafür gibt es zwei Verfahren:

  1. Man schätzt zuerst die Intervallgrenzen für jede Kategorie für jede unbeobachtete Variable X_i^* (unter Annahme der univariaten Normalverteilung für die jeweilige unbeobachtete Variable). Danach wird in einem zweiten Schritt die Korrelation mit den zuvor geschätzten Intervallgrenzen nur noch die Korrelation mit der Maximum-Likelihood-Methode geschätzt (twostep Methode).
  2. Sowohl die unbekannten Intervallgrenzen als auch die unbekannte Korrelation gehen als Parameter in die Maximum-Likelihood-Funktion ein. Sie werden dann in einem Schritt geschätzt.

Approximationsformel für die tetrachorische Korrelation

X1\X2 0 1
0 n00 n10
1 n01 n11

Für zwei binäre Variablen kann mit Hilfe der Kreuztabelle rechts eine Näherungsformel für die tetrachorische Korrelation angegeben werden:

r_{tet} = \cos\left( \frac{\pi} {1+\sqrt{\frac{n_{00}n_{11}}{n_{01}n_{10}}}}\right)

Eine Korrelation von rtet = − 1 liegt genau dann vor, wenn n00 = n11 = 0. Entsprechend liegt eine Korrelation von rtet = + 1 genau dann vor, wenn n01 = n10 = 0.

Einzelnachweise

  1. Vgl. Fahmeir et al. (2004):Statistik, S. 142
  2. Horn, D. (1942), A correction for the effect of tied ranks on the value of the rank difference correlation coefficient. Educational and Psychological Measurement, 3, 686-690.
  3. D.J. Bartholomew, F. Steele , J. I. Galbraith, I. Moustaki (2002), The Analysis and Interpretation of Multivariate Data for Social Scientists, Chapman & Hall/CRC
  4. K.G. Jöreskog, D. Sorbom (1988) PRELIS, a program for multivariate data screening and data summarization. Scientific Software, Mooresville

Wikimedia Foundation.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Kendall's Tau — Ein Rangkorrelationskoeffizient ist ein parameterfreies Maß für Korrelationen, das heißt, er misst, wie gut eine beliebige monotone Funktion den Zusammenhang zwischen zwei Variablen beschreiben kann, ohne irgendwelche Annahmen über die… …   Deutsch Wikipedia

  • Kendalls Tau — Ein Rangkorrelationskoeffizient ist ein parameterfreies Maß für Korrelationen, das heißt, er misst, wie gut eine beliebige monotone Funktion den Zusammenhang zwischen zwei Variablen beschreiben kann, ohne irgendwelche Annahmen über die… …   Deutsch Wikipedia

  • Rangkorrelation nach Spearman — Ein Rangkorrelationskoeffizient ist ein parameterfreies Maß für Korrelationen, das heißt, er misst, wie gut eine beliebige monotone Funktion den Zusammenhang zwischen zwei Variablen beschreiben kann, ohne irgendwelche Annahmen über die… …   Deutsch Wikipedia

  • Kontingenz (Statistik) — Messniveau Zusammenhangsmaß Standardisiertes Zusammenhangsmaß Nominale Merkmale Chi Quadrat Cramers V Ordinale Merkmale Kovarianz für Rangplätze Spearmans Korrelationskoeffizient Metrische Merkmale Kovarianz Korrelationskoeffizient Ein… …   Deutsch Wikipedia

  • Partialkorrelation — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… …   Deutsch Wikipedia

  • Pearson-Koeffizient — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… …   Deutsch Wikipedia

  • Pearson-Korrelationskoeffizient — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… …   Deutsch Wikipedia

  • Zusammenhangsmaße — Messniveau Zusammenhangsmaß Standardisiertes Zusammenhangsmaß Nominale Merkmale Chi Quadrat Cramers V Ordinale Merkmale Kovarianz für Rangplätze Spearmans Korrelationskoeffizient Metrische Merkmale Kovarianz Korrelationskoeffizient Ein… …   Deutsch Wikipedia

  • Fleiss' Kappa — Cohens Kappa ist ein statistisches Maß für die Interrater Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Die Gleichung für Cohens Kappa lautet wobei p0 der gemessene… …   Deutsch Wikipedia

  • Fleiss' kappa — Cohens Kappa ist ein statistisches Maß für die Interrater Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Die Gleichung für Cohens Kappa lautet wobei p0 der gemessene… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”