- Kontingenzkoeffizient
-
Der Kontingenzkoeffizient C (nach Karl Pearson) ist ein statistisches Zusammenhangsmaß. Der Pearsonsche Kontingenzkoeffizient drückt die Stärke des Zusammenhangs zwischen zwei (oder mehreren) nominalen oder ordinalen Variablen aus. Er basiert auf dem Vergleich von tatsächlich ermittelten Häufigkeiten zweier Merkmale mit den Häufigkeiten, die man bei Unabhängigkeit dieser Merkmale erwartet hätte.
Inhaltsverzeichnis
χ2-Koeffizient (Chi-Quadrat-Koeffizient)
Der χ2-Koeffizient (auch quadratische Kontingenz)[1], auf dem der Kontingenzkoeffizient beruht, ist ein Maß für die "Stärke" des Zusammenhangs der betrachteten Merkmale:
Die Aussagekraft des χ2-Koeffizienten ist gering, da seine Obergrenze, d.h. der Wert, den er bei vollkommener Abhängigkeit der betrachteten Merkmale annimmt, abhängig von der Größe (Dimension) der Kontingenztafel (d.h. von der Anzahl der Ausprägungen der Variablen) und der Größe der untersuchten Gesamtheit n ist. Eine Vergleichbarkeit von Werten des χ2-Koeffizienten über verschiedene Kontingenztabellen und Stichprobengrößen ist daher nicht gegeben.[1][2] Bei völliger Unabhängigkeit der Merkmale ist χ2 = 0.
Es gilt:[3]
mit die Anzahl der Zeilen und die Anzahl der Spalten der Kontingenztabelle
Verwendung
Die χ2-Größe wird benötigt, um den Kontingenzkoeffizienten C zu ermitteln. Auch bei statistischen Tests findet die χ2-Größe Verwendung (siehe Chi-Quadrat-Test).
Beispiel
Es sei folgende Kontingenztafel aus einer Befragung entstanden:
Limousine Kombi Summen Arbeiter 19 18 37 Angestellte 43 20 63 Summen 62 38 100 Berechnung des χ2-Koeffizienten:
Mittlere quadratische Kontingenz
Ein weiteres Maß, um die Stärke der Abhängigkeit der Merkmale in einer Kontingenztafel anzugeben, ist die mittlere quadratische Kontingenz, die im Wesentlichen eine Erweiterung des χ2-Koeffizienten darstellt:
Je größer dieses Maß ist, desto stärker ist der Zusammenhang zwischen den zwei analysierten Merkmalen. Sind die beiden Merkmale unabhängig, so wird jeder Summand durch den Zähler des Bruches zu 0, das Maß selbst damit auch. Im Falle einer (2x2)-Kontingenztafel ist das Maß normiert und nimmt Werte im Intervall [0,1] an.
Kontingenzkoeffizient nach Karl Pearson
χ2 kann grundsätzlich sehr große Werte annehmen und ist nicht auf das Intervall [0,1] beschränkt. Um die Abhängigkeit des Koeffizienten vom Stichprobenumfang auszuschalten, wird auf Basis des χ2 der Kontingenzkoeffizient C (auch CC oder K) nach Karl Pearson ermittelt:
- .
- mit n der Stichprobenumfang.
Dieser kann Werte im Intervall [0,1) annehmen. Problematisch ist, dass die obere Grenze des Kontingenzkoeffizienten C abhängig von der Anzahl der betrachteten Dimensionen ist:[4]
Es gilt , mit k = min( | I | , | J | ) das Minimum aus der Anzahl der möglichen Merkmalausprägungen der untersuchten Variablen.
Korrigierter Kontingenzkoeffizient
Um zusätzlich zum Einfluss des Stichprobenumfangs auch den Einfluss der Dimension der betrachteten Kontingenztafel (der Anzahl der Merkmalsausprägungen) auf die Obergrenze des Koeffizienten auszuschalten und damit die Vergleichbarkeit von Ergebnissen zu gewährleisten, wird der korrigierte Kontingenzkoeffizient Ckorr (häufig auch K * ) zur Messung des Zusammenhangs genutzt:
- ,
mit k wie oben.
Es gilt : Ein nahe 0 deutet dabei auf unabhängige Merkmale hin, ein nahe 1 auf ein hohes Maß an Abhängigkeit zwischen den Merkmalen.
Für das Beispiel ergibt sich ein korrigierter Kontingenzkoeffizient .
Cramérs V
Cramérs V (englisch auch: 'Cramér's V') ist ein Kontingenzkoeffizient, genauer ein χ2-basiertes Zusammenhangsmaß. Es ist benannt nach dem schwedischen Mathematiker und Statistiker Harald Cramér.
Cramérs V ist eine vom Stichprobenumfang unabhängige χ2-basierte Maßzahl. Cramérs V ist eine symmetrische Maßzahl für die Stärke des Zusammenhangs zwischen zwei oder mehr nominalskalierten Variablen, wenn (mindestens) eine der beiden Variablen mehr als zwei Ausprägungen hat. Bei einer 2x2-Tabelle entspricht Cramérs V dem Phi-Koeffizienten.
Vorgehen
- .
- n: Gesamtzahl der Fälle (Stichprobenumfang)
- min[r,c] ist der kleinere der beiden Werte "Zahl der Zeilen (rows)" und "Zahl der Spalten (columns)"
Interpretation
Cramérs V liegt bei jeder Kreuztabelle – unabhängig von der Anzahl der Zeilen und Spalten – zwischen 0 und 1. Er kann bei beliebig großen Kreuztabellen angewandt werden. Da Cramérs V immer positiv ist, kann keine Aussage über die Richtung des Zusammenhangs getroffen werden.
Das Effektstärkemaß w von Cohen ist definiert als:[5]
- .
Für Cohens w gelten konventionell der Wert 0,1 als klein, 0,3 als mittel und 0,5 als groß.
Phi-Koeffizient
Der Phi-Koeffizient (auch Vierfelder-Korrelationskoeffizient, Vierfelderkoeffizient)) (auch ) ist ein Maß für die Stärke des Zusammenhangs zweier dichotomer Merkmale.
Berechnung
Um die Vierfelderkorrelation zwischen zwei dichotomen Merkmalen A und B zu schätzen, stellt man zuerst eine Kontingenztafel auf, die die gemeinsame Häufigkeitsverteilung der Merkmale enthält.
A=0 A=1 Summe B=0 a b a+b B=1 c d c+d Summe a+c b+d a+b+c+d Mit den Daten aus der Tabelle kann man nach der Formel berechnen.[6]
Beispiele
Messen der Assoziation zwischen
- Zustimmung zu oder Ablehnung einer Politikentscheidung und dem Geschlecht,
- Vorführung bzw. Nichtvorführung eines Werbespots und Kauf oder Nichtkauf eines Produkts.
- Anwendung von auf eine Konfusionsmatrix mit zwei Klassen.
Hinweis
Zwischen und besteht der Zusammenhang bzw. , wobei die Anzahl der Beobachtungen bezeichnet. Damit ist die Quadratwurzel (das Vorzeichen spielt keine Rolle) aus der mittleren quadratischen Kontingenz (siehe oben).
Als Teststatistik verwendet ist unter der Annahme, dass gleich null ist, Chi²-verteilt mit einem Freiheitsgrad.
Literatur
- Bortz, J., Lienert, G.A. & Boehnke, K. (1990). Verteilungsfreie Methoden in der Biostatistik. Springer, Berlin (Kap. 8.1, S. 326 und S. 355ff).
- Diehl, J. M. / Kohr, H.U. (1999). Deskriptive Statistik. 12. Auflage. Klotz Eschborn, S.161.
- Zöfel, P. (2003). Statistik für Psychologen. Pearson Studium, München.
- Signifikanzprüfung für die Vierfelderkorrelation (PDF-Datei; 13 kB)
Weblinks
Einzelnachweise
- ↑ a b P.M. Schulze: Beschreibende Statistik. 6. Auflage. Oldenbourg, 2007, S. 125.
- ↑ W. Kohn: Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung. Springer, 2005, S. 115.
- ↑ W. Kohn: Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung. Springer, 2005, S. 114.
- ↑ H. Toutenburg, C. Heumann: Deskriptive Statistik: Eine Einführung in Methoden und Anwendungen mit R und SPSS. 6. Auflage. Springer, 2008, S. 115.
- ↑ Cohen, J. (1988): Statistical Power Analysis for the Behavioral Sciences, 2. Aufl., Hillsdale: Lawrence Erlbaum Associates. ISBN 978-0805802832
- ↑ Bernd Rönz, Hans Gerhard Strohe (Hrsg.): Lexikon Statistik. Gabler, Wiesbaden 1994, S. 25.
Wikimedia Foundation.