Kolmogorow-Smirnow-Test

Der Kolmogorow-Smirnow-Test (KS-Test) (nach Andrei Nikolajewitsch Kolmogorow und Nikolai Wassiljewitsch Smirnow) ist ein statistischer Test auf Übereinstimmung zweier Wahrscheinlichkeitsverteilungen.

Mit seiner Hilfe kann anhand von Zufallsstichproben geprüft werden, ob

  • zwei Zufallsvariablen eine identische Verteilung besitzen oder
  • eine Zufallsvariable einer zuvor angenommenen Wahrscheinlichkeitsverteilung folgt.

Im Rahmen des letzteren (Einstichproben-)Anwendungsproblems spricht man auch vom Kolmogorow-Smirnow-Anpassungstest (KSA-Test). Einige (parametrische) statistische Verfahren setzen voraus, dass die untersuchten Variablen in der Grundgesamtheit normalverteilt sind. Der KSA-Test kann genutzt werden, um zu testen, ob diese Annahme verworfen werden muss oder (unter Beachtung des β {\displaystyle \beta \,} -Fehlers) beibehalten werden kann.

Konzeption

Darstellung des Kolmogorow-Smirnow-Anpassungstest. Die rote Linie ist die Verteilungsfunktion der Nullhypothese, die blaue Linie ist die empirische Verteilungsfunktion der beobachteten Werte und der schwarze Pfeil illustriert den Wert d n {\displaystyle d_{n}} der Teststatistik D n {\displaystyle D_{n}} .

Das Konzept wird anhand des Kolmogorow-Smirnow-Anpassungstest erläutert, wobei der Vergleich zweier Merkmale analog ist. Man betrachtet ein statistisches Merkmal X {\displaystyle X} , dessen Verteilung in der Grundgesamtheit unbekannt ist und die eine stetige Verteilungsfunktion F X {\displaystyle F_{X}} besitzt. Die zweiseitig formulierten Hypothesen lauten dann:

Nullhypothese: H 0 : F X = F 0 {\displaystyle H_{0}\colon F_{X}=F_{0}}

Alternativhypothese: H 1 : F X F 0 {\displaystyle H_{1}\colon F_{X}\neq F_{0}}

Die Nullhypothese postuliert also, dass die Zufallsvariable X {\displaystyle X} die Verteilungsfunktion F 0 {\displaystyle F_{0}} besitzt, während die Alternativhypothese besagt, dass X {\displaystyle X} eine andere Verteilungsfunktion besitzt.

Es liegen n {\displaystyle n} beobachtete Werte x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} als Realisierungen von stochastisch unabhängigen und identisch verteilten Zufallsvariablen X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} vor, die jeweils dieselbe stetige Verteilungsfunktion F X {\displaystyle F_{X}} haben. Der Kolmogorow-Smirnow-Anpassungstest basiert auf der Abweichung der zufälligen empirischen Verteilungsfunktion

F ~ n ( x ) = 1 n i = 1 n 1 ( , x ] ( X i ) , x R {\displaystyle {\tilde {F}}_{n}(x)={\frac {1}{n}}\sum _{i=1}^{n}\mathbf {1} _{(-\infty ,x]}(X_{i}),\quad x\in \mathbb {R} }

von der durch die Nullhypothese behaupteten Verteilungsfunktion F 0 {\displaystyle F_{0}} . Dazu wird die Teststatistik

D n = sup x R | F ~ n ( x ) F 0 ( x ) | {\displaystyle D_{n}=\sup _{x\in \mathbb {R} }|{\tilde {F}}_{n}(x)-F_{0}(x)|}

gebildet, wobei sup das Supremum bezeichnet. (Das Supremum anstelle des Maximums ist erforderlich, da der größte Abstand an einer Sprungstelle der empirischen Verteilungsfunktion auftreten kann, wobei der linksseitige Grenzwert der empirischen Verteilungsfunktion an der Sprungstelle zum größten Abstand führen kann, der durch Maximum nicht erreicht würde. Mithilfe der Supremumsnorm {\displaystyle \|\cdot \|} kann die Teststatistik in der Form D n = F ~ n F 0 {\displaystyle D_{n}=\|{\tilde {F}}_{n}-F_{0}\|} geschrieben werden.) D n {\displaystyle D_{n}} ist eine Zufallsvariable mit einer Wahrscheinlichkeitsverteilung, die im Allgemeinen von F X {\displaystyle F_{X}} und von F 0 {\displaystyle F_{0}} abhängt. Wenn die Nullhypothese richtig ist, hängt die Wahrscheinlichkeitsverteilung von D n {\displaystyle D_{n}} nur von F 0 {\displaystyle F_{0}} ab. Falls zusätzlich die Verteilungsfunktion F 0 {\displaystyle F_{0}} stetig ist, hängt die Wahrscheinlichkeitsverteilung von D n {\displaystyle D_{n}} nicht von F 0 {\displaystyle F_{0}} ab. Die Teststatistik D n {\displaystyle D_{n}} ist dann eine verteilungsfreie Statistik bezüglich der Klasse aller Wahrscheinlichkeitsverteilungen mit stetiger Verteilungsfunktion.

Testdurchführung

Aus den beobachteten Werten ergibt sich eine konkrete empirische Verteilungsfunktion

F n ( x ) = 1 n i = 1 n 1 ( , x ] ( x i ) , x R {\displaystyle F_{n}(x)={\frac {1}{n}}\sum _{i=1}^{n}\mathbf {1} _{(-\infty ,x]}(x_{i}),\quad x\in \mathbb {R} }

und mit dieser ein realisierter Wert d n {\displaystyle d_{n}} der Teststatistik D n {\displaystyle D_{n}} . Bei einer Verletzung der Nullhypothese rechnet man mit eher größeren Werten der Teststatistik als bei Richtigkeit der Nullhypothese. Daher wird die Nullhypothese für große Werte von d n {\displaystyle d_{n}} abgelehnt. Genauer wird zu vorgegebenem Signifikanzniveau α {\displaystyle \alpha } die Nullhypothese zugunsten der Alternativhypothese abgelehnt, falls der Wert d n {\displaystyle d_{n}} größer als das ( 1 α ) {\displaystyle (1-\alpha )} -Quantil der Verteilung von D n {\displaystyle D_{n}} ist. Das benötigte ( 1 α ) {\displaystyle (1-\alpha )} -Quantil kann numerisch ermittelt oder aus Tabellen abgelesen werden.

Anstelle der Teststatistik D n {\displaystyle D_{n}} wird auch die Teststatistik K n = n D n {\displaystyle K_{n}={\sqrt {n}}D_{n}} verwendet. Dies ist eine mögliche Fehlerquelle bei der Testdurchführung, da in der Literatur sowohl Tabellen mit Quantilen der Verteilung von D n {\displaystyle D_{n}} als auch von K n {\displaystyle K_{n}} vorliegen.

Asymptotik und approximativer Test

Wenn die Nullhypothese richtig ist, konvergiert D n {\displaystyle D_{n}} für über alle Grenzen wachsenden Stichprobenumfang fast sicher gegen Null (Satz von Gliwenko-Cantelli). Dagegen konvergiert die modifizierte Teststatistik

K n = n D n {\displaystyle K_{n}={\sqrt {n}}D_{n}}

für wachsenden Stichprobenumfang gegen die so genannte Kolmogorow-Verteilung, die von Kolmogorow im Jahr 1933 veröffentlicht wurde.[1] Für hinreichend große Stichprobenumfänge kann die Kolomogorow-Verteilung als Approximation der Verteilung von K n {\displaystyle K_{n}} verwendet werden. Wenn man nun den Test mit Hilfe der ( 1 α ) {\displaystyle (1-\alpha )} -Quantile der Kolmogorow-Verteilung durchführt, erhält man einen Test mit approximativem Signifikanzniveau α {\displaystyle \alpha } .

Vorgehensweise beim Einstichprobenproblem (Anpassungstest)

Von einer reellen Zufallsvariablen X {\displaystyle X} liegen n {\displaystyle n} Beobachtungswerte x i {\displaystyle x_{i}} ( i = 1 , , n {\displaystyle i=1,\dotsc ,n} ) vor, die bereits aufsteigend sortiert sind: x 1 x 2 x n {\displaystyle x_{1}\leq x_{2}\leq \dotsb \leq x_{n}} . Von diesen Beobachtungen wird die relative Summenfunktion (Summenhäufigkeit, empirische Verteilungsfunktion) S ( x i ) {\displaystyle S(x_{i})} ermittelt. Diese empirische Verteilung wird nun mit der entsprechenden hypothetischen Verteilung der Grundgesamtheit verglichen: Es wird der Wert der Wahrscheinlichkeitsverteilung an der Stelle x i {\displaystyle x_{i}} bestimmt: F 0 ( x i ) {\displaystyle F_{0}(x_{i})} . Wenn X {\displaystyle X} tatsächlich dieser Verteilung gehorcht, müssten die beobachtete Häufigkeit S ( x i ) {\displaystyle S(x_{i})} und die erwartete Häufigkeit F 0 ( x i ) {\displaystyle F_{0}(x_{i})} in etwa gleich sein.

Falls F 0 {\displaystyle F_{0}} stetig ist, kann die Teststatistik auf folgende Weise berechnet werden: Es werden für jedes i = 1 , , n {\displaystyle i=1,\dotsc ,n} die absoluten Differenzen

d o , i = | S ( x i ) F 0 ( x i ) |   {\displaystyle d_{\mathrm {o} ,i}=|S(x_{i})-F_{0}(x_{i})|~}

und

d u , i = | S ( x i 1 ) F 0 ( x i ) |   {\displaystyle d_{\mathrm {u} ,i}=|S(x_{i-1})-F_{0}(x_{i})|~}

berechnet („o“ für oben, „u“ für unten), wobei S ( x 0 ) := 0 {\displaystyle S(x_{0}):=0} gesetzt wird. Es wird sodann die absolut größte Differenz d m a x {\displaystyle d_{\mathrm {max} }} aus allen Differenzen d o , i {\displaystyle d_{{o},i}} , d u , i {\displaystyle d_{\mathrm {u} ,i}} ermittelt. Wenn d m a x {\displaystyle d_{\mathrm {max} }} einen kritischen Wert d α {\displaystyle d_{\alpha }} übersteigt, wird die Hypothese bei einem Signifikanzniveau α {\displaystyle \alpha } abgelehnt.

Bis n = 35 {\displaystyle n=35} liegen die kritischen Werte tabelliert vor.[2] Für größere n {\displaystyle n} können sie näherungsweise mit Hilfe der Formel

d α = 0 , 5 ln ( α 2 ) n {\displaystyle d_{\alpha }={\frac {\sqrt {-0{,}5\ln \left({\frac {\alpha }{2}}\right)}}{\sqrt {n}}}}

bestimmt werden.[3] Aus dieser Näherungsformel ergeben sich die in der unten stehenden Tabelle aufgeführten Formeln für den Bereich n > 35 {\displaystyle n>35} .

Signifikanzniveau   α {\displaystyle {\textbf {Signifikanzniveau}}{\text{ }}{\boldsymbol {\alpha }}} d α {\displaystyle {\boldsymbol {d_{\alpha }}}}
20 , 00 % {\displaystyle 20{,}00\,\%} 1,073 n {\displaystyle {\frac {1{,}073}{\sqrt {n}}}}
10 , 00 % {\displaystyle 10{,}00\,\%} 1,224 n {\displaystyle {\frac {1{,}224}{\sqrt {n}}}}
5 , 00 % {\displaystyle 5{,}00\,\%} 1,358 n {\displaystyle {\frac {1{,}358}{\sqrt {n}}}}
2 , 00 % {\displaystyle 2{,}00\,\%} 1,517 n {\displaystyle {\frac {1{,}517}{\sqrt {n}}}}
1 , 00 % {\displaystyle 1{,}00\,\%} 1,628 n {\displaystyle {\frac {1{,}628}{\sqrt {n}}}}
0 , 10 % {\displaystyle 0{,}10\,\%} 1,949 n {\displaystyle {\frac {1{,}949}{\sqrt {n}}}}

Vorgehensweise beim Zweistichprobenproblem

Liegt nun zusätzlich zur obigen Zufallsvariablen X {\displaystyle X} eine entsprechende Zufallsvariable Y {\displaystyle Y} vor (mit m {\displaystyle m} geordneten Werten y i {\displaystyle y_{i}} ), so kann durch den Zweistichprobentest überprüft werden, ob X {\displaystyle X} und Y {\displaystyle Y} derselben Verteilungsfunktion folgen. Die Hypothesen lauten:

Nullhypothese:

H 0 : F X ( x ) = F Y ( x ) {\displaystyle H_{0}\colon F_{X}(x)=F_{Y}(x)}

(Die Zufallsvariablen X {\displaystyle X} und Y {\displaystyle Y} besitzen die gleiche Wahrscheinlichkeitsverteilung.)

Alternativhypothese:

H 1 : F X ( x ) F Y ( x ) {\displaystyle H_{1}\colon F_{X}(x)\neq F_{Y}(x)}

(Die Zufallsvariable X {\displaystyle X} besitzt eine andere Wahrscheinlichkeitsverteilung als Y {\displaystyle Y} .)

Der Kolmogorow-Smirnow-Test vergleicht die empirischen Verteilungsfunktionen (relativen Summenfunktionen) F X , n {\displaystyle F_{X,n}} und F Y , m {\displaystyle F_{Y,m}} analog zum Einstichprobentest anhand ihrer absoluten Differenzen mittels der Teststatistik

d n , m = F X , n F Y , m = sup x | F X , n ( x ) F Y , m ( x ) | {\displaystyle d_{n,m}=\|F_{X,n}-F_{Y,m}\|=\sup _{x}|F_{X,n}(x)-F_{Y,m}(x)|} .

Die Nullhypothese wird bei einem Signifikanzniveau α {\displaystyle \alpha } abgelehnt, falls d n , m {\displaystyle d_{n,m}} den kritischen Wert d k r i t ( α , n , m ) {\displaystyle d_{\mathrm {krit} }(\alpha ,n,m)} überschreitet. Für kleine Werte von n {\displaystyle n} und m {\displaystyle m} liegen die kritischen Werte tabelliert vor.[4][5] Für große Werte von n {\displaystyle n} und m {\displaystyle m} wird die Nullhypothese abgelehnt, falls

n m n + m d n , m > K α {\displaystyle {\sqrt {\frac {nm}{n+m}}}d_{n,m}>K_{\alpha }} ,

wobei K α {\displaystyle K_{\alpha }} für große n {\displaystyle n} und m {\displaystyle m} näherungsweise als

K α = ln ( 2 α ) 2 {\displaystyle K_{\alpha }={\sqrt {\frac {\ln \left({\frac {2}{\alpha }}\right)}{2}}}}

berechnet werden kann.

Zahlenbeispiel

Vergleich von empirischer und theoretischer Verteilung des Zahlenbeispiels: Links ein Histogramm mit Normalverteilungskurve, rechts die theoretische und die empirische Verteilungsfunktion

In einem Unternehmen, das hochwertige Parfüms herstellt, wurde im Rahmen der Qualitätssicherung an einer Abfüllanlage die abgefüllte Menge für n = 8 {\displaystyle n=8} Flakons gemessen. Es ist das Merkmal x {\displaystyle x} : Abgefüllte Menge in ml.

Es soll geprüft werden, ob noch die bekannten Parameter der Verteilung von X {\displaystyle X} gelten.

Zunächst soll bei einem Signifikanzniveau α = 0 , 05 {\displaystyle \alpha =0{,}05} getestet werden, ob das Merkmal X {\displaystyle X} in der Grundgesamtheit überhaupt normalverteilt mit den bekannten Parametern μ = 11 {\displaystyle \mu =11} und σ 2 = σ = 1 {\displaystyle \sigma ^{2}=\sigma =1} ist, also

H 0 : F ( x ) = F 0 ( x ) = Φ ( x | 11 ; 1 ) {\displaystyle H_{0}\colon F(x)=F_{0}(x)=\Phi (x|11;1)}

mit Φ {\displaystyle \Phi } als Normalverteilungssymbol. Es ergibt sich folgende Tabelle:

i {\displaystyle i} x i {\displaystyle x_{i}} S ( x i ) {\displaystyle S(x_{i})} F 0 ( x i ) {\displaystyle F_{0}(x_{i})} S ( x i 1 ) F 0 ( x i ) {\displaystyle S(x_{i-1})-F_{0}(x_{i})} S ( x i ) F 0 ( x i ) {\displaystyle S(x_{i})-F_{0}(x_{i})}
1 {\displaystyle 1} 9 , 41 {\displaystyle 9{,}41} 0,125 {\displaystyle 0{,}125} 0,056 {\displaystyle 0{,}056} 0,056 {\displaystyle -0{,}056} 0,069 {\displaystyle 0{,}069}
2 {\displaystyle 2} 9 , 92 {\displaystyle 9{,}92} 0,250 {\displaystyle 0{,}250} 0,140 {\displaystyle 0{,}140} 0,015 {\displaystyle -0{,}015} 0,110 {\displaystyle 0{,}110}
3 {\displaystyle 3} 11 , 55 {\displaystyle 11{,}55} 0,375 {\displaystyle 0{,}375} 0,709 {\displaystyle 0{,}709} 0,459 {\displaystyle \mathbf {-0{,}459} } 0,334 {\displaystyle -0{,}334}
4 {\displaystyle 4} 11 , 60 {\displaystyle 11{,}60} 0,500 {\displaystyle 0{,}500} 0,726 {\displaystyle 0{,}726} 0,351 {\displaystyle -0{,}351} 0,226 {\displaystyle -0{,}226}
5 {\displaystyle 5} 11 , 73 {\displaystyle 11{,}73} 0,625 {\displaystyle 0{,}625} 0,767 {\displaystyle 0{,}767} 0,267 {\displaystyle -0{,}267} 0,142 {\displaystyle -0{,}142}
6 {\displaystyle 6} 12 , 00 {\displaystyle 12{,}00} 0,750 {\displaystyle 0{,}750} 0,841 {\displaystyle 0{,}841} 0,216 {\displaystyle -0{,}216} 0,091 {\displaystyle -0{,}091}
7 {\displaystyle 7} 12 , 06 {\displaystyle 12{,}06} 0,875 {\displaystyle 0{,}875} 0,855 {\displaystyle 0{,}855} 0,105 {\displaystyle -0{,}105} 0,020 {\displaystyle 0{,}020}
8 {\displaystyle 8} 13 , 02 {\displaystyle 13{,}02} 1,000 {\displaystyle 1{,}000} 0,978 {\displaystyle 0{,}978} 0,103 {\displaystyle -0{,}103} 0,022 {\displaystyle 0{,}022}

Hier bezeichnen x i {\displaystyle x_{i}} die i {\displaystyle i} -te Beobachtung, S ( x i ) {\displaystyle S(x_{i})} den Wert der Summenfunktion der i {\displaystyle i} -ten Beobachtung und F 0 ( x i ) {\displaystyle F_{0}(x_{i})} den Wert der Normalverteilungsfunktion an der Stelle x i {\displaystyle x_{i}} mit den genannten Parametern. Die nächsten Spalten geben die oben angeführten Differenzen an. Der kritische Wert, der bei n = 8 {\displaystyle n=8} und α = 0 , 05 {\displaystyle \alpha =0{,}05} zur Ablehnung führte, wäre der Betrag 0,454 {\displaystyle 0{,}454} .[2] Die größte absolute Abweichung in der Tabelle ist 0,459 {\displaystyle 0{,}459} in der 3. Zeile. Dieser Wert ist größer als der kritische Wert, daher wird die Hypothese abgelehnt. Es ist also zu vermuten, dass die Verteilungshypothese falsch ist. Das kann bedeuten, dass die abgefüllte Menge nicht mehr normalverteilt ist, dass sich die durchschnittliche Abfüllmenge μ {\displaystyle \mu } verschoben hat oder auch, dass sich die Varianz σ 2 {\displaystyle \sigma ^{2}} der Abfüllmenge verändert hat.

Eigenschaften des KS-Tests

Beim Einstichprobenproblem ist der KS-Test im Gegensatz etwa zum χ 2 {\displaystyle \chi ^{2}} -Test auch für kleine Stichproben geeignet.[6]

Der Kolmogorow-Smirnow-Test ist als nichtparametrischer Test sehr stabil und unanfällig. Ursprünglich wurde der Test für stetig verteilte metrische Merkmale entwickelt; er kann aber auch für diskrete und sogar rangskalierte Merkmale verwendet werden. In diesen Fällen ist der Test etwas weniger trennscharf, d. h. die Nullhypothese wird seltener abgelehnt als im stetigen Fall.

Ein großer Vorteil besteht darin, dass die zugrundeliegende Zufallsvariable keiner Normalverteilung folgen muss. Dies macht den Test vielseitig einsetzbar, bedingt aber auch seinen Nachteil, denn der KS-Test hat allgemein eine geringe Teststärke.

Alternative Tests

Der Lilliefors-Test ist eine Anpassung des Kolmogorow-Smirnow-Tests für die Testung auf Normalverteilung mit unbekanntem Mittelwert und unbekannter Varianz. Mögliche Alternativen zum KS-Test sind der Cramér-von-Mises-Test, der für beide Anwendungsfälle geeignet ist, sowie der Anderson-Darling-Test für den Vergleich einer Stichprobe mit einer hypothetischen Wahrscheinlichkeitsverteilung.

Weblinks

  • @1@2Vorlage:Toter Link/www.statistik.tuwien.ac.atKolmogorov-Smirnov-Test (Seite nicht mehr abrufbar, festgestellt im Dezember 2017. Suche in Webarchiven)
  • Tabelle mit kritischen Werten
  • Online-Version des K-S-Tests
  • Online-Durchführung des Tests

Literatur

Zum Kolmogorow-Smirnow-Anpassungstest

  • Jürgen Hedderich, Lothar Sachs: Angewandte Statistik. Methodensammlung mit R. 17., überarbeitete und ergänzte Auflage. Springer Spektrum, Berlin / Heidelberg 2018, ISBN 978-3-662-62293-3, 7.2.6 Kolmogoroff-Smirnoff Anpassungstest, S. 494–497, doi:10.1007/978-3-662-62294-0. 
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Kolmogorow-Test, S. 187–188. 
  • Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, 3.4.5.2 Kolmogorov-Smirnov-Anpassungstest, S. 577–579. 

Zum Kolmogorow-Smirnow-Zweistichprobentest

  • Jürgen Hedderich, Lothar Sachs: Angewandte Statistik. Methodensammlung mit R. 17., überarbeitete und ergänzte Auflage. Springer Spektrum, Berlin / Heidelberg 2018, ISBN 978-3-662-62293-3, 7.4.9 Vergleich zweier unabhängiger Stichproben nach Kolmogoroff/Smirnoff, S. 592–594, doi:10.1007/978-3-662-62294-0. 
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Kolmogorow-Smirnow-Test, S. 185–186. 
  • Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, 3.4.4.2 Kolmogorov-Smirnov-Homogenitätstest, S. 573–575. 

Einzelnachweise und Anmerkungen

  1. Sulla determinazione empirica di una legge di distribuzione. In: Giornale dell’Istituto italiano degli attuari. Band IV, Nr. 1, 1933, S. 83–91 (italienisch, sbn.it). 
  2. a b Critical values for the Kolmogorov-Smirnov Test for goodness of fit. Archiviert vom Original am 18. August 2016; abgerufen am 18. Dezember 2016. 
  3. Lothar Sachs, Jürgen Hedderich: Statistik: Angewandte Statistik. 12. Auflage. Springer, Berlin/ Heidelberg 2006, S. 338. 
  4. Pearson E.S. and Hartley, H.O. (Hrsg.): Biometrika Tables for Statisticians. Band 2. Cambridge University Press, 1972, ISBN 0-521-06937-8, S. 117–123, Tables 54, 55 (englisch). 
  5. Tabelle der kritischen Werte für den Zweistichprobentest (Memento vom 13. Juni 2013 im Internet Archive) (PDF; 177 kB)
  6. Jürgen Janssen, Wilfried Laatz: Statistische Datenanalyse mit SPSS für Windows. 6. Auflage. Springer, 2007, S. 569.