Symmetrische Wahrscheinlichkeitsverteilung

Als symmetrische (Wahrscheinlichkeits-) Verteilungen bezeichnet man in der Stochastik spezielle Wahrscheinlichkeitsverteilungen auf den reellen Zahlen. Sie zeichnen sich dadurch aus, dass (im einfachsten Fall) die Wahrscheinlichkeit, einen Wert kleiner als x {\displaystyle -x} zu erhalten, immer gleich groß ist wie die Wahrscheinlichkeit, einen Wert größer als x {\displaystyle x} zu erhalten. Besitzt eine Zufallsvariable eine symmetrische Verteilung, so nennt man sie auch eine symmetrische Zufallsvariable.

Definition

Ein Wahrscheinlichkeitsmaß P {\displaystyle P} auf ( R , B ( R ) ) {\displaystyle (\mathbb {R} ,{\mathcal {B}}(\mathbb {R} ))} heißt symmetrisch (um Null), wenn für alle x R {\displaystyle x\in \mathbb {R} } gilt:

P ( ( , x ] ) = P ( [ x , + ) ) {\displaystyle P((-\infty ,-x])=P([x,+\infty ))}

Analog heißt eine reellwertige Zufallsvariable symmetrisch (um Null), wenn die Verteilung von X {\displaystyle X} mit der Verteilung von X {\displaystyle -X} übereinstimmt, es gilt also

P X = P X {\displaystyle P_{X}=P_{-X}}   bzw.   X = D X {\displaystyle X\,\,{\stackrel {\mathcal {D}}{=}}\,-X} .

Allgemeiner heißt ein Wahrscheinlichkeitsmaß P {\displaystyle P} auf ( R , B ( R ) ) {\displaystyle (\mathbb {R} ,{\mathcal {B}}(\mathbb {R} ))} symmetrisch um a {\displaystyle a} , wenn

P ( ( , a x ] ) = P ( [ a + x , + ) ) {\displaystyle P((-\infty ,a-x])=P([a+x,+\infty ))}

für alle x R {\displaystyle x\in \mathbb {R} } gilt, ebenso wie eine reellwertige Zufallsvariable symmetrisch um a {\displaystyle a} heißt, wenn

X a = D ( X a ) {\displaystyle X-a\,\,{\stackrel {\mathcal {D}}{=}}\,-(X-a)}

gilt.

Erste Beispiele

  • Die Gleichverteilung ist symmetrisch um ihren Erwartungswert.
  • Die Normalverteilung N ( μ , σ ) {\displaystyle N(\mu ,\sigma )} ist symmetrisch um ihren Erwartungswert μ {\displaystyle \mu } .
  • Nicht symmetrisch, also um keinen Punkt symmetrisch, sind zum Beispiel die Exponentialverteilung oder die Poisson-Verteilung.

Eigenschaften

Charakterisierung durch die Verteilungsfunktion

Die Symmetrie einer Zufallsvariablen/Verteilung kann auch über ihre Verteilungsfunktion charakterisiert oder definiert werden. Bezeichnet man mit F ( x ) {\displaystyle F_{-}(x)} den linksseitigen Grenzwert an der Stelle x {\displaystyle x} , so ist die Verteilung bzw. Zufallsvariable genau dann symmetrisch um Null, wenn

F ( x ) + F ( x ) = 1 {\displaystyle F(-x)+F_{-}(x)=1}

für alle x R {\displaystyle x\in \mathbb {R} } gilt und genau dann symmetrisch um a {\displaystyle a} , wenn

F ( a x ) + F ( a + x ) = 1 {\displaystyle F(a-x)+F_{-}(a+x)=1} .

Wahrscheinlichkeitsdichtefunktionen und Wahrscheinlichkeitsfunktionen

Die Symmetrie einer Wahrscheinlichkeitsverteilung lässt sich auch direkt über die Wahrscheinlichkeits(dichte)funktionen der Verteilung definieren:

  • Ist P {\displaystyle P} eine absolutstetige Verteilung, so ist P {\displaystyle P} genau dann symmetrisch um a {\displaystyle a} , wenn die Wahrscheinlichkeitsdichtefunktion achsensymmetrisch bzgl. der Achse x = a {\displaystyle x=a} ist.
  • Ist P {\displaystyle P} eine diskrete Verteilung auf den reellen Zahlen, so ist P {\displaystyle P} genau dann symmetrisch um a {\displaystyle a} , wenn die Wahrscheinlichkeitsfunktion achsensymmetrisch bzgl. der Achse x = a {\displaystyle x=a} ist.

Median und Momente

Das Symmetriezentrum stimmt immer mit einem Median überein, ebenso der Erwartungswert falls dieser existiert. Dies muss aber bei symmetrischen Wahrscheinlichkeitsverteilungen nicht immer der Fall sein wie die Standard-Cauchy-Verteilung zeigt: Sie ist symmetrisch um Null, ihr Erwartungswert existiert aber nicht.

Allgemein gilt: ist X {\displaystyle X} eine um a {\displaystyle a} symmetrische Zufallsvariable und existiert ihr ( 2 k + 1 ) {\displaystyle (2k+1)} -tes Moment, so ist

E ( ( X a ) 2 k + 1 ) = 0 {\displaystyle \operatorname {E} ((X-a)^{2k+1})=0} .

Charakteristische Funktionen

Die charakteristische Funktion einer Wahrscheinlichkeitsverteilung ist genau dann reellwertig, wenn die Verteilung symmetrisch um Null ist, und dann gilt

φ X ( t ) = E ( cos ( t X ) ) {\displaystyle \varphi _{X}(t)=\operatorname {E} (\cos(tX))} .

Des Weiteren ermöglicht der Satz von Pólya die Konstruktion von Funktionen, die stets charakteristische Funktion einer um Null symmetrischen Verteilung sind.

Weitere symmetrische Verteilungen

Verteilung für Parameterwahl Symmetrisch um Bemerkung
Diskrete Verteilungen
Bernoulli-Verteilung p = 1 2 {\displaystyle p={\tfrac {1}{2}}} a = 1 2 {\displaystyle a={\tfrac {1}{2}}} Für p { 0 , 1 } {\displaystyle p\in \{0,1\}} siehe Dirac-Verteilung auf 0 bzw. 1
Binomialverteilung X B i n ( n , p ) {\displaystyle X\sim Bin(n,p)} p = 1 2 {\displaystyle p={\tfrac {1}{2}}} a = n 2 {\displaystyle a={\frac {n}{2}}} Geht für p { 0 , 1 } {\displaystyle p\in \{0,1\}} in die Dirac-Verteilung auf 0 {\displaystyle 0} bzw. n {\displaystyle n} über, Symmetrien siehe dort.
Diskrete Gleichverteilung auf { r , r + 1 , , r + n } {\displaystyle \{r,r+1,\dots ,r+n\}} r R , k N {\displaystyle r\in \mathbb {R} ,\,k\in \mathbb {N} } a = 2 r + n 2 {\displaystyle a={\frac {2r+n}{2}}}
Rademacher-Verteilung - a = 0 {\displaystyle a=0}
Zweipunktverteilung auf { c , d } {\displaystyle \{c,d\}} c , d R , p = 1 2 {\displaystyle c,d\in \mathbb {R} ,\,p={\tfrac {1}{2}}} a = c + d 2 {\displaystyle a={\frac {c+d}{2}}} Degenerierter Fall p { 0 , 1 } {\displaystyle p\in \{0,1\}} siehe Dirac-Verteilung.
Absolutstetige Verteilungen
Normalverteilung μ R , σ 2 > 0 {\displaystyle \mu \in \mathbb {R} ,\,\sigma ^{2}>0} a = μ {\displaystyle a=\mu }
Stetige Gleichverteilung auf [ c , d ] {\displaystyle [c,d]} - a = c + d 2 {\displaystyle a={\frac {c+d}{2}}}
Cauchy-Verteilung t R , s > 0 {\displaystyle t\in \mathbb {R} ,\,s>0} a = t {\displaystyle a=t} Typisches Beispiel einer symmetrischen Verteilung ohne Erwartungswert
Studentsche t-Verteilung n N {\displaystyle n\in \mathbb {N} } a = 0 {\displaystyle a=0}
Betaverteilung auf ( 0 , 1 ) {\displaystyle (0,1)} p = q {\displaystyle p=q} a = 1 2 {\displaystyle a={\tfrac {1}{2}}}
Arcsin-Verteilung - a = 1 2 {\displaystyle a={\tfrac {1}{2}}}
Logistische Verteilung α R , β > 0 {\displaystyle \alpha \in \mathbb {R} ,\,\beta >0} a = α {\displaystyle a=\alpha }
Stetigsinguläre Verteilungen und degenerierte Verteilungen
Cantor-Verteilung - a = 1 2 {\displaystyle a={\tfrac {1}{2}}}
Dirac-Verteilung δ x {\displaystyle \delta _{x}} x R {\displaystyle x\in \mathbb {R} } a = x {\displaystyle a=x}

Literatur

  • Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin/Heidelberg 2011, ISBN 978-3-642-17260-1, S. 38, doi:10.1007/978-3-642-17261-8. 
  • Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin/Heidelberg 2014, ISBN 978-3-642-45386-1, S. 244–245, doi:10.1007/978-3-642-45387-8. 
  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg / Dordrecht / London / New York 2011, ISBN 978-3-642-21025-9, doi:10.1007/978-3-642-21026-6.