Verallgemeinerte Binomialverteilung

Verallgemeinerte Binomialverteilung
Wahrscheinlichkeitsfunktion
Verteilungsfunktion
Parameter p [ 0 , 1 ] n {\displaystyle \mathbf {p} \in [0,1]^{n}} — Erfolgswahrscheinlichkeiten für jeden der n Versuche
Träger k { 0 , , n } {\displaystyle k\in \{0,\dots ,n\}}
Dichtefunktion A B k i A p i j A c ( 1 p j ) {\displaystyle \sum \limits _{A\in B_{k}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})}
Verteilungsfunktion l = 0 k A B l i A p i j A c ( 1 p j ) {\displaystyle \sum \limits _{l=0}^{k}\sum \limits _{A\in B_{l}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}{(1-p_{j})}}
Erwartungswert i = 1 n p i {\displaystyle \sum \limits _{i=1}^{n}p_{i}}
Varianz i = 1 n ( 1 p i ) p i {\displaystyle \sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}}}
Schiefe i = 1 n ( 1 2 p i ) ( 1 p i ) p i ( i = 1 n ( 1 p i ) p i ) 3 2 {\displaystyle {\frac {\sum \limits _{i=1}^{n}{\left(1-2{p_{i}}\right)\left(1-{{p}_{i}}\right){{p}_{i}}}}{(\sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}})^{\frac {3}{2}}}}}
Wölbung 3 + i = 1 n ( 1 6 ( 1 p i ) p i ) ( 1 p i ) p i ( i = 1 n ( 1 p i ) p i ) 4 {\displaystyle 3+{\frac {\sum \limits _{i=1}^{n}{\left(1-6(1-p_{i}){p_{i}}\right)\left(1-p_{i}\right)p_{i}}}{(\sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}})^{4}}}}
Momenterzeugende Funktion j = 1 n ( 1 p j + p j e t ) {\displaystyle \prod \limits _{j=1}^{n}(1-{p_{j}}+{p_{j}}{e^{t}})}
Charakteristische Funktion j = 1 n ( 1 p j + p j e i t ) {\displaystyle \prod \limits _{j=1}^{n}(1-{p_{j}}+{p_{j}}{e^{it}})}

Die Verallgemeinerte Binomialverteilung (gelegentlich auch Poissonsche Verallgemeinerung der Binomialverteilung, oder Poisson-Binomialverteilung genannt) ist eine Wahrscheinlichkeitsverteilung und somit dem mathematischen Teilgebiet der Stochastik zuzuordnen. Bei ihr handelt es sich um eine univariate diskrete Wahrscheinlichkeitsverteilung. Sie ist definiert als die Summe von unabhängigen, nicht notwendigerweise identisch verteilten Zufallsvariablen, welche einer Bernoulli-Verteilung unterliegen.

Die Verallgemeinerte Binomialverteilung beschreibt also die Erfolge einer Serie von unabhängigen Versuchen, welche jeweils genau zwei Ergebnisse annehmen kann. Der Unterschied zur Binomialverteilung besteht darin, dass jedem Versuch eine andere Erfolgswahrscheinlichkeit zugeordnet werden kann.

Es ist auch möglich die Verallgemeinerte Binomialverteilung als Summe von unabhängigen, nicht identischen, binomialverteilten Zufallsvariablen festzulegen, wobei die Bernoulli Zufallsgrößen mit identischen Erfolgswahrscheinlichkeiten zu binomialverteilten Zufallsvariablen zusammengefasst werden.

Definition der Verallgemeinerten Binomialverteilung

Eine diskrete Zufallsvariable X {\displaystyle X} folgt einer Verallgemeinerten Binomialverteilung mit Parametervektor p {\displaystyle p} , wenn sie die folgende Wahrscheinlichkeitsfunktion besitzt[1]

ρ X ( k ) = A B k i A p i j A c ( 1 p j ) {\displaystyle \rho _{X}(k)=\sum \limits _{A\in B_{k}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})} ,

wobei p = ( p 1 , , p n ) {\displaystyle p=(p_{1},\dots ,p_{n})} den Vektor der Erfolgswahrscheinlichkeiten pro Versuch und k {\displaystyle k} die Gesamtanzahl der Erfolge bei n {\displaystyle n} Versuchen bezeichnet.

Schreibweise: X G B ( p ) {\displaystyle X\sim GB(p)}

B k {\displaystyle B_{k}} ist die Menge aller k {\displaystyle k} -elementigen Teilmengen, die aus dem Träger { 1 , 2 , , n } {\displaystyle \{1,2,\dots ,n\}} gebildet werden können. A c {\displaystyle A^{c}} ist das Komplement von A {\displaystyle A} , das heißt A c = { 1 , 2 , , n } A {\displaystyle A^{c}=\{1,2,\dots ,n\}\backslash A} .

Die zugehörige Verteilungsfunktion lautet[2]

F X ( k ) = P ( X k ) = l = 0 k A B l i A p i j A c ( 1 p j ) {\displaystyle F_{X}(k)=P(X\leq k)=\sum \limits _{l=0}^{k}\sum \limits _{A\in B_{l}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}{(1-p_{j})}}

Alternative Parametrisierung

Die Verallgemeinerte Binomialverteilung kann ebenso als Summe von binomialverteilten Zufallsgrößen definiert werden, indem die Bernoulli Zufallsvariablen mit gleichen Erfolgswahrscheinlichkeiten zu binomialverteilten Zufallsgrößen zusammengefasst werden.

G B ( k | p ) = G B ( k | p r , n r ) {\displaystyle GB(k|p)=GB(k|pr,nr)} ,

wobei der Parametervektor p r = ( p r 1 , , p r r ) {\displaystyle pr=(pr_{1},\dots ,pr_{r})} die Erfolgswahrscheinlichkeiten von r {\displaystyle r} binomialverteilten Zufallsvariablen enthält und der Parametervektor n r = ( n r 1 , , n r r ) {\displaystyle nr=(nr_{1},\dots ,nr_{r})} die jeweils zugehörige Anzahl an Versuchen.

Es gilt somit p = ( p 1 , , p n ) = ( p r 1 1 n r 1 T , , p r r 1 n r r T ) {\displaystyle p=(p_{1},\dots ,p_{n})=(pr_{1}\cdot 1_{nr_{1}}^{T},\dots ,pr_{r}\cdot 1_{nr_{r}}^{T})} . Hierbei ist 1 n r i T {\displaystyle 1_{nr_{i}}^{T}} der Einsvektor der Länge n r i {\displaystyle nr_{i}} , bestehend aus lauter Einsen.

Eigenschaften der Verallgemeinerten Binomialverteilung

X {\displaystyle X} sei im Folgenden eine Zufallsvariable, die einer Verallgemeinerten Binomialverteilung folgt X G B ( p ) {\displaystyle X\sim GB(p)} .

Erwartungswert

Die Verallgemeinerte Binomialverteilung besitzt den Erwartungswert

E ( X ) = i = 1 n p i {\displaystyle E(X)=\sum \limits _{i=1}^{n}p_{i}}

Varianz

Die Verallgemeinerte Binomialverteilung besitzt die Varianz

V a r ( X ) = i = 1 n ( 1 p i ) p i {\displaystyle Var(X)=\sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}}}

Schiefe

Die Verallgemeinerte Binomialverteilung besitzt die Schiefe

v ( X ) = i = 1 n ( 1 2 p i ) ( 1 p i ) p i ( i = 1 n ( 1 p i ) p i ) 3 2 {\displaystyle v(X)={\frac {\sum \limits _{i=1}^{n}{\left(1-2{p_{i}}\right)\left(1-{{p}_{i}}\right){{p}_{i}}}}{(\sum \limits _{i=1}^{n}\left(1-{p_{i}}){p_{i}}\right)^{\frac {3}{2}}}}}

Wölbung und Exzess

Die Verallgemeinerte Binomialverteilung besitzt die Wölbung

β 2 = 3 + i = 1 n ( 1 6 ( 1 p i ) p i ) ( 1 p i ) p i ( i = 1 n ( 1 p i ) p i ) 2 {\displaystyle \beta _{2}=3+{\frac {\sum \limits _{i=1}^{n}{\left(1-6(1-p_{i}){p_{i}}\right)\left(1-p_{i}\right)p_{i}}}{(\sum \limits _{i=1}^{n}\left(1-{p_{i}}){p_{i}}\right)^{2}}}}

und damit den Exzess

γ = β 2 3 = i = 1 n ( 1 6 ( 1 p i ) p i ) ( 1 p i ) p i ( i = 1 n ( 1 p i ) p i ) 2 {\displaystyle \gamma =\beta _{2}-3={\frac {\sum \limits _{i=1}^{n}{\left(1-6(1-p_{i}){p_{i}}\right)\left(1-p_{i}\right)p_{i}}}{(\sum \limits _{i=1}^{n}\left(1-{p_{i}}){p_{i}}\right)^{2}}}}

Kumulanten

Die kumulantenerzeugende Funktion ist

g X ( t ) = i = 1 n ln ( 1 p i + p i e t ) {\displaystyle g_{X}(t)=\sum _{i=1}^{n}\ln(1-p_{i}+p_{i}e^{t})} .

Daher ist die k-te Kumulante genau die Summe der k-ten Kumulanten der n Bernoulli-verteilten Zufallsvariablen, aus denen die Verallgemeinerte Binomialverteilung zusammengesetzt ist:

τ k = τ k 1 + + τ k n {\displaystyle \tau _{k}=\tau _{k}^{1}+\dots +\tau _{k}^{n}}

Für diese Kumulanten gilt dann auch die Rekursionsgleichung der Kumulanten der Bernoulli-Verteilung.

Wahrscheinlichkeitserzeugende Funktion

Die wahrscheinlichkeitserzeugende Funktion der verallgemeinerten Binomialverteilung lautet

m X ( t ) = j = 1 n ( 1 p j + p j t ) {\displaystyle m_{X}(t)=\prod \limits _{j=1}^{n}(1-{p_{j}}+{p_{j}}{t})}

Charakteristische Funktion

Die charakteristische Funktion der Verallgemeinerten Binomialverteilung lautet:

φ X ( t ) = j = 1 n ( 1 p j + p j e i t ) {\displaystyle \varphi _{X}(t)=\prod \limits _{j=1}^{n}(1-{p_{j}}+{p_{j}}{e^{it}})}

Momenterzeugende Funktion

Die momenterzeugende Funktion der Verallgemeinerten Binomialverteilung lautet:

M X ( t ) = j = 1 n ( 1 p j + p j e t ) {\displaystyle M_{X}(t)=\prod \limits _{j=1}^{n}(1-{p_{j}}+{p_{j}}{e^{t}})}

Summe von verallgemeinert binomialverteilten Zufallsvariablen

Ist X G B n ( p 1 , p n ) {\displaystyle X\sim GB_{n}(p_{1},\dots p_{n})} und Y G B m ( p 1 , p m ) {\displaystyle Y\sim GB_{m}(p_{1},\dots p_{m})} zwei unabhängige verallgemeinert binomialverteilte Zufallsvariablen, dann ist auch X + Y {\displaystyle X+Y} verallgemeinert binomialverteilt: X + Y G B n + m ( p 1 , p n + m ) {\displaystyle X+Y\sim GB_{n+m}(p_{1},\dots p_{n+m})} . Demnach ist die verallgemeinerte Binomialverteilung reproduktiv.

Beziehung zu anderen Verteilungen

Beziehung zur Binomialverteilung

Die Summe von voneinander unabhängigen binomialverteilten Zufallsvariablen X i B ( n i , p i ) {\displaystyle X_{i}\sim B(n_{i},p_{i})} ist verallgemeinert binomialverteilt. Wenn alle Erfolgswahrscheinlichkeiten gleich sind, das heißt p i = p j i , j = 1 , n {\displaystyle p_{i}=p_{j}\;\forall i,j=1\dots ,n} , dann ergibt sich aus der Verallgemeinerten Binomialverteilung die Binomialverteilung. Tatsächlich ist die Binomialverteilung für festen Erwartungswert und feste Ordnung diejenige verallgemeinerte Binomialverteilung mit maximaler Entropie.[3] Das bedeutet, unter der Bedingung, dass der Parametervektor p {\displaystyle p} von X G B ( p ) {\displaystyle X\sim GB(p)} die Länge n {\displaystyle n} hat, maximiert p = ( E ( X ) / n , , E ( X ) / n ) {\displaystyle p=(E(X)/n,\dots ,E(X)/n)} die Entropie H ( X ) {\displaystyle \mathrm {H} (X)} .

Beziehung zur Bernoulli-Verteilung

Die Summe von n {\displaystyle n} voneinander unabhängigen Bernoulli-verteilten Zufallsvariablen X i {\displaystyle X_{i}} , die alle einen unterschiedlichen Parameter p i {\displaystyle p_{i}} besitzen, ist verallgemeinert binomialverteilt.

Approximation durch die Poisson-Verteilung

Hauptartikel: Poisson-Approximation

Für eine sehr große Anzahl an Versuchen n {\displaystyle n} und sehr kleine, aber unterschiedliche Erfolgswahrscheinlichkeiten p 1 , , p n {\displaystyle p_{1},\dots ,p_{n}} kann die Wahrscheinlichkeitsfunktion der Verallgemeinerten Binomialverteilung durch die Poisson-Verteilung approximiert werden.[2]

ρ X ( k ) λ k k ! e λ {\displaystyle \rho _{X}(k)\approx {\frac {\lambda ^{k}}{k!}}\cdot \mathrm {e} ^{-\lambda }}

Der Parameter λ {\displaystyle \lambda } ist gleich dem Erwartungswert der Verallgemeinerten Binomialverteilung.

Approximation durch die Normalverteilung

Die Verteilungsfunktion der Verallgemeinerten Binomialverteilung kann für eine sehr große Anzahl an Versuchen n {\displaystyle n} durch die Normalverteilung approximiert werden.[2]

F X ( k ) Φ ( k + 0 , 5 μ σ ) ,   k = 0 , , n {\displaystyle F_{X}(k)\approx \Phi \left({\frac {k+0{,}5-\mu }{\sigma }}\right),\ k=0,\dots ,n}

Der Parameter μ {\displaystyle \mu } entspricht dem Erwartungswert und σ {\displaystyle \sigma } der Standardabweichung der Verallgemeinerten Binomialverteilung. Φ ( ) {\displaystyle \Phi (\cdot )} ist die Verteilungsfunktion der Standardnormalverteilung.

Beispiele

Radarkontrolle

Ein Arbeitnehmer muss an jedem Arbeitstag über die Autobahn und durch das Ortsgebiet zur Arbeit fahren. Die Wahrscheinlichkeiten in eine Radarkontrolle zu geraten sind 0 , 5 % {\displaystyle 0{,}5\,\%} auf der Autobahn und 1 % {\displaystyle 1\,\%} im Ortsgebiet.

Wie hoch sind die Wahrscheinlichkeiten an einem Arbeitstag in 0 , 1 , 2 {\displaystyle 0,1,2} Kontrollen zu geraten?

Die zufällige Anzahl von Radarkontrollen R {\displaystyle R} kann als Summe von zwei Bernoulli-verteilten Zufallsvariablen R 1 {\displaystyle R_{1}} für die Autobahn und R 2 {\displaystyle R_{2}} für das Ortsgebiet modelliert werden: R = R 1 + R 2 {\displaystyle R=R_{1}+R_{2}} , mit

R 1 = { 1 , Kontrolle mit Wahrscheinlichkeit  0,005 0 , keine Kontrolle mit Wahrscheinlichkeit  0,995 {\displaystyle R_{1}={\begin{cases}1,&{\text{Kontrolle mit Wahrscheinlichkeit }}0{,}005\\0,&{\text{keine Kontrolle mit Wahrscheinlichkeit }}0{,}995\end{cases}}}
R 2 = { 1 , Kontrolle mit Wahrscheinlichkeit  0 , 01 0 , keine Kontrolle mit Wahrscheinlichkeit  0 , 99 {\displaystyle R_{2}={\begin{cases}1,&{\text{Kontrolle mit Wahrscheinlichkeit }}0{,}01\\0,&{\text{keine Kontrolle mit Wahrscheinlichkeit }}0{,}99\end{cases}}}

Da R 1 {\displaystyle R_{1}} und R 2 {\displaystyle R_{2}} unterschiedliche Erfolgswahrscheinlichkeiten besitzen, kann man dieses Beispiel nicht mit Hilfe der Binomialverteilung lösen.

R {\displaystyle R} folgt einer Verallgemeinerten Binomialverteilung mit Parametervektor p = ( 0,005 , 0 , 01 ) {\displaystyle p=(0{,}005,0{,}01)} .

Die gesuchten Wahrscheinlichkeiten können folgendermaßen berechnet werden:

  • 0 {\displaystyle 0} Kontrollen: P ( R = 0 ) {\displaystyle P(R=0)}
P ( R = 0 ) = P ( R 1 = 0 ) P ( R 2 = 0 ) = 0,995 0 , 99 = 0,985 05 = 98,505 % {\displaystyle P(R=0)=P(R_{1}=0)\cdot P(R_{2}=0)=0{,}995\cdot 0{,}99=0{,}98505=98{,}505\,\%}
  • 1 {\displaystyle 1} Kontrolle: P ( R = 1 ) {\displaystyle P(R=1)}
P ( R = 1 ) = P ( R 1 = 1 ) P ( R 2 = 0 ) + P ( R 1 = 0 ) P ( R 2 = 1 ) = 0,005 0 , 99 + 0,995 0 , 01 = 0,014 9 = 1 , 49 % {\displaystyle P(R=1)=P(R_{1}=1)\cdot P(R_{2}=0)+P(R_{1}=0)\cdot P(R_{2}=1)=0{,}005\cdot 0{,}99+0{,}995\cdot 0{,}01=0{,}0149=1{,}49\,\%}
  • 2 {\displaystyle 2} Kontrollen: P ( R = 2 ) {\displaystyle P(R=2)}
P ( R = 2 ) = P ( R 1 = 1 ) P ( R 2 = 1 ) = 0,005 0 , 01 = 0,000 05 = 0,005 % {\displaystyle P(R=2)=P(R_{1}=1)\cdot P(R_{2}=1)=0{,}005\cdot 0{,}01=0{,}00005=0{,}005\,\%}

Herstellungsprozess

In einer Fabrik werden Geräte produziert und anschließend einer Qualitätskontrolle unterzogen. Es können 3 {\displaystyle 3} verschiedene Fehlertypen auftreten. Die Wahrscheinlichkeiten, dass ein spezieller Fehlertyp auftritt sind 4 % {\displaystyle 4\,\%} für den Fehler vom Typ 1 {\displaystyle 1} und jeweils 7 % {\displaystyle 7\,\%} für die Fehlertypen 2 {\displaystyle 2} und 3 {\displaystyle 3} .

Wie hoch sind die Wahrscheinlichkeiten dafür, dass ein Gerät mit 0 , 1 , 2 , 3 {\displaystyle 0,1,2,3} Fehlern produziert wird?

Die zufällige Anzahl von Fehlern F {\displaystyle F} kann als Summe von drei Bernoulli-verteilten Zufallsvariablen F 1 {\displaystyle F_{1}} , F 2 {\displaystyle F_{2}} und F 3 {\displaystyle F_{3}} geschrieben werden: F = F 1 + F 2 + F 3 {\displaystyle F=F_{1}+F_{2}+F_{3}} , mit

F 1 = { 1 , Fehler mit Wahrscheinlichkeit  0 , 04 0 , kein Fehler mit Wahrscheinlichkeit  0 , 96 {\displaystyle F_{1}={\begin{cases}1,&{\text{Fehler mit Wahrscheinlichkeit }}0{,}04\\0,&{\text{kein Fehler mit Wahrscheinlichkeit }}0{,}96\end{cases}}}
F 2 = F 3 = { 1 , Fehler mit Wahrscheinlichkeit  0 , 07 0 , kein Fehler mit Wahrscheinlichkeit  0 , 93 {\displaystyle F_{2}=F_{3}={\begin{cases}1,&{\text{Fehler mit Wahrscheinlichkeit }}0{,}07\\0,&{\text{kein Fehler mit Wahrscheinlichkeit }}0{,}93\end{cases}}}

F {\displaystyle F} besitzt eine Verallgemeinerten Binomialverteilung mit Parametervektor p = ( 0 , 04 , 0 , 07 , 0 , 07 ) {\displaystyle p=(0{,}04,0{,}07,0{,}07)} .

Alternativ kann die Parametrisierung p r = ( 0 , 04 , 0 , 07 ) ,   n r = ( 1 , 2 ) {\displaystyle pr=(0{,}04,0{,}07),\ nr=(1,2)} gewählt werden, indem die identischen Bernoulli Zufallsvariablen zu einer binomialverteilten Zufallsvariable zusammengefasst werden.

Die gesuchten Wahrscheinlichkeiten können folgendermaßen berechnet werden:

  • 0 {\displaystyle 0} Fehler: P ( F = 0 ) {\displaystyle P(F=0)}
P ( F = 0 ) = P ( F 1 = 0 ) P ( F 2 = 0 ) P ( F 3 = 0 ) = 0 , 96 0 , 93 0 , 93 = 0,830 304 = 83,030 4 % {\displaystyle P(F=0)=P(F_{1}=0)\cdot P(F_{2}=0)\cdot P(F_{3}=0)=0{,}96\cdot 0{,}93\cdot 0{,}93=0{,}830304=83{,}0304\,\%}
  • 1 {\displaystyle 1} Fehler: P ( F = 1 ) {\displaystyle P(F=1)}
P ( F = 1 ) = P ( F 1 = 1 ) P ( F 2 = 0 ) P ( F 3 = 0 ) + P ( F 1 = 0 ) P ( F 2 = 1 ) P ( F 3 = 0 ) + P ( F 1 = 0 ) P ( F 2 = 0 ) P ( F 3 = 1 ) = 0 , 04 0 , 93 0 , 93 + 0 , 96 0 , 07 0 , 93 + 0 , 96 0 , 93 0 , 07 = 0,159 588 = 15,958 8 % {\displaystyle {\begin{aligned}P(F=1)&=P(F_{1}=1)\cdot P(F_{2}=0)\cdot P(F_{3}=0)+P(F_{1}=0)\cdot P(F_{2}=1)\cdot P(F_{3}=0)+P(F_{1}=0)\cdot P(F_{2}=0)\cdot P(F_{3}=1)\\&=0{,}04\cdot 0{,}93\cdot 0{,}93+0{,}96\cdot 0{,}07\cdot 0{,}93+0{,}96\cdot 0{,}93\cdot 0{,}07=0{,}159588=15{,}9588\,\%\end{aligned}}}
  • 2 {\displaystyle 2} Fehler: P ( F = 2 ) {\displaystyle P(F=2)}
P ( F = 2 ) = P ( F 1 = 1 ) P ( F 2 = 1 ) P ( F 3 = 0 ) + P ( F 1 = 0 ) P ( F 2 = 1 ) P ( F 3 = 1 ) + P ( F 1 = 1 ) P ( F 2 = 0 ) P ( F 3 = 1 ) = 0 , 04 0 , 07 0 , 93 + 0 , 96 0 , 07 0 , 07 + 0 , 04 0 , 93 0 , 07 = 0,009 912 = 0,991 2 % {\displaystyle {\begin{aligned}P(F=2)&=P(F_{1}=1)\cdot P(F_{2}=1)\cdot P(F_{3}=0)+P(F_{1}=0)\cdot P(F_{2}=1)\cdot P(F_{3}=1)+P(F_{1}=1)\cdot P(F_{2}=0)\cdot P(F_{3}=1)\\&=0{,}04\cdot 0{,}07\cdot 0{,}93+0{,}96\cdot 0{,}07\cdot 0{,}07+0{,}04\cdot 0{,}93\cdot 0{,}07=0{,}009912=0{,}9912\,\%\end{aligned}}}
  • 3 {\displaystyle 3} Fehler: P ( F = 3 ) {\displaystyle P(F=3)}
P ( F = 3 ) = P ( F 1 = 1 ) P ( F 2 = 1 ) P ( F 3 = 1 ) = 0 , 04 0 , 07 0 , 07 = 0,000 196 = 0,019 6 % {\displaystyle P(F=3)=P(F_{1}=1)\cdot P(F_{2}=1)\cdot P(F_{3}=1)=0{,}04\cdot 0{,}07\cdot 0{,}07=0{,}000196=0{,}0196\,\%}

Anwendung & Berechnung

Die Verallgemeinerte Binomialverteilung kommt in vielen Bereichen zum Einsatz; z. B. Umfragen, Herstellungsprozesse, Qualitätssicherung. Oft wird allerdings eine Approximation benutzt, da die exakte Berechnung sehr aufwändig ist. Ohne entsprechende Software sind selbst einfache Modelle mit wenigen Bernoulli Zufallsvariablen kaum zu berechnen.

Zufallszahlen

Zur Erzeugung von Zufallszahlen kann die Inversionsmethode verwendet werden. Alternativ kann man auch n {\displaystyle n} Bernoulli-verteilte Zufallszahlen zu den Parametern p i {\displaystyle p_{i}} erzeugen und diese Aufsummieren. Das Ergebnis ist dann verallgemeinert binomialverteilt.

Literatur

  • M.Fisz, Wahrscheinlichkeitsrechnung und mathematische Statistik, VEB Deutscher Verlag der Wissenschaften, 1973, p. 164 ff.
  • K.J. Klauer, Kriteriumsorientierte Tests, Verlag für Psychologie, Hogrefe, 1987, Göttingen, p. 208 ff.

Weblinks

  • GenBinomApps – R Package. R Package zur Berechnung von Clopper Pearson Konfidenzintervallen und der verallgemeinerten Binomialverteilung. Abgerufen am 30. Juli 2015.

Einzelnachweise

  1. On the Number of Successes in Independent Trials. (PDF; 1,6 MB) Y.H.Wang, Statistica Sinica, Vol. 3, 1993, p. 295–312. Abgerufen am 23. September 2013.
  2. a b c On Computing the Distribution Function for the Sum of Independent and Non-identical Random Indicators. (Memento vom 23. Oktober 2015 im Internet Archive) (PDF; 110 kB) Y.Hong, Blacksburg, USA, 5. April 2011. Abgerufen am 23. September 2013.
  3. Peter Harremoës: Binomial and Poisson Distributions as Maximum Entropy Distributions. In: IEEE Transactions on Information Theory. 47. Jahrgang. IEEE Information Theory Society, 2001, S. 2039–2041, doi:10.1109/18.930936. 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart