Distribuzione beta-binomiale

In teoria delle probabilità la distribuzione beta-binomiale è una famiglia di distribuzioni di probabilità discrete che può essere vista come generalizzazione della distribuzione binomiale e della distribuzione Beta. Descrive la distribuzione del numero di successi su n {\displaystyle n} esperimenti indipendenti di tipo sì/no, ma, contrariamente alla distribuzione Binomiale, la probabilità di successo non è un parametro noto, ma è un valore incerto distribuito come una variabile casuale Beta B ( a , b ) . {\displaystyle \mathrm {B} (a,b).} Si tratta infatti di una mistura di binomiali in cui il parametro ha distribuzione Beta.

La distribuzione beta-binomiale dipende da tre parametri: n , a , b . {\displaystyle n,a,b.}

Definizione

Se X B e t a B i n ( n , a , b ) {\displaystyle X\sim \mathrm {BetaBin} (n,a,b)} è una variabile casuale distribuita come una variabile casuale beta-binomiale con i parametri n , {\displaystyle n,} a , {\displaystyle a,} b , {\displaystyle b,} allora per x 0 {\displaystyle x\geq 0}

P ( X = x ) = C ( n x ) Γ ( a + x ) Γ ( b + n x ) , {\displaystyle P(X=x)=C{n \choose x}\Gamma (a+x)\Gamma (b+n-x),}

dove la costante C {\displaystyle C} è data da

C = Γ ( a + b ) Γ ( a ) Γ ( b ) Γ ( a + b + n ) {\displaystyle C={\frac {\Gamma (a+b)}{\Gamma (a)\Gamma (b)\Gamma (a+b+n)}}}

e Γ {\displaystyle \Gamma } è la funzione gamma.

Un modo alternativo per descrivere la B e t a B i n ( n , a , b ) {\displaystyle \mathrm {BetaBin} (n,a,b)} è dato da

P ( X = x ) = ( n x ) B ( a + x , b + n x ) B ( a , b ) , {\displaystyle P(X=x)={n \choose x}{\frac {\mathrm {B} (a+x,b+n-x)}{\mathrm {B} (a,b)}},}

dove B {\displaystyle \mathrm {B} } è la funzione beta di Eulero.

Caratteristiche

Il valore atteso dipende da tutti e tre i parametri

E ( X ) = n a a + b , {\displaystyle \mathrm {E} (X)=n{\frac {a}{a+b}},}

così come pure la varianza

V a r ( X ) = n a b ( a + b ) 2 a + b + n a + b + 1 . {\displaystyle \mathrm {Var} (X)=n{\frac {ab}{(a+b)^{2}}}{\frac {a+b+n}{a+b+1}}.}

L'asimmetria viene indicata con

( a + b + 2 n ) b a a + b + 2 1 + a + b n a b ( n + a + b ) = ( a + b + 2 n ) b a a + b + 2   1 a + b 1 V a r ( X ) . {\displaystyle (a+b+2n){\frac {b-a}{a+b+2}}{\sqrt {\frac {1+a+b}{nab(n+a+b)}}}=(a+b+2n){\frac {b-a}{a+b+2}}\ {\frac {1}{a+b}}{\sqrt {\frac {1}{\mathrm {Var} (X)}}}.}

Utilizzando la notazione p = a a + b , {\displaystyle p={\frac {a}{a+b}},} il valore atteso e la varianza possono essere descritti in una forma che ricorda quella della variabile casuale binomiale:

E ( X ) = n a a + b = n p ; {\displaystyle \mathrm {E} (X)=n{\frac {a}{a+b}}=np;}
V a r ( X ) = n a b ( a + b ) 2 a + b + n a + b + 1 = n p ( 1 p ) a + b + n a + b + 1 . {\displaystyle \mathrm {Var} (X)=n{\frac {ab}{(a+b)^{2}}}{\frac {a+b+n}{a+b+1}}=np(1-p){\frac {a+b+n}{a+b+1}}.}

Dalle precedenti si nota che a parità di valore atteso (ed n {\displaystyle n} ) la variabile casuale beta-binomiale ha sempre una varianza maggiore della variabile casuale binomiale.

L'asimmetria viene indicata con

1 2 p V a r ( X ) a + b + 2 n a + b + 2 = 1 2 p n p ( 1 p ) a + b + 2 n a + b + 2 a + b + 1 a + b + n . {\displaystyle {\frac {1-2p}{\sqrt {\mathrm {Var} (X)}}}{\frac {a+b+2n}{a+b+2}}={\frac {1-2p}{\sqrt {np(1-p)}}}{\frac {a+b+2n}{a+b+2}}{\sqrt {\frac {a+b+1}{a+b+n}}}.}

Anche in questo caso diventa evidente come l'asimmetria della beta-binomiale sia sempre maggiore dell'asimmetria della binomiale, a parità valore atteso (ed n {\displaystyle n} ).

Casi particolari

Nel caso che a = 1 {\displaystyle a=1} e b = 1 , {\displaystyle b=1,} allora si tratta di una variabile casuale uniforme discreta con P ( X = x ) = 1 / ( n + 1 ) {\displaystyle P(X=x)=1/(n+1)} essendoci n + 1 {\displaystyle n+1} valori possibili.

Ambiti di applicazione

La variabile casuale beta-binomiale è idonea a descrivere fenomeni solitamente descritti dalla variabile casuale binomiale, qualora però la probabilità di successo nella singola prova sia incerta, perché inferita dai dati passati.

Un possibile caso è quello di prevedere in senso probabilistico quante lampadine si fulminano entro 1 anno dall'installazione sapendo che la probabilità che si fulminino non è uguale per tutte, ma è descritta da una variabile casuale Beta.

Analogamente, qualora ci si trovi di fronte ad un modello che dovrebbe essere descritto da una variabile casuale binomiale, ma dove i dati mostrano una distribuzione molto "larga", allora si può sospettare che la probabilità degli eventi non sia costante, ma vari attorno ad un valore come nel modello beta-binomiale.

Esempi

Probabilità di estrarre X palline rosse da un'urna della quale si conosce solo approssimativamente la composizione

Un modello

Nell'ambito dell'inferenza bayesiana, da un'urna della quale si ignora il numero di palline presenti ma che da estrazioni precedenti risulta che vi siano una percentuale di palline rosse che varia come una variabile casuale B ( a , b ) , {\displaystyle \mathrm {B} (a,b),} dovranno essere estratte (e ogni volta reinserite) n {\displaystyle n} palline. Ci si chiede quale sia la probabilità che x {\displaystyle x} di queste siano rosse. La risposta sta nella variabile casuale B e t a B i n ( n , a , b ) . {\displaystyle \mathrm {BetaBin} (n,a,b).}

Esempio numerico

Partendo da un concetto di completa ignoranza che ci porta a descrivere la distribuzione a priori come una variabile casuale uniforme continua e dunque come una B ( 1 , 1 ) {\displaystyle \mathrm {B} (1,1)} vengono estratte 15 palline, delle quali solo una è rossa. In questo modo la probabilità a posteriori diventa una variabile casuale B ( 1 + 1 , 1 + 14 ) = B ( 2 , 15 ) . {\displaystyle \mathrm {B} (1+1,1+14)=\mathrm {B} (2,15).}

A questo punto si decide di fare un'ulteriore estrazione di 40 palline e ci si chiede quale sia la probabilità che esattamente due di queste siano rosse.

Essendo in questa seconda estrazione la probabilità P ( X = x ) {\displaystyle P(X=x)} quella di una variabile casuale B e t a B i n ( 40 , 2 , 15 ) {\displaystyle \mathrm {BetaBin} (40,2,15)} si ottiene che

P ( X = 2 | n = 40 , a = 2 , b = 15 ) = C ( 40 2 ) Γ ( 2 + 2 ) Γ ( 15 + 40 2 ) , {\displaystyle P(X=2|n=40,a=2,b=15)=C{40 \choose 2}\Gamma (2+2)\Gamma (15+40-2),}

dove

C = Γ ( 2 + 15 ) Γ ( 2 ) Γ ( 15 ) Γ ( 2 + 15 + 40 ) , {\displaystyle C={\frac {\Gamma (2+15)}{\Gamma (2)\Gamma (15)\Gamma (2+15+40)}},}

ed essendo ( 40 2 ) = 780 {\displaystyle {40 \choose 2}=780} e inoltre essendo in generale Γ ( k ) = ( k 1 ) ! {\displaystyle \Gamma (k)=(k-1)!} e pertanto

Γ ( 2 ) = 1 {\displaystyle \Gamma (2)=1}
Γ ( 4 ) = 6 {\displaystyle \Gamma (4)=6}
Γ ( 15 ) = 14 ! {\displaystyle \Gamma (15)=14!}
Γ ( 17 ) = 16 ! {\displaystyle \Gamma (17)=16!}
Γ ( 53 ) = 52 ! {\displaystyle \Gamma (53)=52!}
Γ ( 57 ) = 56 ! {\displaystyle \Gamma (57)=56!}

si ottiene

P ( X = 2 | n = 40 , a = 2 , b = 15 ) = 16 ! 1   14 !   56 ! ( 780   6   52 ! ) = {\displaystyle P(X=2|n=40,a=2,b=15)={\frac {16!}{1\ 14!\ 56!}}(780\ 6\ 52!)=}
= 780   6   16 ! 14 !   54 ! 56 ! = 780 53   6 54   15 55   16 56 = {\displaystyle =780\ 6\ {\frac {16!}{14!}}\ {\frac {54!}{56!}}={\frac {780}{53}}\ {\frac {6}{54}}\ {\frac {15}{55}}\ {\frac {16}{56}}=}
= 260 53   2 77 = 0 , 12741975 = 12 , 74 % . {\displaystyle ={\frac {260}{53}}\ {\frac {2}{77}}=0,12741975=12,74\%.}
Le due variabili casuali usate nell'esempio

Questo risultato è diverso da quello che si sarebbe ottenuto utilizzando come probabilità di successo la stima puntuale, vale a dire la semplice proporzione ottenuta nella prima serie di estrazioni (1/15 = 6,67%) e applicando per la seconda la variabile casuale binomiale B ( n = 40 , p = 1 / 15 ) . {\displaystyle B(n=40,p=1/15).} In questo caso si sarebbe ottenuto P ( X = 2 | n = 40 , p = 1 / 15 ) = 25 , 19 % . {\displaystyle P(X=2|n=40,p=1/15)=25,19\%.}

Il grafico mette in evidenza il fatto che la variabile casuale B ( n = 40 , p = 1 / 15 ) {\displaystyle B(n=40,p=1/15)} è molto più "stretta" della B e t a B i n ( 40 , 2 , 15 ) , {\displaystyle \mathrm {BetaBin} (40,2,15),} ciò è dovuto al fatto che nell'approccio bayesiano non ci si "dimentica" che vi è un'incertezza su quale sia la vera proporzione di palline rosse e questa incertezza rende probabili anche valori più "distanti".

Scelta bayesiana tra due modelli: Estrazione da un'urna, determinare a quale urna nota corrisponda un'urna

  • Di un'urna si sa che una percentuale ignota di palline sono rosse.
  • Si sa che l'urna è o l'urna A {\displaystyle A} oppure l'urna B . {\displaystyle B.}
  • Dall'urna A {\displaystyle A} sono state estratte in passato 10 palline, delle quali 2 rosse (dunque il 20%).
  • Mentre dall'urna B {\displaystyle B} in passato su 15 palline estratte 10 erano rosse (pari al 67%).
  • Nulla fa pensare che l'urna in questione sia l'urna A {\displaystyle A} piuttosto che l'urna B . {\displaystyle B.}
  • Né dell'urna A , {\displaystyle A,} né dell'urna B si conosce il numero complessivo di palline.
  • Dall'urna in questione vengono estratte 50 palline, delle quali 12 sono rosse (il 24%).

Domande

  • qual è la probabilità che l'urna in questione sia l'urna A {\displaystyle A} ?
  • qual è la distribuzione a posteriori della percentuale di palline rosse?
  • qual è la probabilità che dall'urna in questione alla prossima estrazione di 10 palline, neanche una volta esca una rossa?

Nell'ambito dell'inferenza bayesiana si può dire pertanto che:

  • la probabilità a priori che l'urna in questione sia l'urna A {\displaystyle A} è pari a P ( U = A ) = 1 / 2 {\displaystyle P(U=A)=1/2} e di conseguenza P ( U = B ) = 1 P ( U = A ) = 1 / 2 ; {\displaystyle P(U=B)=1-P(U=A)=1/2;}
  • per l'urna A , {\displaystyle A,} grazie all'estrazione di 10 palline, delle quali 2 rosse, la distribuzione a posteriori della percentuale di palline rosse è una variabile casuale Beta B ( a A = 1 + 2 , b A = 1 + 10 2 ) {\displaystyle \mathrm {B} (a_{A}=1+2,b_{A}=1+10-2)} , nel caso che la distribuzione a priori sia una rettangolare, equivalente ad una B ( 1 , 1 ) ; {\displaystyle \mathrm {B} (1,1);}
  • analogamente per l'urna B , {\displaystyle B,} la distribuzione a posteriori è una B ( a B = 1 + 10 , b B = 1 + 15 10 ) . {\displaystyle \mathrm {B} (a_{B}=1+10,b_{B}=1+15-10).}

Per procedere è necessario fare ricorso alla variabile casuale beta-binomiale, infatti sapendo che su 50 palline estratte 12 sono rosse, si può calcolare la probabilità P ( U = A | X = 12 , n = 50 ) {\displaystyle P(U=A|X=12,n=50)} che si tratti dell'urna A , {\displaystyle A,} nel seguente modo:

P ( U = A | X = x , n ) = P ( U = A ) B e t a B i n ( X = x , n , a A , b A ) P ( U = A ) B e t a B i n ( X = x , n , a A , b A ) + P ( U = B ) B e t a B i n ( X = x , n , a B , b B ) {\displaystyle P(U=A|X=x,n)={\frac {P(U=A)\mathrm {BetaBin} (X=x,n,a_{A},b_{A})}{P(U=A)\mathrm {BetaBin} (X=x,n,a_{A},b_{A})+P(U=B)\mathrm {BetaBin} (X=x,n,a_{B},b_{B})}}}

che grazie al fatto che P ( U = B ) = 1 P ( U = A ) = 1 / 2 = P ( U = A ) {\displaystyle P(U=B)=1-P(U=A)=1/2=P(U=A)} si semplifica ottenendo:

P ( U = A | X = x , n ) = B e t a B i n ( X = x , n , a A , b A ) B e t a B i n ( X = x , n , a A , b A ) + B e t a B i n ( X = x , n , a B , b B ) . {\displaystyle P(U=A|X=x,n)={\frac {\mathrm {BetaBin} (X=x,n,a_{A},b_{A})}{\mathrm {BetaBin} (X=x,n,a_{A},b_{A})+\mathrm {BetaBin} (X=x,n,a_{B},b_{B})}}.}

Tenuto conto dei valori dell'esempio, si calcola

B e t a B i n ( X = 12 , n = 50 , a A = 2 , b A = 9 ) = 0 , 04499198 ; {\displaystyle \mathrm {BetaBin} (X=12,n=50,a_{A}=2,b_{A}=9)=0,04499198;}
B e t a B i n ( X = 12 , n = 50 , a B = 11 , b B = 6 ) = 0 , 0007276656 ; {\displaystyle \mathrm {BetaBin} (X=12,n=50,a_{B}=11,b_{B}=6)=0,0007276656;}
P ( U = A | X = 12 , n = 50 ) = 0 , 04499198 0 , 04499198 + 0 , 0007276656 = 0 , 04499198 0.04571965 = 0 , 984084 = 98 , 4 % . {\displaystyle P(U=A|X=12,n=50)={\frac {0,04499198}{0,04499198+0,0007276656}}={\frac {0,04499198}{0.04571965}}=0,984084=98,4\%.}

Ciò vuol dire che la probabilità che l'urna in questione sia l'urna A {\displaystyle A} è del 98,4%. Questo risultato è comprensibile, visto che il 24% dell'urna ignota è molto più prossimo al 20% dell'urna A {\displaystyle A} che non al 67% dell'urna B . {\displaystyle B.}

Tenuto conto delle prime due estrazioni (quando le urne erano note) e l'estrazione dall'urna della quale si era perso il nome, e del fatto che al 98,4% l'urna in questione è l'urna A , {\displaystyle A,} ma che c'è pur sempre una probabilità dell'1,6% che si tratti dell'urna B , {\displaystyle B,} la percentuale di palline rosse in questa urna della quale non si sa quale delle due sia viene descritta dalla mistura delle due variabili casuali B ( n , a = a i , b = b i ) {\displaystyle \mathrm {B} (n,a=a_{i},b=b_{i})} (con i = A , B {\displaystyle i=A,B} ) ponderate con le probabilità P ( U = i | X = x , n ) . {\displaystyle P(U=i|X=x,n).}

Una volta nota tale mistura di variabili casuali è possibile calcolare la probabilità che alla prossima estrazione di 10 palline neanche una sia rossa. Par fare ciò è necessario fare ricorso a tecniche di calcolo numerico.

Bibliografia

  • (DE) Leonhard Held, Methoden der statistischen Inferenz. Likelihood und Bayes, con la collaborazione di Daniel Sabanés Bové, Spektrum Akademischer Verlag Heidelberg 2008, ISBN 978-3-8274-1939-2
  • (EN) Jim Albert, Bayesian Computation With R, Springer New York, 2009, ISBN 978-0-387-92297-3 [1][collegamento interrotto]

Collegamenti esterni

  • https://www.answers.com/topic/beta-binomial-distribution
  • http://www.vosesoftware.com/ModelRiskHelp/Distributions/Discrete_distributions/Beta-Binomial_distribution.htm
  • http://mathworld.wolfram.com/BetaBinomialDistribution.html