Distribuzione continua uniforme

Niente fonti!
Questa voce o sezione sull'argomento matematica non cita le fonti necessarie o quelle presenti sono insufficienti.
Distribuzione continua uniforme U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} su un intervallo [ a , b ] {\displaystyle [a,b]}
Funzione di densità di probabilità
Densità di probabilità
Funzione di ripartizione
Funzione di ripartizione
Parametri a , b R {\displaystyle a,b\in \mathbb {R} }
a < b   {\displaystyle a<b\ }
Supporto S = [ a , b ]   {\displaystyle S=[a,b]\ }
Funzione di densità 1 b a {\displaystyle {\frac {1}{b-a}}} su S   {\displaystyle S\ }
Funzione di ripartizione x a b a {\displaystyle {\frac {x-a}{b-a}}} per x S {\displaystyle x\in S}
Valore atteso a + b 2 {\displaystyle {\frac {a+b}{2}}}
Mediana a + b 2 {\displaystyle {\frac {a+b}{2}}}
Varianza ( b a ) 2 12 {\displaystyle {\frac {(b-a)^{2}}{12}}}
Indice di asimmetria 0 {\displaystyle 0}
Curtosi 6 5 {\displaystyle -{\frac {6}{5}}}
Entropia log ( b a )   {\displaystyle \log(b-a)\ }
Funzione generatrice dei momenti e b t e a t b t a t {\displaystyle {\frac {e^{bt}-e^{at}}{bt-at}}}
Funzione caratteristica e i b t e i a t i b t i a t {\displaystyle {\frac {e^{ibt}-e^{iat}}{ibt-iat}}}
Manuale

In teoria delle probabilità la distribuzione continua uniforme è una distribuzione di probabilità continua che è uniforme su un insieme, ovvero che attribuisce la stessa probabilità a tutti i punti appartenenti ad un dato intervallo [a,b] contenuto nell'insieme.

Definizione

La distribuzione continua uniforme U ( S ) {\displaystyle {\mathcal {U}}(S)} su un insieme misurabile S, di misura finita non nulla, è una distribuzione di probabilità che attribuisce a tutti i sottoinsiemi di S con la stessa misura la stessa probabilità di verificarsi.

La sua densità di probabilità è un multiplo della funzione indicatrice dell'insieme S,

f ( x ) = 1 μ ( S )   1 S = { 1 / μ ( S ) x S 0 x S {\displaystyle f(x)={\frac {1}{\mu (S)}}\ 1_{S}={\begin{cases}1/\mu (S)&x\in S\\0&x\not \in S\end{cases}}}

dove μ ( S ) {\displaystyle \mu (S)} è la misura dell'insieme S.

In particolare ogni sottoinsieme misurabile A di S ha una probabilità di verificarsi proporzionale alla propria misura:

P ( A ) = μ ( A ) μ ( S ) {\displaystyle P(A)={\frac {\mu (A)}{\mu (S)}}} .

Su un intervallo

La distribuzione uniforme continua viene solitamente definita su un intervallo S = [ a , b ] R {\displaystyle S=[a,b]\subset \mathbb {R} } ; in questo caso viene indicata U ( a , b ) = U ( [ a , b ] ) {\displaystyle {\mathcal {U}}(a,b)={\mathcal {U}}([a,b])} .

La sua densità di probabilità è

f ( x ) = 1 b a {\displaystyle f(x)={\frac {1}{b-a}}} su [ a , b ] {\displaystyle [a,b]} .

Come intervallo [ a , b ] {\displaystyle [a,b]} , inoltre, viene spesso preso l'intervallo unitario I = [ 0 , 1 ] {\displaystyle I=[0,1]} , che può essere sempre ricondotto al caso precedente tramite una trasformazione lineare, ovvero considerando la variabile aleatoria Y = a + ( b a ) X {\displaystyle Y=a+(b-a)X} al posto di X {\displaystyle X} . In particolare, la variabile aleatoria 1-X segue la stessa distribuzione U ( 0 , 1 ) {\displaystyle {\mathcal {U}}(0,1)} .

In questo caso la densità di probabilità diventa

f ( x ) = 1 {\displaystyle f(x)=1} su I {\displaystyle I} ,

la funzione di ripartizione è

F ( x ) = x {\displaystyle F(x)=x} su I {\displaystyle I} ,

e la probabilità di un intervallo [ x 1 , x 2 ] I {\displaystyle [x_{1},x_{2}]\subset I} è pari alla sua lunghezza:

P ( [ x 1 , x 2 ] ) = x 2 x 1   {\displaystyle P([x_{1},x_{2}])=x_{2}-x_{1}\ }

(nel caso generale la probabilità di un intervallo è proporzionale alla sua lunghezza).

Per il calcolo delle probabilità i singoli valori f(0) e f(1) sono ininfluenti: basta che la densità di probabilità resti invariata quasi ovunque. Talvolta vengono posti pari a 0, prendendo la funzione indicatrice dell'intervallo aperto ] 0 , 1 [ {\displaystyle ]0,1[} , o a 1/2, prendendo come densità di probabilità la funzione rettangolo (in questo caso la distribuzione è anche chiamata distribuzione rettangolare).

Caratteristiche

Se X è una variabile aleatoria di distribuzione uniforme U ( 0 , 1 ) {\displaystyle {\mathcal {U}}(0,1)} , allora Y = a + ( b a ) X {\displaystyle Y=a+(b-a)X} è una variabile aleatoria di distribuzione uniforme U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} , le cui caratteristiche si ricavano facilmente da quelle di X.

Le due variabili aleatorie hanno

  • speranza matematica
E [ X ] = 1 2 , E [ Y ] = a + ( b a ) E [ X ] = a + b 2 {\displaystyle E[X]={\frac {1}{2}},\qquad E[Y]=a+(b-a)E[X]={\frac {a+b}{2}}} ;
Var ( X ) = 1 12 , Var ( Y ) = ( a b ) 2 Var ( X ) = ( a b ) 2 12 {\displaystyle {\text{Var}}(X)={\frac {1}{12}},\qquad {\text{Var}}(Y)=(a-b)^{2}{\text{Var}}(X)={\frac {(a-b)^{2}}{12}}} ;
  • funzione caratteristica
ϕ X ( t ) = E [ e i t X ] = e i t 1 i t , ϕ Y ( t ) = e i a t g X ( ( b a ) t ) = e i b t e i a t i b t i a t {\displaystyle \phi _{X}(t)=E[e^{itX}]={\frac {e^{it}-1}{it}},\qquad \phi _{Y}(t)=e^{iat}g_{X}((b-a)t)={\frac {e^{ibt}-e^{iat}}{ibt-iat}}} ;
g X ( t ) = E [ e t X ] = e t 1 t , g Y ( t ) = e a t g X ( ( b a ) t ) = e b t e a t b t a t {\displaystyle g_{X}(t)=E[e^{tX}]={\frac {e^{t}-1}{t}},\qquad g_{Y}(t)=e^{at}g_{X}((b-a)t)={\frac {e^{bt}-e^{at}}{bt-at}}} ;

Dalla funzione generatrice dei momenti si ricavano (per il più generale Y) i momenti semplici

μ n ( Y ) = b n + 1 a n + 1 ( n + 1 ) ( b a ) {\displaystyle \mu _{n}(Y)={\frac {b^{n+1}-a^{n+1}}{(n+1)(b-a)}}} ;

siccome la variabile aleatoria centrata Y E [ Y ] {\displaystyle Y-E[Y]} segue una distribuzione uniforme su [ b a 2 , b a 2 ] {\displaystyle [-{\tfrac {b-a}{2}},{\tfrac {b-a}{2}}]} , si ricavano immediatamente i momenti centrali di Y

m n ( Y ) = μ n ( Y E [ Y ] ) = { ( b a ) n ( n + 1 ) 2 n n = 2 k 0 n = 2 k + 1 . {\displaystyle m_{n}(Y)=\mu _{n}(Y-E[Y])={\begin{cases}{\frac {(b-a)^{n}}{(n+1)2^{n}}}&n=2k\\0&n=2k+1\end{cases}}.}

In particolare si trovano gli indici di asimmetria e di curtosi

γ 1 ( Y ) = 0 , γ 2 ( Y ) = 6 5 {\displaystyle \gamma _{1}(Y)=0,\qquad \gamma _{2}(Y)=-{\frac {6}{5}}} .

Infine, l'entropia di Y è

H ( Y ) = log ( b a ) {\displaystyle H(Y)=\log(b-a)} .

Altre distribuzioni

Ogni distribuzione di probabilità univariata (cioè sui numeri reali) è legata alla distribuzione uniforme U ( 0 , 1 ) {\displaystyle {\mathcal {U}}(0,1)} . Se X segue la distribuzione uniforme su [ 0 , 1 ] {\displaystyle [0,1]} ed F è una qualunque funzione di ripartizione, prendendo la funzione

F 1 ( x ) = inf { y R : F ( y ) x } {\displaystyle F^{-1}(x)=\inf\{y\in \mathbb {R} \colon F(y)\geqslant x\}}

si può definire una variabile aleatoria

Y = F 1 ( X ) {\displaystyle Y=F^{-1}(X)}

che ha proprio F come funzione di ripartizione.

Ad esempio, Y = log X λ {\displaystyle Y=-{\tfrac {\log X}{\lambda }}} segue la distribuzione esponenziale E ( λ ) {\displaystyle {\mathcal {E}}(\lambda )} .

In informatica questa proprietà viene chiamata metodo dell'inversione e viene utilizzata per trasformare un generatore "casuale" di campioni per X in un generatore di campioni per Y.

La somma X 1 + X 2 {\displaystyle X_{1}+X_{2}} di due variabili aleatorie variabili indipendenti con la medesima distribuzione uniforme U ( a , b ) {\displaystyle {\mathcal {U}}(a,b)} segue una distribuzione triangolare simmetrica (distribuzione di Simpson).

Più in generale, la distribuzione di Irwin-Hall descrive la somma X 1 + . . . + X n {\displaystyle X_{1}+...+X_{n}} di n variabili aleatorie variabili indipendenti con la medesima distribuzione uniforme U ( 0 , 1 ) {\displaystyle {\mathcal {U}}(0,1)} .

La distribuzione Beta B ( 1 , 1 ) {\displaystyle \mathrm {B} (1,1)} corrisponde alla distribuzione uniforme U ( 0 , 1 ) {\displaystyle {\mathcal {U}}(0,1)} . Inoltre, se X segue questa distribuzione uniforme, allora Y = 1 X n {\displaystyle Y=1-{\sqrt[{n}]{X}}} segue la distribuzione Beta B ( 1 , n ) {\displaystyle \mathrm {B} (1,n)} .

Il parallelo della distribuzione continua uniforme tra le distribuzioni discrete è la distribuzione discreta uniforme, definita su un insieme finito S, che attribuisce ad ogni suo sottoinsieme una probabilità di verificarsi pari alla propria cardinalità. (In altri termini è la stessa definizione, con una diversa misura.)

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su Distribuzione continua uniforme

Collegamenti esterni

  • (EN) William L. Hosch, uniform distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Distribuzione continua uniforme, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Distribuzione continua uniforme, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
Controllo di autoritàLCCN (EN) sh85038543 · J9U (ENHE) 987007557954005171
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica