Distribució khi quadrat no central

Infotaula distribució de probabilitatDistribució χ 2 {\displaystyle \chi ^{2}} no central
Funció de distribució de probabilitat
TipusDensitat
Paràmetres k > 0 {\displaystyle k>0\,} graus de llibertat
λ > 0 {\displaystyle \lambda >0\,} paràmetre de no centralitat
Suport x ( 0 , + ) {\displaystyle x\in (0,+\infty )\;}
fdp 1 2 e ( x + λ ) / 2 ( x λ ) k / 4 1 / 2 I k / 2 1 ( λ x ) {\displaystyle {\frac {1}{2}}e^{-(x+\lambda )/2}\left({\frac {x}{\lambda }}\right)^{k/4-1/2}I_{k/2-1}({\sqrt {\lambda x}})}
FD 1 Q k 2 ( λ , x ) {\displaystyle 1-Q_{\frac {k}{2}}\left({\sqrt {\lambda }},{\sqrt {x}}\right)} on Q M ( a , b ) {\displaystyle Q_{M}(a,b)} és la Funció Q de Marcum
Esperança matemàtica k + λ {\displaystyle k+\lambda \,}
Variància 2 ( k + 2 λ ) {\displaystyle 2(k+2\lambda )\,}
Coeficient de simetria 2 3 / 2 ( k + 3 λ ) ( k + 2 λ ) 3 / 2 {\displaystyle {\frac {2^{3/2}(k+3\lambda )}{(k+2\lambda )^{3/2}}}}
Curtosi 12 ( k + 4 λ ) ( k + 2 λ ) 2 {\displaystyle {\frac {12(k+4\lambda )}{(k+2\lambda )^{2}}}}
FGM exp ( λ t 1 2 t ) ( 1 2 t ) k / 2 ,   2 t < 1 {\displaystyle {\frac {\exp \left({\frac {\lambda t}{1-2t}}\right)}{(1-2t)^{k/2}}},\ 2t<1}
FC exp ( i λ t 1 2 i t ) ( 1 2 i t ) k / 2 {\displaystyle {\frac {\exp \left({\frac {i\lambda t}{1-2it}}\right)}{(1-2it)^{k/2}}}}

En Teoria de la Probabilitat i Estadística, la distribució khi quadrat no central (o distribució χ 2 {\displaystyle \chi ^{2}} no central) és una generalització de la distribució khi quadrat incorporant un paràmetre que s'anomena de no centrament. Sovint sorgeix en l'anàlisi de potència de contrast d'hipòtesis estadístiques en què la distribució nul·la és (potser asimtòticament) una distribució khi quadrat; exemples importants d'aquestes proves són les prova de raó de versemblança.[1]

Definicions

Com el el cas de la distribució χ 2 {\displaystyle \chi ^{2}} ordinària començarem pel cas que el nombre de graus de llibertat sigui un nombre enter positiu i després, mitjançant la funció de densitat ho estendrem a qualsevol nombre de graus de llibertat k > 0 {\displaystyle k>0} .Siguin X 1 , , X k {\displaystyle X_{1},\dots ,X_{k}} variables aleatòries independents, distribuïdes normalment amb mitjanes μ 1 , , μ k {\displaystyle \mu _{1},\dots ,\mu _{k}} respectivament i totes amb variància 1: X j N ( μ j , 1 ) ,   j = 1 , , k {\displaystyle X_{j}\sim N(\mu _{j},1),\ j=1,\dots ,k} . Aleshores es diu que la variable aleatòria

J = i = 1 k X i 2 {\displaystyle J=\sum _{i=1}^{k}X_{i}^{2}}

té una distribució khi-quadrat no central amb k {\displaystyle k} graus de llibertat i paràmetre de no centralitat λ = i = 1 k μ i 2 . {\displaystyle \lambda =\sum _{i=1}^{k}\mu _{i}^{2}.} [2] S'escriu J χ k 2 ( λ ) {\displaystyle J\sim \chi _{k}^{2}(\lambda )} . Si λ = 0 {\displaystyle \lambda =0} , aleshores J {\displaystyle J} té una distribució χ 2 {\displaystyle \chi ^{2}} ordinària amb k {\displaystyle k} graus de llibertat: X χ k 2 {\displaystyle X\sim \chi _{k}^{2}} .


Equivalentment, es pot definir la distribució χ k 2 ( λ ) {\displaystyle \chi _{k}^{2}(\lambda )} com la distribució de la suma

( Z 1 + μ 1 ) 2 + + ( Z k + μ k ) 2 , {\displaystyle (Z_{1}+\mu _{1})^{2}+\cdots +(Z_{k}+\mu _{k})^{2},}
on Z 1 , , Z k {\displaystyle Z_{1},\dots ,Z_{k}} són variables aleatòries independents, totes amb distribució normal estàndard N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} .


Nota: Algunes referències defineixen el paràmetre de no centralitat d'altres maneres, com la meitat de la suma i = 1 k μ i 2 {\displaystyle \sum _{i=1}^{k}\mu _{i}^{2}} o la seva arrel quadrada.

Funció de densitat

La funció de densitat de probabilitat (pdf) ve donada per [3][4]

f J ( x ; k , λ ) = j = 0 e λ / 2 ( λ / 2 ) j j ! f Y k + 2 j ( x ) , x > 0 , ( ) {\displaystyle f_{J}(x;k,\lambda )=\sum _{j=0}^{\infty }{\frac {e^{-\lambda /2}(\lambda /2)^{j}}{j!}}f_{Y_{k+2j}}(x),\quad x>0,\quad (*)}

on Y q {\displaystyle Y_{q}} es distribueix com una χ 2 {\displaystyle \chi ^{2}} amb q {\displaystyle q} graus de llibertat, Y q χ q 2 {\displaystyle Y_{q}\sim \chi _{q}^{2}} i f Y q ( x ) {\displaystyle f_{Y_{q}}(x)} és l seva funció de densitat:

f Y q ( x ) = x q / 2 1 e x / 2 2 q / 2 Γ ( q / 2 ) , x > 0 , {\displaystyle f_{Y_{q}}(x)={\frac {x^{q/2-1}\,e^{-x/2}}{2^{q/2}\,\Gamma (q/2)}},\quad x>0,}
on Γ ( u ) {\displaystyle \Gamma (u)} és la funció gamma d'Euler.

És a dir, la distribució χ k 2 ( λ ) {\displaystyle \chi _{k}^{2}(\lambda )} és una mixtura de distribucions χ k + 2 j 2 ,   j = 0 , 1 , 2 , {\displaystyle \chi _{k+2j}^{2},\ j=0,1,2,\dots } , amb pesos donats per una distribució de Poisson de paràmetre λ / 2 {\displaystyle \lambda /2} .

Càlcul de la funció de densitat
El càlcul de la funció de densitat és laboriós i el separarem en 4 passos: Sigui J χ k 2 ( λ ) {\displaystyle J\sim \chi _{k}^{2}(\lambda )} .


1r. pas. Demostrarem la descomposició

J = D J 1 + J 2 , {\displaystyle J\quad {\overset {\mathcal {D}}{=}}\quad J_{1}+J_{2},}
on J 1 χ 1 2 ( λ ) {\displaystyle J_{1}\sim \chi _{1}^{2}(\lambda )} , J 2 χ k 1 2 {\displaystyle J_{2}\sim \chi _{k-1}^{2}} , J 1 {\displaystyle J_{1}} i J 2 {\displaystyle J_{2}} són independents, i = D {\displaystyle {\overset {\mathcal {D}}{=}}} vol dir igualtat en distribució o llei (vegeu la pàgina Variable aleatòria).

2n. pas. Calcularem una primera versió de la funció de densitat de J 1 {\displaystyle J_{1}} .

3r. pas. Reescriurem la funció de densitat que hem trobat al pas anterior i identificarem una mixtura de distribucions χ 2 {\displaystyle \chi ^{2}} amb diferents graus de llibertat i pesos de Poisson.

4t. pas. Ajuntant els passos 1 i 3 deduirem la densitat de J {\displaystyle J} .

1r. pas. Escrivim

J = ( Z 1 + μ 1 ) 2 + + ( Z k + μ k ) 2 . {\displaystyle J=(Z_{1}+\mu _{1})^{2}+\cdots +(Z_{k}+\mu _{k})^{2}.}
El nostre objectiu és veure que tenim
J = D ( Z 1 + λ ) 2 + Z 2 2 + + Z k 2 , ( 1 ) {\displaystyle J\quad {\overset {\mathcal {D}}{=}}\quad (Z_{1}+{\sqrt {\lambda }})^{2}+Z_{2}^{2}+\cdots +Z_{k}^{2},\quad \quad (1)}
on λ = j = 1 k μ k 2 {\displaystyle \lambda =\sum _{j=1}^{k}\mu _{k}^{2}} , i llavors definirem
J 1 = ( Z 1 + λ ) 2 χ 1 2 ( λ ) i J 2 = Z 2 2 + + Z k 2 χ k 1 2 . {\displaystyle J_{1}=(Z_{1}+{\sqrt {\lambda }})^{2}\sim \chi _{1}^{2}(\lambda )\quad {\text{i}}\quad J_{2}=Z_{2}^{2}+\cdots +Z_{k}^{2}\sim \chi _{k-1}^{2}.}
Partim de les variables X 1 , , X k {\displaystyle X_{1},\dots ,X_{k}} independents, amb X j N k ( μ j , 1 ) ,   j = 1 , , k {\displaystyle X_{j}\sim {\mathcal {N}}_{k}(\mu _{j},1),\ j=1,\dots ,k} . Considerem el vector aleatori normal multidimensional
X = ( X 1 , , X k ) N k ( μ , I ) , {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{k})'\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }},{\boldsymbol {I}}),}
on A {\displaystyle A'} vol dir la transposada de la matriu o vector A {\displaystyle A} , μ = ( μ 1 , , μ k ) {\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{k})'} i I {\displaystyle {\boldsymbol {I}}} és la matriu identitat de dimensió k {\displaystyle k} . Notem que δ = μ μ = μ 2 . {\displaystyle \delta ={\boldsymbol {\mu }}'{\boldsymbol {\mu }}=\Vert {\boldsymbol {\mu }}\Vert ^{2}.} Considerem una matriu ortogonal H {\displaystyle {\boldsymbol {H}}} tal que la seva primera fila sigui μ 1 / δ , , μ k / δ {\displaystyle \mu _{1}/{\sqrt {\delta }},\dots ,\mu _{k}/{\sqrt {\delta }}} . Aquesta matriu pot construir-se partint del vector μ {\displaystyle {\boldsymbol {\mu }}} , ampliant-ho a una base de R k {\displaystyle \mathbb {R} ^{k}} , ortonormalitzant la base pel procediment d'ortogonaització de Gramm-Schmidt i utilitzant aquests vectors com a files de la matriu. Sigui
Y = H X N k ( ( λ , 0 , , 0 ) , I ) . {\displaystyle {\boldsymbol {Y}}={\boldsymbol {HX}}\sim {\mathcal {N}}_{k}{\big (}({\sqrt {\lambda }},0,\dots ,0)',{\boldsymbol {I}}{\big )}.}
Llavors, per l'ortogonalitat de la matriu H {\displaystyle {\boldsymbol {H}}} ,
Y Y = X X = J , {\displaystyle {\boldsymbol {Y'Y}}={\boldsymbol {X'X}}=J,}
d'on s'obté l'expressió (1).

2n. pas. Càlcul d'una primera versió de la funció de densitat de J 1 = ( Z 1 + λ ) 2 {\displaystyle J_{1}=(Z_{1}+{\sqrt {\lambda }})^{2}} . La variable aleatòria J 1 {\displaystyle J_{1}} és la transformació d'una variable Y = ( Z 1 + λ ) N ( λ , 1 ) {\displaystyle Y=(Z_{1}+{\sqrt {\lambda }})\sim {\mathcal {N}}({\sqrt {\lambda }},1)} mitjançant la funció h : R [ 0 , ) {\displaystyle h:\mathbb {R} \rightarrow [0,\infty )} donada per h ( y ) = y 2 {\displaystyle h(y)=y^{2}} ; però aquesta funció no és bijectiva i cal separ-la en dues parts bijectives:

h 1 : ( 0 , ) ( 0 , ) i h 2 : ( , 0 ) ( 0 , ) {\displaystyle h_{1}:(0,\infty )\rightarrow (0,\infty )\quad {\text{i}}\quad h_{2}:(-\infty ,0)\rightarrow (0,\infty )}
definides ambdues per
h 1 ( y ) = h 2 ( y ) = y 2 . {\displaystyle h_{1}(y)=h_{2}(y)=y^{2}.}
Les inverses respectives són
g 1 : ( 0 , ) ( 0 , ) i g 2 : ( 0 , ) ( , 0 ) {\displaystyle g_{1}:(0,\infty )\rightarrow (0,\infty )\quad {\text{i}}\quad g_{2}:(0,\infty )\rightarrow (-\infty ,0)}
g 1 ( x ) = x i g 2 ( x ) = x {\displaystyle g_{1}(x)={\sqrt {x}}\quad {\text{i}}\quad g_{2}(x)=-{\sqrt {x}}}
Aleshores la funció de densitat de J 1 {\displaystyle J_{1}} és
f J 1 ( x ) = 1 2 x 1 2 π ( e ( x λ ) 2 / 2 + e ( x λ ) 2 / 2 ) = 1 2 π x e ( x + λ ) / 2 cosh ( λ x ) , x > 0. {\displaystyle f_{J_{1}}(x)={\frac {1}{2{\sqrt {x}}}}{\frac {1}{\sqrt {2\pi }}}{\Big (}e^{-({\sqrt {x}}-{\sqrt {\lambda }})^{2}/2}+e^{-(-{\sqrt {x}}-{\sqrt {\lambda }})^{2}/2}{\Big )}={\frac {1}{\sqrt {2\pi x}}}e^{-(x+\lambda )/2}\cosh {\big (}{\sqrt {\lambda x}}{\big )},\quad x>0.}
3r. pas. Identificació de la distribució J 1 {\displaystyle J_{1}} de com una mixtura de distribucions χ 2 {\displaystyle \chi ^{2}} amb pesos donats per una distribució de Poisson.

Designarem per f Y n ( x ) {\displaystyle f_{Y_{n}}(x)} la funció de densitat d'una distribució χ n 2 {\displaystyle \chi _{n}^{2}} . Notem que per una distribució χ 1 + 2 j 2 ,   j = 0 , 1 , 2 , {\displaystyle \chi _{1+2j}^{2},\ j=0,1,2,\dots } tenim

f Y 1 + 2 j ( x ) = x 1 / 2 + j e x / 2 2 1 / 2 + j Γ ( 1 / 2 + j ) = 1 2 π x x j e x / 2 2 j 1 3 ( 2 j 1 ) , x > 0. {\displaystyle f_{Y_{1+2j}}(x)={\frac {x^{-1/2+j}e^{-x/2}}{2^{1/2+j}\,\Gamma (1/2+j)}}={\frac {1}{\sqrt {2\pi x}}}\,{\frac {x^{j}e^{-x/2}}{2^{j}\,1\cdot 3\cdots (2j-1)}},\quad x>0.}
D'altra banda, el desenvolupament en sèrie de Taylor del cosinus hiperbòlic és
cosh y = 1 + y 2 2 ! + y 4 4 ! + = j = 0 y 2 j ( 2 j ) ! . {\displaystyle \cosh y=1+{\frac {y^{2}}{2!}}+{\frac {y^{4}}{4!}}+\dots =\sum _{j=0}^{\infty }{\frac {y^{2j}}{(2j)!}}.}
Aleshores,
cosh ( λ x ) = j = 0 λ j x j ( 2 j ) ! = j = 0 λ j x j 2 j j ! 1 3 ( 2 j 1 ) = j = 0 ( λ / 2 ) j j ! x j 2 j 1 3 ( 2 j 1 ) . {\displaystyle \cosh {\big (}{\sqrt {\lambda x}}{\big )}=\sum _{j=0}^{\infty }{\frac {\lambda ^{j}x^{j}}{(2j)!}}=\sum _{j=0}^{\infty }{\frac {\lambda ^{j}x^{j}}{2^{j}j!\,1\cdot 3\cdots (2j-1)}}=\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}{\frac {x^{j}}{2^{j}\,1\cdot 3\cdots (2j-1)}}.}
Per tant,
f J 1 ( x ) = 1 2 π x e ( x + λ ) / 2 cosh ( λ x ) = e λ / 2 j = 0 ( λ / 2 ) j j ! 1 2 π x x j e x / 2 2 j 1 3 ( 2 j 1 ) = e λ / 2 j = 0 ( λ / 2 ) j j ! f Y 1 + 2 j ( x ) . {\displaystyle f_{J_{1}(x)}={\frac {1}{\sqrt {2\pi x}}}e^{-(x+\lambda )/2}\cosh {\big (}{\sqrt {\lambda x}}{\big )}=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,{\frac {1}{\sqrt {2\pi x}}}\,{\frac {x^{j}e^{-x/2}}{2^{j}\,1\cdot 3\cdots (2j-1)}}=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,f_{Y_{1+2j}}(x).}
En conseqüència, J 1 {\displaystyle J_{1}} és una mixtura de distribucions χ 1 + 2 j 2 ,   j = 0 , 1 , 2 , {\displaystyle \chi _{1+2j}^{2},\ j=0,1,2,\dots } amb pesos donats per una distribució de Poisson de paràmetre λ / 2 {\displaystyle \lambda /2} .

"4t." pas. Càlcul de la funció de densitat de J {\displaystyle J} . Utilitzarem les propietats de la funció generatriu de moments (també es podria fer de manera anàloga amb les funcions característiques). Designarem per M Y n {\displaystyle M_{Y_{n}}} la funció generatriu d'una variable aleatòria Y n χ n 2 {\displaystyle Y_{n}\sim \chi _{n}^{2}}  :

M Y n ( t ) = E [ e t Y n ] = 1 ( 1 2 t ) n / 2 , t ( , 1 / 2 ) . {\displaystyle M_{Y_{n}}(t)=E[e^{tY_{n}}]={\frac {1}{(1-2t)^{n/2}}},\quad t\in (-\infty ,1/2).}
Escrivim
p j = e λ / 2 ( λ / 2 ) j j ! ,   j = 0 , 1 , {\displaystyle p_{j}=e^{-\lambda /2}\,{\frac {(\lambda /2)^{j}}{j!}},\ j=0,1,\dots }
els pesos donats per una distribució de Poisson de paràmetre λ / 2 {\displaystyle \lambda /2} . Per les propietats de les mixtures de distribucions, la funció generatriu de moments de J 1 {\displaystyle J_{1}} és
M J 1 ( t ) = j = 0 p j M Y 1 + 2 j ( t ) . {\displaystyle M_{J_{1}}(t)=\sum _{j=0}^{\infty }p_{j}M_{Y_{1+2j}}(t).}
Donada la independència entre J 1 {\displaystyle J_{1}} i J 2 {\displaystyle J_{2}} (vegeu el primer pas), tindrem que
M J ( t ) = M J 1 ( t ) M J 2 ( t ) , {\displaystyle M_{J}(t)=M_{J_{1}}(t)\,M_{J_{2}}(t),}
i atès que J 2 χ k 1 2 {\displaystyle J_{2}\sim \chi _{k-1}^{2}} , M J 2 = M Y k 1 {\displaystyle M_{J_{2}}=M_{Y_{k-1}}} . Fent les operacions corresponents arribem a que

M J ( t ) = j = 0 p j M Y k + 2 j ( t ) . {\displaystyle M_{J}(t)=\sum _{j=0}^{\infty }p_{j}M_{Y_{k+2j}}(t).}
Per tant, identifiquem una mixtura de distribucions χ k + 2 j 2 ,   j = 0 , 1 , 2 , {\displaystyle \chi _{k+2j}^{2},\ j=0,1,2,\dots } amb pesos donats per una distribució de Poisson de paràmetre λ / 2 {\displaystyle \lambda /2} . Llavors, la funció de densitat de J {\displaystyle J} és
f J ( x ) = e λ / 2 j = 0 ( λ / 2 ) j j ! f Y k + 2 j ( x ) . {\displaystyle f_{J}(x)=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,f_{Y_{k+2j}}(x).}

Expressió alternativa de la funció de densitat

La funció de densitat també es pot escriure

f J ( x ) = 1 2 e ( x + λ ) / 2 ( x λ ) k / 4 1 / 2 I k / 2 1 ( λ x ) , x > 0 , {\displaystyle f_{J}(x)={\frac {1}{2}}\,e^{-(x+\lambda )/2}{\Big (}{\frac {x}{\lambda }}{\Big )}^{k/4-1/2}\,I_{k/2-1}({\sqrt {\lambda x}}),\quad x>0,}
on I α ( y ) {\displaystyle I_{\alpha }(y)} és la funció de Bessel modificada de primer tipus,
I α ( y ) = ( y 2 ) α j = 0 ( y 2 / 4 ) j j ! Γ ( α + j + 1 ) . {\displaystyle I_{\alpha }(y)={\Big (}{\frac {y}{2}}{\Big )}^{\alpha }\sum _{j=0}^{\infty }{\frac {(y^{2}/4)^{j}}{j!\,\Gamma (\alpha +j+1)}}.}

Prova
Si desenvolupem f Y k + 2 j {\displaystyle f_{Y_{k+2j}}} tenim que la funció de densitat té l'expressió
f J ( x ) = e λ / 2 j = 0 ( λ / 2 ) j j ! x k / 2 + j 1 e x / 2 2 k / 2 + j Γ ( k / 2 + j ) . {\displaystyle f_{J}(x)=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,{\frac {x^{k/2+j-1}\,e^{-x/2}}{2^{k/2+j}\,\Gamma (k/2+j)}}.}

D'altra banda, I k / 2 1 ( λ x ) {\displaystyle I_{k/2-1}{\big (}{\sqrt {\lambda x}}{\big )}} val

I k / 2 1 ( λ x ) = ( λ x 2 ) k / 2 1 j = 0 ( λ x / 4 ) j j ! Γ ( k / 2 + j ) , {\displaystyle I_{k/2-1}{\big (}{\sqrt {\lambda x}}{\big )}={\bigg (}{\frac {\sqrt {\lambda x}}{2}}{\bigg )}^{k/2-1}\sum _{j=0}^{\infty }{\frac {(\lambda x/4)^{j}}{j!\,\Gamma (k/2+j)}},}

i només cal reagrupar els termes a f J ( x ) {\displaystyle f_{J}(x)}

Extensió a un nombre de graus de llibertat no enter

La funció (*) està ben definida i és una funció de densitat per a qualsevol k > 0 {\displaystyle k>0} . Per tant, podem definir una variable χ k 2 ( δ ) {\displaystyle \chi _{k}^{2}(\delta )} amb k > 0 {\displaystyle k>0} com aquella que té per funció de densitat (*).[3] Naturalment, es perd la interpretació com al nombre de sumands independents.

Moments, funció generatriu de moments i funció característica

Els moments es poden calcular utilitzant les propietats de les mixtures de distribucions. Sigui J χ k 2 ( λ ) {\displaystyle J\sim \chi _{k}^{2}(\lambda )} i Y q χ 2 ( q ) {\displaystyle Y_{q}\sim \chi ^{2}(q)} . Designem per p j {\displaystyle p_{j}} els pesos donats per una distribució de Poisson de paràmetre λ / 2 {\displaystyle \lambda /2} :

p j = e λ / 2 ( λ / 2 ) j j ! ,   j = 0 , 1 , {\displaystyle p_{j}=e^{-\lambda /2}\,{\frac {(\lambda /2)^{j}}{j!}},\ j=0,1,\dots }
Aleshores, atès que una distribució khi-quadrat té moments de tots els ordres, tindrem que la distribució khi-quadrat no central també, i
E [ J n ] = j = 0 p j E [ Y k + 2 j n ] . {\displaystyle E{\big [}J^{n}{\big ]}=\sum _{j=0}^{\infty }p_{j}\,E{\big [}Y_{k+2j}^{n}{\big ]}.}
Per exemple, per a n = 1 {\displaystyle n=1} , E [ Y q ] = q {\displaystyle E[Y_{q}]=q} i llavors
E [ J ] = j = 0 p j ( k + 2 j ) = k j = 0 p j + 2 j = 0 j p j = k + 2 λ 2 = k + λ . {\displaystyle E[J]=\sum _{j=0}^{\infty }p_{j}(k+2j)=k\sum _{j=0}^{\infty }p_{j}+2\sum _{j=0}^{\infty }jp_{j}=k+2\,{\frac {\lambda }{2}}=k+\lambda .}
De manera anàloga, es calcula
E [ J 2 ] = ( k + λ ) 2 + 2 ( k + 2 λ ) , {\displaystyle E[J^{2}]=(k+\lambda )^{2}+2(k+2\lambda ),}
d'on
Var ( J ) = 2 ( k + 2 λ ) . {\displaystyle {\text{Var}}(J)=2(k+2\lambda ).}
La funció generatriu de moments també es pot calcular de la mateixa forma: Designem per M Y {\displaystyle M_{Y}} la funció generatriu de moments d'una variable aleatòria Y {\displaystyle Y} ,
M Y ( t ) = E [ e t Y ] . {\displaystyle M_{Y}(t)=E[e^{tY}].}
Si Y q χ 2 ( q ) {\displaystyle Y_{q}\sim \chi ^{2}(q)} ,
M Y q ( t ) = 1 ( 1 2 t ) q / 2 ,   t ( , 1 / 2 ) . {\displaystyle M_{Y_{q}}(t)={\frac {1}{(1-2t)^{q/2}}},\ t\in (-\infty ,1/2).}
Llavors, per a t ( , 1 / 2 ) {\displaystyle t\in (-\infty ,1/2)} ,
M J ( t ) = j = 0 p j M k + 2 j ( t ) = e λ / 2 j = 0 ( λ / 2 ) j j ! 1 ( 1 2 t ) k / 2 + j = e λ / 2 ( 1 2 t ) k / 2 j = 0 1 j ! ( λ 2 ( 1 2 t ) ) j = e λ t / ( 1 2 t ) ( 1 2 t ) k / 2 . {\displaystyle M_{J}(t)=\sum _{j=0}^{\infty }p_{j}\,M_{k+2j}(t)=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,{\frac {1}{(1-2t)^{k/2+j}}}={\frac {e^{-\lambda /2}}{(1-2t)^{k/2}}}\,\sum _{j=0}^{\infty }{\frac {1}{j!}}\,{\bigg (}{\frac {\lambda }{2(1-2t)}}{\bigg )}^{j}={\frac {e^{\lambda t/(1-2t)}}{(1-2t)^{k/2}}}.}
Anàlogament, la funció característica dóna
φ J ( t ) = e i λ t / ( 1 2 i t ) ( 1 2 i t ) k / 2 . {\displaystyle \varphi _{J}(t)={\frac {e^{i\lambda t/(1-2it)}}{(1-2it)^{k/2}}}.}

Una propietat de les formes quadràtiques en variables normals

Aquesta propietat, que té interès per ella mateixa, és el fonament de la utilització de la distribució χ k 2 ( λ ) {\displaystyle \chi _{k}^{2}(\lambda )} en l'estudi de la potència d'un test sobre la mitjana d'una població normal multivariable, segon veurem en un exemple.

Propietat. Considerem un vector aleatori normal multivariable X N k ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} amb det ( Σ ) > 0 {\displaystyle {\text{det}}({\boldsymbol {\Sigma }})>0} . Aleshores:[5]

  1. ( X μ ) Σ 1 ( X μ ) χ k 2 {\displaystyle {\boldsymbol {(X-\mu )'\Sigma ^{-1}(X-\mu )}}\sim \chi _{k}^{2}} .
  2. X Σ 1 X χ k 2 ( λ ) {\displaystyle {\boldsymbol {X'\Sigma ^{-1}X}}\sim \chi _{k}^{2}(\lambda )} , amb λ = μ Σ 1 μ {\displaystyle \lambda ={\boldsymbol {\mu '\Sigma ^{-1}\mu }}} .
Prova
1. Existeix una única matriu definida positiva Σ 1 / 2 {\displaystyle {\boldsymbol {\Sigma }}^{1/2}} tal que ( Σ 1 / 2 ) 2 = Σ {\displaystyle {\boldsymbol {(}}\Sigma ^{1/2})^{2}={\boldsymbol {\Sigma }}} [6] anomenada arrel quadrada de Σ {\displaystyle {\boldsymbol {\Sigma }}} ; designem per Σ 1 / 2 {\displaystyle {\boldsymbol {\Sigma }}^{-1/2}} la seva inversa.[7] Per les propietats de les lleis normals multivariables,

U = Σ 1 / 2 ( X μ ) N d ( 0 , I d ) . {\displaystyle {\boldsymbol {U}}={\boldsymbol {\Sigma }}^{-1/2}{\big (}{\boldsymbol {X}}-{\boldsymbol {\mu }}{\big )}\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {I}}_{d}).}
Llavors,
( X μ ) Σ 1 ( X μ ) = U U χ k 2 . {\displaystyle {\boldsymbol {(X-\mu )'\Sigma ^{-1}(X-\mu )}}={\boldsymbol {U'U}}\sim \chi _{k}^{2}.}

2. Ara definim

V = Σ 1 / 2 X N d ( Σ 1 / 2 μ , I d ) . {\displaystyle {\boldsymbol {V}}={\boldsymbol {\Sigma }}^{-1/2}{\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\Sigma ^{-1/2}\mu }},{\boldsymbol {I}}_{d}).}
Llavors,
X Σ 1 X = V V χ k 2 ( λ ) , {\displaystyle {\boldsymbol {X'\Sigma ^{-1}X}}={\boldsymbol {V'V}}\sim \chi _{k}^{2}(\lambda ),}
amb

λ = ( Σ 1 / 2 μ ) ( Σ 1 / 2 μ ) = μ Σ 1 μ . {\displaystyle \lambda ={\bigg (}{\boldsymbol {\Sigma ^{-1/2}\mu }}{\bigg )}'{\bigg (}{\boldsymbol {\Sigma ^{-1/2}\mu }}{\bigg )}={\boldsymbol {\mu '\Sigma ^{-1}\mu }}.}

Exemple. Muirhead.[5] Considerem un contrast d'hipòtesis sobre la mitjana d'una població normal multivariable amb matriu de variàncies-covariàncies coneguda. Sigui X 1 , , X n {\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{n}} una mostra d'una distribució N k ( μ , Σ ) {\displaystyle {\mathcal {N}}_{k}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} . Llavors

X ¯ = 1 n i = 1 n X i N k ( μ , 1 n Σ ) . {\displaystyle {\overline {\boldsymbol {X}}}={\frac {1}{n}}\sum _{i=1}^{n}{\boldsymbol {X}}_{i}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }},\,{\frac {1}{n}}{\boldsymbol {\Sigma }}).}
Fixem μ 0 R k {\displaystyle {\boldsymbol {\mu }}_{0}\in \mathbb {R} ^{k}} . Anem a fer el contrast
H 0 :   μ = μ 0 contra H 1 :   μ μ 0 . {\displaystyle {\text{H}}_{0}:\ {\boldsymbol {\mu }}={\boldsymbol {\mu }}_{0}\quad {\text{contra}}\quad {\text{H}}_{1}:\ {\boldsymbol {\mu }}\neq {\boldsymbol {\mu }}_{0}.}
Com a estadístic de contrast utilitzarem
W = ( X μ 0 ) Σ 1 ( X μ 0 ) . {\displaystyle W={\boldsymbol {(X-\mu _{0})'\Sigma ^{-1}(X-\mu _{0})}}.}
Fixem un nivell de significació del test α . {\displaystyle \alpha .} Atès que, per la primera part de la propietat anterior, sota H 0 {\displaystyle {\text{H}}_{0}} , W χ k 2 {\displaystyle W\sim \chi _{k}^{2}} , rebutjarem H 0 {\displaystyle {\text{H}}_{0}} si
W > C α , {\displaystyle W>C_{\alpha },}
on C α {\displaystyle C_{\alpha }} és el nombre tal que
P ( χ k 2 > C α ) = α . {\displaystyle P(\chi _{k}^{2}>C_{\alpha })=\alpha .}
Si H 0 {\displaystyle {\text{H}}_{0}} no és veritat,
X ¯ μ 0 N k ( μ μ 0 , 1 n Σ ) . {\displaystyle {\overline {\boldsymbol {X}}}-{\boldsymbol {\mu }}_{0}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }}-{\boldsymbol {\mu }}_{0},\,{\frac {1}{n}}{\boldsymbol {\Sigma }}).}
Per tant, per la segona part de la propietat anterior,
W χ k 2 ( λ ) , amb λ = n ( μ μ 0 ) Σ 1 ( μ μ 0 ) . {\displaystyle W\sim \chi _{k}^{2}(\lambda ),\quad {\text{amb}}\quad \lambda =n({\boldsymbol {\mu }}-{\boldsymbol {\mu }}_{0})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {\mu }}-{\boldsymbol {\mu }}_{0}).}
Per tant, la potència del test és funció de λ {\displaystyle \lambda } :
β ( λ ) = P λ ( W > C ) = P ( χ k 2 ( λ ) > C α ) . {\displaystyle \beta (\lambda )=P_{\lambda }(W>C)=P{\big (}\chi _{k}^{2}(\lambda )>C_{\alpha }{\big )}.}

Ocurrència i aplicacions

Es poden obtenir intervals de tolerància de regressió normal a dues cares basant-se en la distribució khi quadrat no central. Això permet calcular un interval estadístic dins del qual, amb un cert nivell de confiança, es troba una proporció especificada d'una població mostrada.[8]

Referències

  1. Patnaik, P. B. Biometrika, 36, 1/2, 1949, pàg. 202–232. DOI: 10.2307/2332542. ISSN: 0006-3444.
  2. «Noncentral Chi-Squared Distribution» (en anglès). https://valelab4.ucsf.edu.+[Consulta: 5 juliol 2023].
  3. 3,0 3,1 Johnson, Norman L.; Kotz, Samuel; Balakrishnan, Narayanaswamy. Continuous univariate distributions. 2. 2. ed. Nova York: Wiley, 1995, p. 436. ISBN 978-0-471-58494-0. 
  4. «Noncentral Chi-Square Distribution - MATLAB & Simulink» (en anglès). https://www.mathworks.com.+[Consulta: 5 juliol 2023].
  5. 5,0 5,1 Muirhead, Robb John. Aspects of multivariate statistical theory. Hoboken, N.J: Wiley-Interscience, 2005, p. 26-27. ISBN 978-0-471-76985-9. 
  6. Seber, George Arthur Frederick. A matrix handbook for statisticians. Hoboken (N.J.): J. Wiley, 2008, p. 221. ISBN 978-0-471-74869-4. 
  7. No hi ha ambigüitat en la notació ja que ( Σ 1 / 2 ) 1 = ( Σ 1 ) 1 / 2 {\displaystyle ({\boldsymbol {\Sigma }}^{1/2})^{-1}=({\boldsymbol {\Sigma }}^{-1})^{1/2}} . Vegeu la referència anterior Seber, 2008, pàgina 221, item 10.8 (f)
  8. «Noncentral chi-square distribution» (en anglès). http://www.math.wm.edu.+[Consulta: 5 juliol 2023].
  • Vegeu aquesta plantilla
Distribucions discretes
amb suport finit
Distribucions discretes
amb suport infinit
Distribucions contínues
suportades sobre un interval acotat
Distribucions contínues
suportades sobre un interval semi-infinit
Distribucions contínues
suportades en tota la recta real
Distribucions contínues
amb el suport de varis tipus
Barreja de distribució variable-contínua
Distribució conjunta
Discreta
Ewens
Multinomial
Multinomial de Dirichlet
Multinomial negativa
Contínua
Dirichlet
Dirichlet generalitzada
Estable multivariant
Gamma normal
Gamma normal inversa
Normal multivariable
t multivariable
Matriu de valor
Matriu gamma
Matriu gamma inversa
Matriu normal
Normal de Wishart
Normal de Wishart inversa
t matriu
Wishart
Wishart inversa
Direccionals
Univariada (circular)
Asimètrica de Laplace envoltada
Cauchy envoltada
Exponencial envoltada
Lévy envoltada
Normal envoltada
Circular uniforme
Univariada de von Mises
Bivariada (esfèrica)
Kent
Bivariada (toroidal)
Bivariada de von Mises
Multivariada
von Mises-Fisher
Bingham
Degenerada i singular
Degenerada
Delta de Dirac
Singular
Cantor
Famílies