Méthode delta

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Delta (homonymie).

Méthode delta
Type
Méthode statistique (d)Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

En probabilité et en statistiques, la méthode delta (ou delta méthode) est une méthode pour obtenir une approximation de la distribution asymptotique de la transformée d'une variable aléatoire asymptotiquement normale. Plus généralement, on peut considérer la méthode delta comme une extension du théorème central limite.

Cas univarié

Soit une suite de variables aléatoires X 1 , , X n {\displaystyle X_{1},\ldots ,X_{n}} . Si n [ X n θ ] L N ( 0 , σ 2 ) , {\displaystyle {{\sqrt {n}}[X_{n}-\theta ]\,{\xrightarrow {L}}\,{\mathcal {N}}(0,\sigma ^{2})},} pour deux constantes finies θ {\displaystyle \theta } et σ 2 {\displaystyle \sigma ^{2}} et où L {\displaystyle {\xrightarrow {L}}} dénote la convergence en loi, alors, la méthode delta donne, pour toute fonction g {\displaystyle g} dérivable et telle que g ( θ ) 0 {\displaystyle g'(\theta )\neq 0}  :

n [ g ( X n ) g ( θ ) ] L N ( 0 , σ 2 [ g ( θ ) ] 2 ) {\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]\,{\xrightarrow {L}}\,{\mathcal {N}}(0,\sigma ^{2}[g'(\theta )]^{2})}} [1].

Cas multivarié

Soit X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} une suite de vecteurs aléatoires de R d {\displaystyle \mathbb {R} ^{d}} , g : R d R s {\displaystyle g:\mathbb {R} ^{d}\longrightarrow \mathbb {R} ^{s}} une fonction différentiable en θ {\displaystyle \theta } . Supposons que n [ X n θ ] L N d ( 0 , Σ ) {\textstyle {{\sqrt {n}}[X_{n}-\theta ]\,{\xrightarrow {L}}\,{\mathcal {N}}_{d}(0,\Sigma )}} N d ( 0 , Σ ) {\displaystyle {\mathcal {N}}_{d}(0,\Sigma )} désigne la loi normale d {\displaystyle d} -dimensionnelle centrée de matrice de variance-covariance Σ {\displaystyle \Sigma } . Dans ce cas la méthode delta s'écrit :

n [ g ( X n ) g ( θ ) ] L N s ( 0 , D g ( θ ) Σ D g ( θ ) T ) {\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]\,{\xrightarrow {L}}\,{\mathcal {N}}_{s}\left(0,Dg(\theta )\Sigma Dg(\theta )^{T}\right)}}
avec D g ( θ ) {\displaystyle Dg(\theta )} la matrice jacobienne de g {\displaystyle g} en θ {\displaystyle \theta } .

Exemple

Soit X 1 , , X n {\displaystyle X_{1},\ldots ,X_{n}} une suite de variables aléatoires d'espérance μ {\displaystyle \mu } et de variance σ 2 {\displaystyle \sigma ^{2}} . D'après le théorème central-limite, on sait que n [ X n ¯ μ ] L N ( 0 , σ 2 ) {\displaystyle {\sqrt {n}}[{\bar {X_{n}}}-\mu ]\,{\xrightarrow {L}}\,{\mathcal {N}}(0,\sigma ^{2})} . Maintenant, si l'on définit W n = e X n ¯ {\displaystyle W_{n}=e^{\bar {X_{n}}}} , on peut obtenir la distribution asymptotique de W n {\displaystyle W_{n}} grâce à la méthode delta. Dans ce cas, on a la fonction g ( x ) = e x {\displaystyle g(x)=e^{x}} . On sait que cette fonction vérifie g ( x ) = e x {\displaystyle g'(x)=e^{x}} . En appliquant la méthode delta, on obtient n [ e X n ¯ e μ ] L N ( 0 , σ 2 e 2 μ ) {\displaystyle {\sqrt {n}}[e^{\bar {X_{n}}}-e^{\mu }]\,{\xrightarrow {L}}\,{\mathcal {N}}(0,\sigma ^{2}e^{2\mu })} [1].

Bibliographie

  • (en) Gary W. Oehlert, « A Note on the Delta Method », The American Statistician, vol. 46, no 1,‎ , p. 27-29 (DOI 10.1080/00031305.1992.10475842, JSTOR 2684406)

Notes et références

  1. a et b (en) Larry Wasserman, All of Statistics : A Concise Course in Statistical Inference, Springer, coll. « Springer Texts in Statistics », , p. 79
  • icône décorative Portail des probabilités et de la statistique