Teorema del límite central

Convergencia hacia la distribución normal de una suma de variables aleatorias independientes distribuidas binomialmente.

El teorema central del límite o teorema del límite central indica que, en condiciones muy generales, si S n {\displaystyle S_{n}} es la suma de n {\displaystyle n} variables aleatorias independientes, con media y varianza finitas, entonces la función de distribución de S n {\displaystyle S_{n}} «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande.[1][2]

El nombre viene de un documento científico escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem[3]​ [Sobre el «teorema del límite» (Grenzwertsatz) central del cálculo probabilístico y el problema de los momentos], por lo que la denominación más fiel a la original sería teorema central del límite.

Este teorema ha sufrido muchos cambios durante el desarrollo formal de la teoría de la probabilidad. Las versiones anteriores del teorema se remontan a 1811, pero en su forma general moderna, este resultado fundamental en la teoría de la probabilidad se enunció con precisión en una fecha tan tardía como 1920,[4]​ sirviendo así de puente entre la teoría de la probabilidad clásica y la moderna.

Si X 1 , X 2 , , X n , {\textstyle X_{1},X_{2},\dots ,X_{n},\dots } son muestras aleatorias extraídas de una población con media global. μ {\textstyle \mu } y varianza finita. σ 2 {\textstyle \sigma ^{2}} , y si X ¯ n {\textstyle {\bar {X}}_{n}} es la media muestral de las primeras n {\textstyle n} muestras, entonces la forma límite de la distribución, Z = lim n ( X ¯ n μ σ X ¯ ) {\textstyle Z=\lim _{n\to \infty }{\left({\frac {{\bar {X}}_{n}-\mu }{\sigma _{\bar {X}}}}\right)}} , con σ X ¯ = σ / n {\displaystyle \sigma _{\bar {X}}=\sigma /{\sqrt {n}}} , es una distribución normal estándar.[5]​.

Por ejemplo, supongamos que se obtiene una muestra que contiene muchas observaciones, cada observación se genera aleatoriamente de forma que no depende de los valores de las demás observaciones, y que se calcula la media aritmética de los valores observados. Si este procedimiento se realiza muchas veces, el teorema del límite central dice que la distribución de probabilidad de la media se aproximará mucho a una distribución normal.

El teorema del límite central tiene diversas variantes. En su forma común, las variables aleatorias deben ser independientes e idénticamente distribuidas (i.i.d.). En sus variantes, la convergencia de la media a la distribución normal también se produce para distribuciones no idénticas o para observaciones no independientes, si cumplen ciertas condiciones.

La versión más antigua de este teorema, según la cual la distribución normal puede utilizarse como aproximación a la distribución binomial, es el teorema de De Moivre-Laplace.

Introducción

Sabemos que si X {\displaystyle X} es una variable aleatoria tal que X N ( μ , σ 2 ) {\displaystyle X\sim N(\mu ,\sigma ^{2})} entonces su función de densidad está dada por

f ( x ) = 1 2 π σ 2 e ( x μ ) 2 2 σ 2 {\displaystyle f(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}e^{\frac {-(x-\mu )^{2}}{2\sigma ^{2}}}}

para x R {\displaystyle x\in \mathbb {R} } donde μ {\displaystyle \mu } denota la media y σ 2 {\displaystyle \sigma ^{2}} la varianza de la variable aleatoria X {\displaystyle X} . En particular cuando μ = 0 {\displaystyle \mu =0} y σ 2 = 1 {\displaystyle \sigma ^{2}=1} obtenemos

f ( x ) = 1 2 π e x 2 2 {\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}e^{\frac {-x^{2}}{2}}}

es decir, la distribución normal estándar, denotada por X N ( 0 , 1 ) {\displaystyle X\sim N(0,1)} .

Se define la variable aleatoria S n {\displaystyle S_{n}} como la suma de n {\displaystyle n} variables aleatorias independientes e idénticamente distribuidas, cada una de ellas con una media μ {\displaystyle \mu } y varianza σ 2 < {\displaystyle \sigma ^{2}<\infty } , es decir

S n := X 1 + + X n = i = 1 n X i {\displaystyle S_{n}:=X_{1}+\cdots +X_{n}=\sum \limits _{i=1}^{n}X_{i}}

donde E [ X i ] = μ {\displaystyle \operatorname {E} [X_{i}]=\mu } y Var [ X i ] = σ 2 {\displaystyle \operatorname {Var} [X_{i}]=\sigma ^{2}} . Con lo anterior, la media de S n {\displaystyle S_{n}} es n μ {\displaystyle n\mu } y la varianza es n σ 2 {\displaystyle n\sigma ^{2}} pues son variables aleatorias independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso, se hace una estandarización de S n {\displaystyle S_{n}} como

Z n := S n n μ σ n = i = 1 n X i n μ σ n {\displaystyle Z_{n}:={\frac {S_{n}-n\mu }{\sigma {\sqrt {n}}}}={\frac {\sum _{i=1}^{n}X_{i}-n\mu }{\sigma {\sqrt {n}}}}}

para que la media de la nueva variable sea igual a 0 {\displaystyle 0} y la desviación estándar sea igual a 1 {\displaystyle 1} . Así, la variable Z n {\displaystyle Z_{n}} convergerán en distribución a la distribución normal estándar N ( 0 , 1 ) {\displaystyle N(0,1)} cuando n {\displaystyle n} tienda a infinito. Como consecuencia, si Φ ( z ) {\displaystyle \Phi (z)} es la función de distribución de N ( 0 , 1 ) {\displaystyle N(0,1)} para cada número real z {\displaystyle z} entonces

lim n P ( Z n z ) = Φ ( z ) = z 1 2 π e x 2 2 d x {\displaystyle \lim _{n\to \infty }\operatorname {P} \left(Z_{n}\leq z\right)=\Phi (z)=\int _{-\infty }^{z}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx}

donde P {\displaystyle \operatorname {P} } indica probabilidad y lim {\displaystyle \lim } se refiere a límite matemático.

Secuencias independientes

Cualquiera que sea la forma de la distribución de la población, la distribución muestral tiende a una gaussiana, y su dispersión viene dada por el teorema del límite central.[6]

Clásico CLT

Sea { X 1 , , X n } {\textstyle \{X_{1},\ldots ,X_{n}}\} una secuencia de muestras aleatorias - es decir, una secuencia de i.i. d. variables aleatorias extraídas de una distribución de valor esperado dada por μ {\textstyle \mu } y varianza finita dada por σ 2 {\textstyle \sigma ^{2}} . Supongamos que estamos interesados en la media muestral

X ¯ n X 1 + + X n n {\displaystyle {\bar {X}}_{n}\equiv {\frac {X_{1}+\cdots +X_{n}}{n}}}
de las primeras n {\textstyle n} muestras. Por la ley de los grandes números, los promedios muestrales convergen casi seguro (y por tanto también convergen en probabilidad) al valor esperado μ {\textstyle \mu } como n {\textstyle n\to \infty } ..

El teorema clásico del límite central describe el tamaño y la forma de distribución de las fluctuaciones estocásticas alrededor del número determinista μ {\textstyle \mu } durante esta convergencia. Más concretamente, afirma que a medida que n {\textstyle n} se hace mayor, la distribución de la diferencia entre la media muestral X ¯ n {\textstyle {\bar {X}}_{n}} y su límite μ {\textstyle \mu } , cuando se multiplica por el factor n {\textstyle {\sqrt {n}}} ( es decir n ( X ¯ n μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} ) se aproxima a la distribución normal con media 0 y varianza σ 2 {\textstyle \sigma ^{2}} . Para n suficientemente grande, la distribución de X ¯ n {\textstyle {\bar {X}}_{n}} se aproxima arbitrariamente a la distribución normal con media μ {\textstyle \mu } y varianza σ 2 / n {\textstyle \sigma ^{2}/n} .

La utilidad del teorema es que la distribución de n ( X ¯ n μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} se aproxima a la normalidad independientemente de la forma de la distribución de cada X i {\textstyle X_{i}} . Formalmente, el teorema puede enunciarse de la siguiente manera: Teorema de Lindeberg–Lévy CLT:

Supongamos que { X 1 , , X n , } {\textstyle \{X_{1},\ldots ,X_{n},\ldots \}} es una secuencia de variables aleatorias i.i.d. con E [ X i ] = μ {\textstyle \mathbb {E} [X_{i}]=\mu } and Var [ X i ] = σ 2 < {\textstyle \operatorname {Var} [X_{i}]=\sigma ^{2}<\infty } . Entonces se tiene n {\textstyle n} se aproxima a infinito, las variables aleatorias n ( X ¯ n μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} convergen en la distribución a una normal N ( 0 , σ 2 ) {\textstyle {\mathcal {N}}(0,\sigma ^{2})} :[7]

n ( X ¯ n μ )   d   N ( 0 , σ 2 ) . {\displaystyle {\sqrt {n}}\left({\bar {X}}_{n}-\mu \right)\ \xrightarrow {d} \ {\mathcal {N}}\left(0,\sigma ^{2}\right).}

En el caso σ > 0 {\textstyle \sigma >0} , converger en la distribución significa que la función de distribución acumulativa de n ( X ¯ n μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} convergen puntualmente a la cdf de la N ( 0 , σ 2 ) {\textstyle {\mathcal {N}}(0,\sigma ^{2})} distribución: para cada real number z {\textstyle z} ,

lim n P [ n ( X ¯ n μ ) z ] = lim n P [ n ( X ¯ n μ ) σ z σ ] = Φ ( z σ ) , {\displaystyle \lim _{n\to \infty }\mathbb {P} \left[{\sqrt {n}}({\bar {X}}_{n}-\mu )\leq z\right]=\lim _{n\to \infty }\mathbb {P} \left[{\frac {{\sqrt {n}}({\bar {X}}_{n}-\mu )}{\sigma }}\leq {\frac {z}{\sigma }}\right]=\Phi \left({\frac {z}{\sigma }}\right),}
donde Φ ( z ) {\textstyle \Phi (z)} es la fdc normal estándar evaluada at z {\textstyle z} . La convergencia es uniforme en z {\textstyle z} en el sentido de que
lim n sup z R | P [ n ( X ¯ n μ ) z ] Φ ( z σ ) | = 0   , {\displaystyle \lim _{n\to \infty }\;\sup _{z\in \mathbb {R} }\;\left|\mathbb {P} \left[{\sqrt {n}}({\bar {X}}_{n}-\mu )\leq z\right]-\Phi \left({\frac {z}{\sigma }}\right)\right|=0~,}
donde sup {\textstyle \sup } denota el límite superior mínimo (o supremum) del conjunto.[8]

Teorema

De manera formal y compacta el teorema enuncia[9]

Sean X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} variables aleatorias independientes e idénticamente distribuidas con E [ X i ] = μ {\displaystyle \operatorname {E} [X_{i}]=\mu } y Var ( X i ) = σ 2 < {\displaystyle \operatorname {Var} (X_{i})=\sigma ^{2}<\infty } , se define

Z n := i = 1 n X i n μ σ n {\displaystyle Z_{n}:={\frac {\sum _{i=1}^{n}X_{i}-n\mu }{\sigma {\sqrt {n}}}}}

Entonces la función de distribución de Z n {\displaystyle Z_{n}} converge hacia la función de distribución normal estándar cuando n {\displaystyle n\to \infty } , es decir,

lim n P ( Z n z ) = Φ ( z ) = z 1 2 π e x 2 2 d x {\displaystyle \lim _{n\to \infty }\operatorname {P} \left(Z_{n}\leq z\right)=\Phi (z)=\int _{-\infty }^{z}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx}

Es muy común encontrarlo con la variable estandarizada Z n {\displaystyle Z_{n}} en función de la media muestral X ¯ {\displaystyle {\overline {X}}} , es decir

Z n = X ¯ μ σ / n {\displaystyle Z_{n}={\frac {{\overline {X}}-\mu }{\sigma /{\sqrt {n}}}}}

puesto que son equivalentes (sólo se divide tanto numerador como denominador entre n {\displaystyle n} ).

Es importante remarcar que este teorema no dice nada acerca de la distribución de la variable aleatoria X i {\displaystyle {X_{i}}} , excepto la existencia de media y varianza.[10]

Propiedades

  • El teorema del límite central garantiza una distribución aproximadamente normal cuando n {\displaystyle n} es suficientemente grande.
  • Existen diferentes versiones del teorema, en función de las condiciones utilizadas para asegurar la convergencia. Una de las más simples establece que es suficiente que las variables que se suman sean independientes, idénticamente distribuidas, con valor esperado y varianza finitas.
  • La aproximación entre las dos distribuciones es, en general, mayor en el centro de las mismas que en sus extremos o colas, motivo por el cual se prefiere el nombre "teorema del límite central" ("central" califica al límite, más que al teorema).

Varianza nula o infinita

En el caso de n {\displaystyle n} variables aleatorias X i {\displaystyle X_{i}} independientes e idénticamente distribuidas, cada una de ellas con varianza nula o infinita, la distribución de las variables

S n = X 1 + + X n n {\displaystyle S_{n}={\frac {X_{1}+\cdots +X_{n}}{n}}}

no convergen en distribución hacia una normal.

A continuación se presentan los dos casos por separado.

Varianza infinita

Considérese el caso de variables que siguen una distribución de Cauchy:

F X i ( x ) = 1 π arctan x {\displaystyle F_{X_{i}}(x)={\frac {1}{\pi }}\arctan x}

En este caso puede demostrarse que la distribución asintótica de S n {\displaystyle S_{n}} viene dada por otra distribución de Cauchy:

F S n ( x ) = 1 π arctan x n {\displaystyle F_{S_{n}}(x)={\frac {1}{\pi }}\arctan {\frac {x}{n}}}

Para otras distribuciones de varianza infinita no es fácil dar una expresión cerrada para su distribución de probabilidad aunque su función característica sí tiene una forma sencilla, dada por el teorema de Lévy-Khintchine:[11]

φ S n ( t ) = exp [ i s t c | t | α ( 1 + i γ   t | t | u ( t , α ) ) ] {\displaystyle \varphi _{S_{n}}(t)=\exp \left[ist-c|t|^{\alpha }\left(1+i\gamma \ {\frac {t}{|t|}}u(t,\alpha )\right)\right]}

donde c 0 , 1 γ 1 , 0 < α 2 {\displaystyle c\geq 0,-1\geq \gamma \geq 1,0<\alpha \geq 2} y:

u ( t , α ) = { tan π α 2 α 1 2 π ln | t | α = 1 {\displaystyle u(t,\alpha )={\begin{cases}\tan {\cfrac {\pi \alpha }{2}}&\alpha \neq 1\\{\cfrac {2}{\pi }}\ln |t|&\alpha =1\end{cases}}}

Las condiciones anteriores equivalen a que una distribución de probabilidad sea una distribución estable.

Varianza nula

Este caso corresponde trivialmente a una función degenerada tipo delta de Dirac cuya función de distribución viene dada por:

F X i ( x ) = x δ ( s x 0 )   d s = { 0 x < x 0 1 x x 0 {\displaystyle F_{X_{i}}(x)=\int _{-\infty }^{x}\delta (s-x_{0})\ ds={\begin{cases}0&x<x_{0}\\1&x\geq x_{0}\end{cases}}}

En este caso resulta que la variable S n {\displaystyle S_{n}} trivialmente tiene la misma distribución que cada una de las variables independientes.

Véase también

Referencias

  1. Filmus, Yuval (enero a febrero de 2010). Two Proofs of the Central Limit Theorem (en inglés). pp. 1-3. Consultado el 13 de diciembre de 2010. 
  2. Grinstead, Charles M.; Snell, J. Laurie (1997). «9. Central Limit Theorem». Introduction to Probability (PDF) (en inglés) (2 edición). AMS Bookstore. pp. 325-360. ISBN 0821807498. Consultado el 15 de abril de 2009. 
  3. «The central limit theorem around 1935». Statistical Science (en inglés) 1 (1). 1986. pp. 78-91. doi:10.2307/2245503. 
  4. Fischer, Hans. «Una historia del teorema del límite central». Springer New York Dordrecht Heidelberg London. Archivado desde pdf el original el 31 de octubre de 2017. Consultado el 29 de abril de 2021. 
  5. Montgomery, Douglas C.; Runger, George C. (2014). Estadística aplicada y probabilidad para ingenieros (6th edición). Wiley. p. 241. ISBN 9781118539712. 
  6. Rouaud, Mathieu (2013). Probability, Statistics and Estimation. p. 10. Archivado desde el original el 9 de octubre de 2022. 
  7. Billingsley (1995, p. 357)
  8. Bauer (2001, Theorem 30.13, p.199)
  9. Charles Stanton. «Central limit theorem». Probability and Statistics Demos (en inglés). Archivado desde el original el 2 de junio de 2010. Consultado el 13 de diciembre de 2010. 
  10. Wasserman, Larry (2004). «5. Convergence of Random Variables». All of Statistics (en inglés). Springer. p. 77. ISBN 0-387-40272-1. 
  11. P. Ibarrola, L. Pardo y V. Quesada: Teoría de la Probabilidad, p. 521-522

Bibliografía

  • Bárány, Imre; Vu, Van (2007). «Central limit theorems for Gaussian polytopes». Annals of Probability (Institute of Mathematical Statistics) 35 (4): 1593-1621. S2CID 9128253. arXiv:math/0610192. doi:10.1214/009117906000000791. 
  • Bauer, Heinz (2001). Measure and Integration Theory. Berlin: de Gruyter. ISBN 3110167190. 
  • Billingsley, Patrick (1995). Probability and Measure (3rd edición). John Wiley & Sons. ISBN 0-471-00710-2. 
  • Bradley, Richard (2007). Introduction to Strong Mixing Conditions (1st edición). Heber City, UT: Kendrick Press. ISBN 978-0-9740427-9-4. 
  • Bradley, Richard (2005). «Basic Properties of Strong Mixing Conditions. A Survey and Some Open Questions». Probability Surveys 2: 107-144. Bibcode:2005math.....11078B. S2CID 8395267. arXiv:math/0511078. doi:10.1214/154957805100000104. 
  • Dinov, Ivo; Christou, Nicolas; Sanchez, Juana (2008). «Central Limit Theorem: New SOCR Applet and Demonstration Activity». Journal of Statistics Education (ASA) 16 (2): 1-15. PMC 3152447. PMID 21833159. doi:10.1080/10691898.2008.11889560. Archivado desde el original el 3 de marzo de 2016. Consultado el 16 de mayo de 2023. 
  • Durrett, Richard (2004). Probability: theory and examples (3rd edición). Cambridge University Press. ISBN 0521765390. 
  • Gaposhkin, V. F. (1966). «Lacunary series and independent functions». Russian Mathematical Surveys 21 (6): 1-82. Bibcode:1966RuMaS..21....1G. S2CID 250833638. doi:10.1070/RM1966v021n06ABEH001196. .
  • Klartag, Bo'az (2007). «A central limit theorem for convex sets». Inventiones Mathematicae 168 (1): 91-131. Bibcode:2007InMat.168...91K. S2CID 119169773. arXiv:math/0605014. doi:10.1007/s00222-006-0028-8. 
  • Klartag, Bo'az (2008). «A Berry–Esseen type inequality for convex bodies with an unconditional basis». Probability Theory and Related Fields 145 (1–2): 1-33. S2CID 10163322. arXiv:0705.0832. doi:10.1007/s00440-008-0158-6. 
  • Blaiotta, Jimena; Delieutraz, Pablo (30 de julio de 2004). «Teorema central del límite» (PDF). Consultado el 15 de diciembre de 2010. 
  • Behar Gutiérrez, Roberto; Grima Cintas, Pere (2004). 55 respuestas a dudas típicas de Estadística. Madrid: Ediciones Díaz de Santos, S.A. pp. 187-189. ISBN 84-7978-643-4. 

Enlaces externos

  • Wikimedia Commons alberga una categoría multimedia sobre Teorema del límite central.
  • Central Limit Theorem at Khan Academy
  • Hazewinkel, Michiel, ed. (2001), «Teorema del límite central», Encyclopaedia of Mathematics (en inglés), Springer, ISBN 978-1556080104 .
  • Weisstein, Eric W. «Central Limit Theorem». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research. 
  • A music video demonstrating the central limit theorem with a Galton board by Carl McTague
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q190391
  • Commonscat Multimedia: Central limit theorem / Q190391

  • Identificadores
  • BNF: 122653738 (data)
  • GND: 4067618-3
  • LCCN: sh85021905
  • NLI: 987007284968305171
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q190391
  • Commonscat Multimedia: Central limit theorem / Q190391