Zentraler Grenzwertsatz

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Zentraler Grenzwertsatz (Begriffsklärung) aufgeführt.
Annäherung von symmetrischen (oben) und schiefen (unten) standardisierten Binomialverteilungen mit den Parametern n {\displaystyle n} und p {\displaystyle p} (rot) an die Standardnormalverteilung (grün)

Der zentrale Grenzwertsatz (von Lindeberg-Lévy) (auch CLT von englisch central limit theorem), genauer zentraler Grenzverteilungssatz, ist ein bedeutendes Resultat der Wahrscheinlichkeitstheorie.[1]

Der zentrale Grenzwertsatz liefert die Begründung für das Phänomen, dass der Stichprobenmittelwert als Zufallsvariable (unter gewissen Bedingungen) näherungsweise normalverteilt ist. Insbesondere wegen der additiven Überlagerung vieler unabhängiger Zufallseinflüsse, wenn die Varianz dieser Zufallseinflüsse endlich ist.[1]

Für andere zentrale Grenzwertsätze, siehe zentrale Grenzwertsätze, welche unter anderem beschreiben, dass neben der Normalverteilung auch andere α-stabile Verteilungen als Grenzverteilungen auftreten, falls Verteilungen berücksichtigt werden, die keine endliche Varianz besitzen.

Der Satz ist benannt nach dem finnischen Mathematiker Jarl Waldemar Lindeberg (1876–1932) und dem französischen Statistiker Paul Lévy (1886–1971). Die Bezeichnung geht auf G. Pólyas Arbeit Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem von 1920 zurück.[2]

Es existieren verschiedene Verallgemeinerungen, für die eine identische Verteilung keine notwendige Voraussetzung ist. Stattdessen wird dann eine andere Voraussetzung gefordert, die sicherstellt, dass keine der Variablen zu großen Einfluss auf das Ergebnis erhält. Beispiele sind die Lindeberg-Bedingung und die Ljapunow-Bedingung. Darüber hinausgehende Verallgemeinerungen gestatten sogar „schwache“ Abhängigkeit der Zufallsvariablen. Die Klasse der Verallgemeinerungen des zentralen Grenzwertsatzes wird zentrale Grenzwertsätze genannt.

Zentraler Grenzwertsatz bei identischer Verteilung

Sei X 1 , X 2 , X 3 , {\displaystyle X_{1},X_{2},X_{3},\dots } eine Folge von Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum mit dem Wahrscheinlichkeitsmaß P {\displaystyle P} alle dieselbe Wahrscheinlichkeitsverteilung aufweisen und unabhängig sind (unabhängig und identisch verteilte Zufallsvariablen). Sei weiter angenommen, dass sowohl der Erwartungswert μ {\displaystyle \mu } als auch die Standardabweichung σ > 0 {\displaystyle \sigma >0} existieren und endlich sind.

Betrachten wir nun die n {\displaystyle n} -te Teilsumme dieser Folge von Zufallsvariablen S n = X 1 + X 2 + + X n {\displaystyle S_{n}=X_{1}+X_{2}+\cdots +X_{n}} .

Der Erwartungswert von S n {\displaystyle S_{n}} ist n μ {\displaystyle n\mu } und die Varianz ist n σ 2 {\displaystyle n\sigma ^{2}} (siehe Gleichung von Bienaymé).

Bildet man daraus die standardisierte Zufallsvariable

Z n = S n n μ σ n = 1 n S n μ σ n , {\displaystyle Z_{n}={\frac {S_{n}-n\mu }{\sigma {\sqrt {n}}}}={\frac {{\frac {1}{n}}S_{n}-\mu }{\frac {\sigma }{\sqrt {n}}}},}

dann besagt der Zentrale Grenzwertsatz, dass die Verteilungsfunktion von Z n {\displaystyle Z_{n}} für n {\displaystyle n\to \infty } punktweise gegen die Verteilungsfunktion Φ {\displaystyle \Phi } der Standardnormalverteilung N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} konvergiert. Dies entspricht genau dem Begriff der Konvergenz in Verteilung in der Stochastik. Ist Φ {\displaystyle \Phi } die Verteilungsfunktion von N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} , dann bedeutet dies, dass für jedes reelle z {\displaystyle z}

lim n P ( Z n z ) = Φ ( z ) . {\displaystyle \lim _{n\to \infty }P(Z_{n}\leq z)=\Phi (z).}

In etwas anderer Schreibweise erhält man

lim n P ( X ¯ n μ σ / n z ) = Φ ( z ) , {\displaystyle \lim _{n\rightarrow \infty }P\left({\frac {{\overline {X}}_{n}-\mu }{\sigma /{\sqrt {n}}}}\leq z\right)=\Phi (z),}

wobei

X ¯ n = S n n = X 1 + + X n n {\displaystyle {\overline {X}}_{n}={\frac {S_{n}}{n}}={\frac {X_{1}+\cdots +X_{n}}{n}}}

der Mittelwert der ersten n {\displaystyle n} Summanden der Zufallsvariablen ist.

Bemerkungen

  • Der Beweis des Zentralen Grenzwertsatzes erfolgt meist auf Basis allgemeiner Sätze über die Eigenschaften von charakteristischen Funktionen. Auf deren Grundlage reicht es, die Momente beziehungsweise Kumulanten der Folgenglieder Z n {\displaystyle Z_{n}} und so die Koeffizienten der Taylorreihe der charakteristischen Funktion zu bestimmen. Letzteres ist aber einfach möglich (siehe Artikel Kumulante, Abschnitt Zentraler Grenzwertsatz).
  • Der Zentrale Grenzwertsatz kann aber auch elementar, das heißt ohne das tiefliegende Hilfsmittel der charakteristischen Funktion, bewiesen werden. Dazu werden Erwartungswerte der Form E ( f ( Z n ) ) {\displaystyle \operatorname {E} (f(Z_{n}))} untersucht, die einerseits im Fall einer Indikatorfunktion f = 1 [ a , b ] {\displaystyle f=\mathbf {1} _{[a,b]}} eines abgeschlossenen Intervalls [ a , b ] {\displaystyle [a,b]} der Wahrscheinlichkeit P ( a Z n b ) {\displaystyle P(a\leq Z_{n}\leq b)} entsprechen und andererseits in Fällen einer genügend glatten Funktion f {\displaystyle f} gut approximiert werden können. Dieses Verfahren eines elementaren Beweises stammt von Jarl Waldemar Lindeberg.[3]
  • Endliche Stichprobenumfänge lassen die Frage nach der Konvergenzgüte aufsteigen. Unter bestimmten Bedingungen liefert der Satz von Berry-Esseen eine Antwort: Existiert das dritte zentrierte Moment E ( ( X 1 μ ) 3 ) {\displaystyle \operatorname {E} ((X_{1}-\mu )^{3})} und ist es endlich, dann ist die Konvergenz zur Normalverteilung gleichmäßig und die Konvergenzgeschwindigkeit wenigstens von der Ordnung 1 / n {\displaystyle 1/{\sqrt {n}}} .
  • Da für stochastisch unabhängige normalverteilte Zufallsvariablen die Summe wieder normalverteilt ist (da die Normalverteilung eine alpha-stabile Verteilung ist), gilt für diese der zentrale Grenzwertsatz im Endlichen, genauer ist Z n {\displaystyle Z_{n}} für jedes n {\displaystyle n} bereits standardnormalverteilt.

Verallgemeinerungen

Hauptartikel: Zentrale Grenzwertsätze

Eine Verallgemeinerung des Zentralen Grenzwertsatzes ist der mehrdimensionale zentrale Grenzwertsatz. Er liefert Aussagen über die Konvergenz der Verteilungen von Zufallsvektoren gegen die mehrdimensionale Standardnormalverteilung.

Eine weitere Verallgemeinerung ist der zentrale Grenzwertsatz von Lindeberg-Feller. Er lässt auch gewisse Abhängigkeiten zwischen den Zufallsvariablen zu, indem er sie zu Gruppen zusammenfasst und die Unabhängigkeit nur innerhalb dieser Gruppen fordert. Die Folge dieser Gruppen wird ein Schema von Zufallsvariablen genannt. Die Lindeberg-Bedingung und die Ljapunow-Bedingung lassen sich auch für Schemata von Zufallsvariablen formulieren und liefern damit Kriterien für die Konvergenz bei Verwendung von Schemata.

In Banach-Räumen

Der zentrale Grenzwertsatz lässt sich nicht mehr direkt auf unendlichdimensionale Räume erweitern und hängt von der zugrunde liegenden Geometrie ab. Für Banach-Räume führen wir folgende Definition ein:

Sei ( B , B ) {\displaystyle (B,\|\cdot \|_{B})} ein Banach-Raum, X = ( X i ) i N {\displaystyle X=(X_{i})_{i\in \mathbb {N} }} eine Folge unabhängiger B {\displaystyle B} -wertiger Zufallsvariablen mit gemeinsamer Radon-Verteilung. Sei Z n = n 1 / 2 ( X 1 + + X n ) {\displaystyle Z_{n}=n^{-1/2}(X_{1}+\cdots +X_{n})} und μ n {\displaystyle \mu _{n}} die Verteilung von Z n {\displaystyle Z_{n}} . Dann erfüllt X {\displaystyle X} den zentralen Grenzwertsatz, wenn μ n {\displaystyle \mu _{n}} B {\displaystyle \|\cdot \|_{B}} -schwach gegen ein Radon-Gauß-Maß konvergiert, wenn n {\displaystyle n\to \infty } .

Jørgen Hoffmann-Jørgensen und Gilles Pisier zeigten 1976, dass wenn E [ X i ] = 0 {\displaystyle \mathbb {E} [X_{i}]=0} und E [ X i B 2 ] < {\displaystyle \mathbb {E} [\|X_{i}\|_{B}^{2}]<\infty } für alle i N {\displaystyle i\in \mathbb {N} } und B {\displaystyle B} vom Typ 2 ist, dann erfüllt X {\displaystyle X} den zentralen Grenzwertsatz.[4] Allgemein gilt für Typ 2 ε {\displaystyle 2-\varepsilon } und ε > 0 {\displaystyle \varepsilon >0} der Satz nicht.

Beweis-Techniken für zentrale Grenzwertsätze

Um zentrale Grenzwertsätze zu beweisen gibt es verschiedene Möglichkeiten, zum Beispiel die Methode von Stein oder Techniken aus der Fourier-Analysis.

Literatur

  • Hans Fischer, A History of the Central Limit Theorem. From Classical to Modern Probability Theory, New York 2011, ISBN 978-0-387-87856-0, doi:10.1007/978-0-387-87857-7.

Siehe auch

Weblinks

Einzelnachweise

  1. a b Zentraler Grenzwertsatz. In: Guido Walz (Hrsg.): Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8. 
  2. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics.
    George Pólya: Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem, Mathematische Zeitschrift, 8, 1920, S. 171–181 (online)
  3. Jarl Waldemar Lindeberg: Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung, Mathematische Zeitschrift, Band 15, 1922, S. 211–225 (Online-Version).
    Siehe auch Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3-8348-1753-2, doi:10.1007/978-3-8348-8264-6, S. 139–146.
  4. Jørgen Hoffmann-Jørgensen und Gilles Pisier: The Law of Large Numbers and the Central Limit Theorem in Banach Spaces. In: Ann. Probab. Band 4, Nr. 4, 1976, S. 587 - 599, doi:10.1214/aop/1176996029. 
Normdaten (Sachbegriff): GND: 4067618-3 (lobid, OGND, AKS)