Schätzung der Varianz einer Schätzfunktion

Die Artikel Schätzung der Varianz einer Schätzfunktion und Standardfehler überschneiden sich thematisch. Informationen, die du hier suchst, können sich also auch im anderen Artikel befinden.
Gerne kannst du dich an der betreffenden Redundanzdiskussion beteiligen oder direkt dabei helfen, die Artikel zusammenzuführen oder besser voneinander abzugrenzen (→ Anleitung).
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst.
Dieser Artikel beschreibt Varianzschätzung im Sinne einer Schätzung der Varianz einer Schätzfunktion eines unbekannten Parameter der Grundgesamtheit. Für die Schätzung der Varianz der Grundgesamtheit siehe Schätzung der Varianz der Grundgesamtheit.

Als Schätzung der Varianz einer Schätzfunktion wird in der Statistik die Schätzung der Varianz einer Schätzfunktion, eines unbekannten Parameter der Grundgesamtheit bezeichnet. Diese Schätzung ist eine Methode zur Messung der Genauigkeit von Schätzverfahren. Sie erlaubt die Konstruktion von Konfidenzintervallen (Intervallschätzung).

Hat man eine Schätzfunktion θ ^ {\displaystyle {\hat {\theta }}} für einen unbekannten Parameter θ {\displaystyle \theta } der Grundgesamtheit, so hat man zunächst nur eine Punktschätzung ϑ ^ {\displaystyle {\hat {\vartheta }}} für diesen. Man ist jedoch daran interessiert, auch Konfidenzintervalle für den geschätzten Parameter anzugeben, d. h. man muss die Verteilung und die Varianz von θ ^ {\displaystyle {\hat {\theta }}} kennen.

Dies ist jedoch nicht immer möglich und deswegen gibt es verschiedene Verfahren:

  • direkte Verfahren auf Basis der Likelihood-Funktion,
  • lineare Approximation der log-Likelihood-Funktion und
  • Resampling-Methoden.

Wurde die Schätzfunktion θ ^ {\displaystyle {\hat {\theta }}} mit Hilfe der Maximum-Likelihood-Methode berechnet, so weiß man über das asymptotische Konvergenzverhalten:

  • lim n θ ^ N ( θ ; Σ θ ^ ) {\displaystyle \lim _{n\to \infty }{\hat {\theta }}\longrightarrow {\mathcal {N}}(\theta ;\Sigma _{\hat {\theta }})} Konvergenz in Verteilung sowie
  • lim n Var ( θ ^ ) I 1 ( θ ) = Σ θ ^ {\displaystyle \lim _{n\to \infty }\operatorname {Var} ({\hat {\theta }})\longrightarrow {\mathcal {I}}^{-1}(\theta )=\Sigma _{\hat {\theta }}}

mit Σ θ ^ {\displaystyle \Sigma _{\hat {\theta }}} die Kovarianzmatrix der Schätzfunktion(en) θ ^ {\displaystyle {\hat {\theta }}} und I ( θ ) {\displaystyle I(\theta )} die Fisher-Informationsmatrix.

Bei bekannter Verteilung

Lässt sich die Verteilung von θ ^ {\displaystyle {\hat {\theta }}} zumindest näherungsweise bestimmen, beispielsweise mit Hilfe des zentralen Grenzwertsatzes, so lässt sich die Varianz leicht schätzen.

Ein Beispiel ist der Stichprobenmittelwert X ¯ = 1 n i = 1 n X i {\displaystyle {\bar {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}} (einer normalverteilten Grundgesamtheit bzw. bei Gültigkeit des zentralen Grenzwertsatzes bei einer beliebigen Verteilung in der Grundgesamtheit):

X ¯ N ( μ ; σ 2 n ) , {\displaystyle {\bar {X}}\sim {\mathcal {N}}\left(\mu ;{\frac {\sigma ^{2}}{n}}\right),}

siehe auch Standardfehler des Stichprobenmittelwertes.

Daraus lässt sich das Konfidenzintervall ableiten

P ( X ¯ z 1 α / 2 σ n μ X ¯ + z 1 α / 2 σ n ) 1 α {\displaystyle P\left({\bar {X}}-z_{1-\alpha /2}{\frac {\sigma }{\sqrt {n}}}\leq \mu \leq {\bar {X}}+z_{1-\alpha /2}{\frac {\sigma }{\sqrt {n}}}\right)\approx 1-\alpha }

mit z 1 α / 2 {\displaystyle z_{1-\alpha /2}} aus der Standardnormalverteilung.

Direkte Verfahren

Bei direkten Verfahren nutzt man die Darstellung

Var ( θ ^ ) = E [ ( θ ^ θ ) 2 ] = ( θ ^ θ ) 2 L ( x 1 , , x n | θ ) d x 1 d x n {\displaystyle \operatorname {Var} ({\hat {\theta }})=E[({\hat {\theta }}-\theta )^{2}]=\int ({\hat {\theta }}-\theta )^{2}L(x_{1},\ldots ,x_{n}|\theta )dx_{1}\ldots dx_{n}} bzw. multivariat σ i j ( θ ^ ) = ( θ ^ i θ i ) ( θ ^ j θ j ) L ( x 1 , , x n | θ ) d x 1 d x n {\displaystyle \sigma _{ij}({\hat {\theta }})=\int ({\hat {\theta }}_{i}-\theta _{i})({\hat {\theta }}_{j}-\theta _{j})L(x_{1},\ldots ,x_{n}|\theta )dx_{1}\ldots dx_{n}}

Darauf basierende Varianzschätzungen kann man meist nur bei einfachen Punktschätzern angeben. Hier werden Approximationsformeln nur bei Stichprobendesigns mit Inklusionswahrscheinlichkeiten zweiter Ordnung benötigt. Exakte Methoden, das heißt einfach auszurechnende Formeln können im Fall eines Linearen Schätzers angegeben werden.

Jedoch sind weder der wahre Parameter θ {\displaystyle \theta } noch die Funktion L ( x 1 , , x n | θ ) {\displaystyle L(x_{1},\ldots ,x_{n}|\theta )} bekannt. Daher werden die Schätzwerte und die normierte Likelihood-Funktion als Wahrscheinlichkeitsdichte für θ {\displaystyle \theta } genutzt:

Var ^ ( θ ^ ) = ( θ ϑ ^ ) 2 L ( x 1 , , x n | θ ) d θ L ( x 1 , , x n | θ ) d θ {\displaystyle {\widehat {\operatorname {Var} }}({\hat {\theta }})={\frac {\int (\theta -{\hat {\vartheta }})^{2}L(x_{1},\ldots ,x_{n}|\theta )d\theta }{\int L(x_{1},\ldots ,x_{n}|\theta )d\theta }}} bzw. multivariat σ ^ i j ( θ ^ ) = ( θ i ϑ ^ i ) ( θ j ϑ ^ j ) L ( x 1 , , x n | θ ) d θ 1 d θ m L ( x 1 , , x n | θ ) d θ 1 d θ m {\displaystyle {\hat {\sigma }}_{ij}({\hat {\theta }})={\frac {\int (\theta _{i}-{\hat {\vartheta }}_{i})(\theta _{j}-{\hat {\vartheta }}_{j})L(x_{1},\ldots ,x_{n}|\theta )d\theta _{1}\ldots d\theta _{m}}{\int L(x_{1},\ldots ,x_{n}|\theta )d\theta _{1}\ldots d\theta _{m}}}}

Die Schätzung erfolgt dann mit Hilfe numerischer Integration.

Lineare Approximation

Bei nicht-linearen Schätzern (z. B. einem Ratio-Schätzer) kommen approximative Methoden zum Einsatz. Kann man die log-Likelihood-Funktion mit der Taylorapproximation um das Maximum entwickeln

log ( L ( x 1 , , x n | θ ) ) log ( L ( x 1 , , x n | ϑ ^ ) = L max ) + ( θ ϑ ^ ) log ( L ) θ | θ = ϑ ^ = 0 + 1 2 ( θ ϑ ^ ) 2 2 log ( L ) θ 2 | θ = ϑ ^ {\displaystyle \log(L(x_{1},\ldots ,x_{n}|\theta ))\approx \log(\underbrace {L(x_{1},\ldots ,x_{n}|{\hat {\vartheta }})} _{=L_{\text{max}}})+\underbrace {\left(\theta -{\hat {\vartheta }}\right)\left.{\frac {\partial \log(L)}{\partial \theta }}\right|_{\theta ={\hat {\vartheta }}}} _{=0}+{\tfrac {1}{2}}\left(\theta -{\hat {\vartheta }}\right)^{2}\left.{\frac {\partial ^{2}\log(L)}{\partial \theta ^{2}}}\right|_{\theta ={\hat {\vartheta }}}}

und unter Ausnutzung der Definition der Fisher-Informationsmatrix

log ( L ( x 1 , , x n | θ ) ) log ( L max ) 1 2 ( θ ϑ ^ ) 2 σ θ ^ 1 {\displaystyle \log(L(x_{1},\ldots ,x_{n}|\theta ))\approx \log(L_{\text{max}})-{\tfrac {1}{2}}\left(\theta -{\hat {\vartheta }}\right)^{2}\sigma _{\hat {\theta }}^{-1}}

folgt

σ ^ θ ^ = ( 2 log ( L ) θ 2 | θ = ϑ ^ ) 1 {\displaystyle {\hat {\sigma }}_{\hat {\theta }}=\left(-\left.{\frac {\partial ^{2}\log(L)}{\partial \theta ^{2}}}\right|_{\theta ={\hat {\vartheta }}}\right)^{-1}} .

Alternativ können durch die Woodruff-Linearisierung nicht-lineare Schätzer zu linearen umgewandelt werden.

Resampling-Methoden

Eine weitere Möglichkeit stellen Resamplingmethoden wie beispielsweise das Bootstrapping-Verfahren dar. Hierbei werden B {\displaystyle B} Substichproben zufällig aus der vorhandenen Stichprobe gezogen und mit diesen ein Schätzwert ϑ ^ ( i ) {\displaystyle {\hat {\vartheta }}^{(i)}} berechnet. Diese Schätzwerte sind eine empirische Approximation an die unbekannte Verteilung von θ ^ {\displaystyle {\hat {\theta }}} .

Stichprobe: x 1 , x n {\displaystyle x_{1},\ldots x_{n}} ϑ ^ {\displaystyle \longrightarrow {\hat {\vartheta }}}
Stichprobenwiederholung 1: x 1 ( 1 ) , x n ( 1 ) {\displaystyle x_{1}^{(1)},\ldots x_{n}^{(1)}} ϑ ^ ( 1 ) {\displaystyle \longrightarrow {\hat {\vartheta }}^{(1)}}
{\displaystyle \vdots } {\displaystyle \vdots } {\displaystyle \vdots }
Stichprobenwiederholung B:  x 1 ( B ) , x n ( B ) {\displaystyle x_{1}^{(B)},\ldots x_{n}^{(B)}} ϑ ^ ( B ) {\displaystyle \longrightarrow {\hat {\vartheta }}^{(B)}}

Daher ergibt sich

Var ^ ( θ ^ ) = 1 B 1 i = 1 B ( ϑ ^ ( i ) ϑ ¯ ) 2 {\displaystyle {\widehat {\operatorname {Var} }}({\hat {\theta }})={\frac {1}{B-1}}\sum _{i=1}^{B}\left({\hat {\vartheta }}^{(i)}-{\bar {\vartheta }}\right)^{2}}

mit ϑ ¯ = 1 B i = 1 B ϑ ^ ( i ) {\displaystyle {\bar {\vartheta }}={\frac {1}{B}}\sum _{i=1}^{B}{\hat {\vartheta }}^{(i)}} . Bei der Schätzung kann das Stichprobendesign durch Gewichtung berücksichtigt werden.