Median-Regression

Die Methode der kleinsten absoluten Abweichungen, auch Median-Regression, stellt ein robustes Schätzverfahren dar, um unbekannte Parameter einer linearen Regression zu schätzen. Solch ein Schätzer wird Kleinste-Absolute-Abweichungen-Schätzer (engl. least absolute deviations estimator, LAD) genannt. Bei dieser Methode wird die Summe der absoluten Abweichungen minimiert, im Unterschied zur Methode der kleinsten Quadrate, bei der die Summe der quadrierten Abweichungen minimiert wird. Die Median-Regression ist ein Spezialfall der Quantilsregression, bei der im Allgemeinen die Beträge der positiven und negativen Abweichungen unterschiedlich gewichtet werden; bei Gleichgewichtung ergibt sich die Median-Regression.

Geschichte

Die Methode der kleinsten absoluten Abweichungen ist historisch gesehen älter als die Methode der kleinsten Quadrate. Sie wurde zuerst um 1760 von Rugjer Josip Bošković (1711–1787) vorgeschlagen.[1] In moderner Terminologie wird dieser Ansatz als Median-Regression bezeichnet, da in einem stochastischen Regressionsmodell das Resultat der Minimierung zu einem Schätzer für den Median der abhängigen Variablen bei gegebenen Werten der unabhängigen Variablen führt.[1] Die Median-Regression ist ein Spezialfall der Quantilsregression[2], wobei der Median das bei der Quantilsregression verwendete Quantil ist.

Verfahren

Siehe auch: Empirische Risikominimierung

Statt die Summe der quadrierten Abweichung zu minimieren, wird die Summe der absoluten Abweichungen

i = 1 n | y i x i β | {\displaystyle \sum _{i=1}^{n}\left|y_{i}-\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}\right|}

bzgl. β R K {\displaystyle {\boldsymbol {\beta }}\in \mathbb {R} ^{K}} minimiert. Dabei bezeichnet n {\displaystyle n} die Anzahl der Beobachtungen und K {\displaystyle K} die Anzahl der Regressionskoeffizienten, die im ( K × 1 ) {\displaystyle (K\times 1)} -Vektor β = ( β 1 , , β K ) {\displaystyle {\boldsymbol {\beta }}=(\beta _{1},\ldots ,\beta _{K})^{\top }} zusammengefasst sind. Die Werte des Regressanden (der erklärten Variablen) sind y 1 , , y n {\displaystyle y_{1},\dots ,y_{n}} und die ( K × 1 ) {\displaystyle (K\times 1)} -Vektoren x i = ( x i 1 , , x i K ) {\displaystyle \mathbf {x} _{i}=(x_{i1},\dots ,x_{iK})^{\top }} für i = 1 , , n {\displaystyle i=1,\dots ,n} enthalten die Werte der Regressoren (der erklärenden Variablen). Im Fall x i 1 = 1 {\displaystyle x_{i1}=1} für i = 1 , , n {\displaystyle i=1,\dots ,n} liegt eine Regression mit Absolutglied vor.

Eine Minimalstelle β ^ {\displaystyle {\hat {\boldsymbol {\beta }}}} , d. h. ein Vektor

β ^ = arg min β i = 1 n | y i x i β | {\displaystyle {\hat {\boldsymbol {\beta }}}=\arg \min _{\boldsymbol {\beta }}\sum _{i=1}^{n}\left|y_{i}-\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}\right|} ,

ist ein geschätzter Parametervektor.

Das Minimierungsproblem kann als Aufgabe der linearen Programmierung formuliert werden und bspw. mit dem Simplex-Verfahren gelöst werden.

Beispiel und einfachster Spezialfall

Der einfachste Spezialfall ergibt sich für K = 1 {\displaystyle K=1} , θ = β 1 {\displaystyle \theta =\beta _{1}} und einen konstanten Regressor mit x i 1 = 1 {\displaystyle x_{i1}=1} für i = 1 , , n {\displaystyle i=1,\dots ,n} . Die Minimierung von i = 1 n ( y i θ ) 2 {\displaystyle \sum _{i=1}^{n}(y_{i}-\theta )^{2}} bzgl. θ {\displaystyle \theta } für fixierte y-Werte, d. h. die Anwendung der Methode der kleinsten Quadrate, führt dann zur Minimalstelle

y ¯ = arg min θ R t = 1 n ( y i θ ) 2 , {\displaystyle {\bar {y}}=\arg \min _{\theta \in \mathbb {R} }\sum _{t=1}^{n}(y_{i}-\theta )^{2}\;,}

d. h. zum arithmetischen Mittelwert der y-Werte. Die Minimierung von i = 1 n | y i θ | {\displaystyle \sum _{i=1}^{n}|y_{i}-\theta |} bzgl. θ {\displaystyle \theta } für fixierte y-Werte führt dazu, dass jeder Median y ~ {\displaystyle {\tilde {y}}} der y-Werte eine Minimalstelle ist, also

y ~ = arg min θ R i = 1 n | y i θ | {\displaystyle {\tilde {y}}=\arg \min _{\theta \in \mathbb {R} }\sum _{i=1}^{n}|y_{i}-\theta |\;}

erfüllt. Ein Median ist in diesem Zusammenhang jede Stelle y ~ R {\displaystyle {\tilde {y}}\in \mathbb {R} } , für die zugleich

| { i { 1 , , n } y i y ~ } | n 1 / 2 und | { i { 1 , , n } y i y ~ } | n 1 / 2 {\displaystyle {\frac {|\{i\in \{1,\dots ,n\}\mid y_{i}\geq {\tilde {y}}\}|}{n}}\geq 1/2\quad {\text{und}}\quad {\frac {|\{i\in \{1,\dots ,n\}\mid y_{i}\leq {\tilde {y}}\}|}{n}}\geq 1/2}

gilt. Beispielsweise ist für n = 4 {\displaystyle n=4} und y 1 = 1 , y 2 = 2 , y 3 = 3 , y 4 = 4 {\displaystyle y_{1}=1,y_{2}=2,y_{3}=3,y_{4}=4} jeder Wert im Intervall [ 2 , 3 ] {\displaystyle [2,3]} ein Median. Im Unterschied zur Methode der kleinsten Quadrate ist bei der Minimierung der absoluten Abstände die Eindeutigkeit der Minimalstelle nicht garantiert.

Literatur

  • Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian D. Marx: Regression – Models, Methods and Applications. Springer, Berlin / Heidelberg 2013, ISBN 978-3-642-34332-2, doi:10.1007/978-3-642-34333-9 (E-Book-ISBN 978-3-642-34333-9). 

Einzelnachweise

  1. a b Ludwig Fahrmeir et al.: Regression: Models, Methods and Applications. 2013, S. 105. 
  2. Ludwig Fahrmeir et al.: Regression: Models, Methods and Applications. 2013, Kapitel 10: Quantile Regression.