Arithmetisches Mittel

Das arithmetische Mittel, auch arithmetischer Mittelwert genannt (umgangssprachlich auch als Durchschnitt bezeichnet), ist ein Begriff in der Statistik. Es ist ein Lageparameter und beschreibt das Zentrum einer Verteilung durch einen numerischen Wert. Man berechnet diesen Mittelwert, indem man die Summe der betrachteten Zahlen durch ihre Anzahl teilt. Das arithmetische Mittel einer Stichprobe wird auch empirischer Mittelwert genannt.[1]

Definition

Die Merkmalssumme der Merkmalsausprägungen x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} dividiert durch die Anzahl der Merkmalsträger n {\displaystyle n}

x ¯ := 1 n ( x 1 + x 2 + + x n ) = 1 n i = 1 n x i {\displaystyle {\overline {x}}:={\frac {1}{n}}(x_{1}+x_{2}+\ldots +x_{n})={\frac {1}{n}}\sum _{i=1}^{n}{x_{i}}}

wird als „arithmetisches Mittel“ x ¯ {\displaystyle {\overline {x}}} (lies: x {\displaystyle x} quer) bezeichnet.[2] Wird das arithmetische Mittel nicht gewichtet (siehe auch Abschnitt Gewichtetes arithmetisches Mittel), dann wird es auch als einfaches arithmetisches Mittel oder ungewichtetes arithmetisches Mittel bezeichnet.

Zum Beispiel ist das arithmetische Mittel der beiden Zahlen 1 {\displaystyle 1} und 2 {\displaystyle 2} :

x ¯ = 1 + 2 2 = 1 , 5 {\displaystyle {\overline {x}}={\frac {1+2}{2}}=1{,}5} .

Das arithmetische Mittel beschreibt das Zentrum einer Verteilung durch einen numerischen Wert und stellt somit einen Lageparameter dar. Das arithmetische Mittel ist sinnvoll für beliebige metrische Merkmale definiert. Im Allgemeinen ist es für qualitative Merkmale nicht geeignet, jedoch liefert es für dichotome Merkmale mit zwei Kategorien k 1 = 0 {\displaystyle k_{1}=0} und k 2 = 1 {\displaystyle k_{2}=1} eine sinnvolle Interpretation. In diesem Fall ist das arithmetische Mittel identisch mit der relativen Häufigkeit f 2 = f ( k 2 ) {\displaystyle f_{2}=f(k_{2})} .[3] Gelegentlich wird zur Bezeichnung des arithmetischen Mittels auch das Durchschnittszeichen ø verwendet. Das arithmetische Mittel ist im Gegensatz zum empirischen Median anfällig gegenüber Ausreißern (siehe Median). Das arithmetische Mittel kann als „Mittelpunkt“ der Messwerte interpretiert werden. Es gibt allerdings keine Auskunft darüber, wie stark die Messwerte um das arithmetische Mittel streuen. Dieses Problem kann mit der Einführung der „mittleren quadratischen Abweichung“ vom arithmetischen Mittel, der empirischen Varianz, behoben werden.

Definition für Häufigkeitsdaten

Für Häufigkeitsdaten mit den Ausprägungen a 1 , a 2 , , a k {\displaystyle a_{1},a_{2},\ldots ,a_{k}} und den dazugehörigen absoluten Häufigkeiten H 1 , H 2 , , H k {\displaystyle H_{1},H_{2},\ldots ,H_{k}} ergibt sich das arithmetische Mittel als[4][5][6]

x ¯ := 1 n ( a 1 H 1 + a 2 H 2 + + a k H k ) = 1 n j = 1 k a j H j {\displaystyle {\overline {x}}:={\frac {1}{n}}(a_{1}H_{1}+a_{2}H_{2}+\ldots +a_{k}H_{k})={\frac {1}{n}}\sum _{j=1}^{k}{a_{j}H_{j}}}

mit

n = j = 1 k H j {\displaystyle n=\sum _{j=1}^{k}{H_{j}}}

Arithmetisches Mittel bei Schichtenbildung

Bei Vorliegen einer geschichteten Stichprobe, deren arithmetischen Mittel in Schichten bekannt sind, lässt sich das arithmetische Mittel für die Gesamterhebung berechnen. Es sei eine Erhebungsgesamtheit E {\displaystyle E} mit n {\displaystyle n} Merkmalsträgern in r {\displaystyle r} Schichten E 1 , E 2 , , E r {\displaystyle E_{1},E_{2},\ldots ,E_{r}} mit der jeweiligen Anzahl an Merkmalsträgern n 1 , n 2 , , n r {\displaystyle n_{1},n_{2},\ldots ,n_{r}} und arithmetischen Mitteln x ¯ 1 , x ¯ 2 , , x ¯ r {\displaystyle {\overline {x}}_{1},{\overline {x}}_{2},\ldots ,{\overline {x}}_{r}} eingeteilt. Das arithmetische Mittel x ¯ {\displaystyle {\overline {x}}} in E {\displaystyle E} ist dann definiert durch[4]

x ¯ := 1 n ( n 1 x ¯ 1 + n 2 x ¯ 2 + + n r x ¯ r ) = 1 n j = 1 r n j x ¯ j {\displaystyle {\overline {x}}:={\frac {1}{n}}(n_{1}{\overline {x}}_{1}+n_{2}{\overline {x}}_{2}+\ldots +n_{r}{\overline {x}}_{r})={\frac {1}{n}}\sum _{j=1}^{r}{n_{j}{\overline {x}}_{j}}} .

Rekursive Darstellung des arithmetischen Mittels

Bei der Betrachtung stationärer stochastischer Prozesse, bei denen die Daten x k {\displaystyle x_{k}} in einer zeitlich geordneten Reihenfolge erfasst werden, bietet es sich an, eine Rekursions-Formel zur Berechnung des arithmetischen Mittelwertes zu verwenden. Diese lässt sich direkt anhand der Grundformel des arithmetischen Mittelwertes herleiten. Wie in der angegebenen Formel ersichtlich werden für kleine n {\displaystyle n} die Daten x k {\displaystyle x_{k}} stärker gewichtet und für große n {\displaystyle n} der zuvor berechnete arithmetische Mittelwert. Der Vorteil der Rekursions-Formel ist, dass die Daten x k {\displaystyle x_{k}} nicht gespeichert werden müssen, was sich z. B. bei Anwendungen auf einem Microcontroller anbietet.

x ¯ n + 1 = n n + 1 x ¯ n + 1 n + 1 x n + 1 , x ¯ 0 = x 0 , n = 0 , 1 , 2 , . . . {\displaystyle {\overline {x}}_{n+1}={\frac {n}{n+1}}\cdot {\overline {x}}_{n}+{\frac {1}{n+1}}\cdot x_{n+1},\quad {\overline {x}}_{0}=x_{0},\quad n=0,1,2,...}

Ein erster Schritt, diese rekursive Variante des arithmetischen Mittelwertes auch für zeitvariable stochastische Prozesse verwendbar zu machen, ist die Einführung eines sogenannten Vergessens-Faktors γ {\displaystyle \gamma } . Zeitvariabel bedeutet hier, dass der tatsächliche Erwartungswert in Abhängigkeit der Zeit variiert. Typischerweise ist davon auszugehen, dass die Scharmittelwerte den zeitlichen Mittelwerten entsprechen. Die Einführung des Vergessens-Faktors führt dazu, dass die Rekursions-Gleichung auf solche Änderungen reagieren kann. Eine Möglichkeit ist z. B. eine prozentuale Gewichtung des Grenzwertes für n {\displaystyle n\rightarrow \infty } :

x ¯ n + 1 = γ n n + 1 x ¯ n + ( ( 1 γ ) + 1 n + 1 ) x n + 1 , x ¯ 0 = x 0 , n = 0 , 1 , 2 , . . . , γ 1 {\displaystyle {\overline {x}}_{n+1}={\frac {\gamma \cdot n}{n+1}}\cdot {\overline {x}}_{n}+\left((1-\gamma )+{\frac {1}{n+1}}\right)\cdot x_{n+1},\quad {\overline {x}}_{0}=x_{0},\quad n=0,1,2,...\;,\quad \gamma \lesssim 1}

Zur Umgehung der rationalen Terme in Abhängigkeit von n {\displaystyle n} , lässt sich diese Gleichung auch direkt im Grenzwert n {\displaystyle n\rightarrow \infty } wie folgt angeben:

x ¯ n + 1 = γ x ¯ n + ( 1 γ ) x n + 1 , x ¯ 0 = x 0 , n = 0 , 1 , 2 , . . . , γ 1 {\displaystyle {\overline {x}}_{n+1}=\gamma \cdot {\overline {x}}_{n}+(1-\gamma )\cdot x_{n+1},\quad {\overline {x}}_{0}=x_{0},\quad n=0,1,2,...\;,\quad \gamma \lesssim 1}

Ob diese Vorgehensweise in einer bestimmten Anwendung praktikabel ist, gilt es natürlich zu klären. Zu beachten ist, dass sich durch die Verwendung des Grenzwertes ein anderes "Einschwingverhalten" ergibt. Von systemtheoretischer (bzw. regelungstechnischer) Warte aus betrachtet, wird eine solche Rekursionsgleichung auch als zeitdiskretes PT1-Glied bezeichnet. In der praktischen Umgangssprache würde man den Parameter γ {\displaystyle \gamma } , so wie er hier beschrieben ist, als "Fummel-Faktor" bezeichnen, was zum Vorschein bringen soll, dass dieser zunächst einmal nicht optimal gewählt ist. Weiterführend zu diesem Thema sind das Kalman-Filter, das Wiener-Filter, der rekursive Least-Square-Algorithmus, das Maximum-Likelihood-Verfahren und generell Optimalfilter zu nennen.

Vergleich der rekursiven arithmetischen Mittelwerte mit und ohne Vergessensfaktor bei einem einfachen zeitvariablen stochastischen Prozess

Nebenstehend ist exemplarisch das Verhalten der hier angegebenen Rekursions-Gleichungen, bei einem einfachen instationären, stochastischen Prozess (bereichsweise normalverteilt) zu sehen. Im Verlaufe der Zeit weisen der Erwartungswert sowie die Varianz der Zufalls-Daten ein sprunghaftes Verhalten auf. Die einfache Rekursionsgleichung ohne Vergessensfaktor (Arithmetic Mean 1) reagiert nur sehr träge auf das Verhalten des Datensatzes. Wohingegen die Rekursionsgleichungen mit Vergessensfaktor (Arithmetic Mean 2 & 3, γ = 0.988 {\displaystyle \gamma =0.988} ) deutlich schneller reagieren. Es fällt weiterhin auf, dass die Algorithmen mit Vergessensfaktor zu einem etwas größeren Rauschen führen. In diesem Beispiel sollte jedoch klar sein, dass die schnellere Reaktionszeit Vorrang hat. Die Ergebnisse "Arithmetic Mean 2" und "Arithmetic Mean 3" unterscheiden sich hier nur sehr gering voneinander. Je nach Datensatz, vor allem je nach Menge an Daten, kann dies deutlich anders aussehen.

Eigenschaften

Ersatzwerteigenschaft

Direkt aus der Definition des arithmetischen Mittels folgt, dass

i = 1 n x i = n x ¯ {\displaystyle \sum _{i=1}^{n}{x_{i}}=n{\overline {x}}} .

Wenn man das arithmetische Mittel mit dem Stichprobenumfang n {\displaystyle n} multipliziert, dann erhält man die Merkmalssumme.[7] Diese Rechenregel wird als Ersatzwerteigenschaft oder Hochrechnungseigenschaft bezeichnet und oft bei mathematischen Beweisen verwendet. Sie kann wie folgt interpretiert werden: Die Summe aller n {\displaystyle n} Einzelwerte kann man sich ersetzt denken durch n {\displaystyle n} gleiche Werte von der Größe des arithmetischen Mittels.

Schwerpunkteigenschaft

Die Abweichungen ν i {\displaystyle \nu _{i}} der Messwerte x i {\displaystyle x_{i}} vom Mittelwert x ¯ {\displaystyle {\overline {x}}}

ν i = x i x ¯ i = 1 , , n {\displaystyle \nu _{i}=x_{i}-{\overline {x}}\quad i=1,\ldots ,n}

werden auch als „scheinbare Fehler“ bezeichnet. Die Schwerpunkteigenschaft (auch Nulleigenschaft genannt) besagt, dass die Summe der scheinbaren Fehler bzw. die Summe der Abweichungen aller beobachteten Messwerte vom arithmetischen Mittel gleich Null ist, also

i = 1 n ν i = i = 1 n ( x i x ¯ ) = 0 {\displaystyle \sum \nolimits _{i=1}^{n}\nu _{i}=\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)=0} beziehungsweise im Häufigkeitsfall i = 1 n ( x i x ¯ ) f i = 0 {\displaystyle \sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)f_{i}=0} .

Dies lässt sich mithilfe der Ersatzwerteigenschaft wie folgt zeigen:

i = 1 n ( x i x ¯ ) = i = 1 n x i i = 1 n x ¯ = n x ¯ n x ¯ = 0 {\displaystyle \sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)=\sum _{i=1}^{n}x_{i}-\sum _{i=1}^{n}{\overline {x}}=n{\overline {x}}-n{\overline {x}}=0}

Die Schwerpunkteigenschaft spielt für das Konzept der Freiheitsgrade eine große Rolle. Aufgrund der Schwerpunkteigenschaft des arithmetischen Mittels i = 1 n ( x i x ¯ ) = 0 {\displaystyle \sum \nolimits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)=0} ist die letzte Abweichung ( x n x ¯ ) {\displaystyle \left(x_{n}-{\overline {x}}\right)} bereits durch die ersten ( n 1 ) {\displaystyle (n-1)} bestimmt. Folglich variieren nur ( n 1 ) {\displaystyle (n-1)} Abweichungen frei und man mittelt deshalb, z. B. bei der empirischen Varianz, indem man durch die Anzahl der Freiheitsgrade ( n 1 ) {\displaystyle (n-1)} dividiert.[8]

Optimalitätseigenschaft

In der Statistik ist man oft daran interessiert die Summe der Abweichungsquadrate Q {\displaystyle Q} von einem Zentrum zu minimieren. Wenn man das Zentrum durch einen Wert z {\displaystyle z} auf der horizontalen Achse festlegen will, der die Summe der quadratischen Abweichungen

Q ( z ; x 1 , , x n ) = i = 1 n ( x i z ) 2 {\displaystyle Q(z;x_{1},\ldots ,x_{n})=\sum _{i=1}^{n}\left(x_{i}-z\right)^{2}}

zwischen Daten x 1 , , x n {\displaystyle x_{1},\ldots ,x_{n}} und Zentrum z {\displaystyle z} minimiert, dann ist z = x ¯ {\displaystyle z={\overline {x}}} der minimierende Wert. Dieses Resultat kann durch einfaches Ableiten der Zielfunktion Q {\displaystyle Q} nach z {\displaystyle z} gezeigt werden:

Q ( z ; x 1 , , x n ) / z = 2 i = 1 n ( x i z ) = ! 0 z = x ¯ {\displaystyle \partial \,Q(z;x_{1},\ldots ,x_{n})/\partial \,z=-2\sum _{i=1}^{n}(x_{i}-z)\;{\overset {\mathrm {!} }{=}}\;0\Rightarrow z={\overline {x}}} .

Dies ist ein Minimum, da die zweite Ableitung von Q {\displaystyle Q} nach z {\displaystyle z} gleich 2, also größer als 0 ist, was eine hinreichende Bedingung für ein Minimum ist.

Daraus ergibt sich die folgende Optimalitätseigenschaft (auch Minimierungseigenschaft genannt):

i = 1 n ( x i x ¯ ) 2 < i = 1 n ( x i z ) 2 {\displaystyle \sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}<\sum _{i=1}^{n}\left(x_{i}-z\right)^{2}} für alle z x ¯ {\displaystyle z\neq {\overline {x}}\;} [9] oder anders ausgedrückt a r g m i n z R i = 1 n ( x i z ) 2 = x ¯ {\displaystyle \;{\underset {z\in \mathbb {R} }{\rm {arg\,min}}}\,\sum _{i=1}^{n}\left(x_{i}-z\right)^{2}={\overline {x}}} [10]

Lineare Transformationseigenschaft

Je nach Skalenniveau ist das arithmetische Mittel äquivariant gegenüber speziellen Transformationen. Es gilt für die lineare Transformation[9]

y i = a + b x i y ¯ = a + b x ¯ {\displaystyle y_{i}=a+b\cdot x_{i}\Rightarrow {\overline {y}}=a+b\cdot {\overline {x}}} ,

da

y ¯ = 1 n i = 1 n y i = 1 n i = 1 n ( a + b x i ) = a + b x ¯ {\displaystyle {\overline {y}}={\frac {1}{n}}\sum _{i=1}^{n}y_{i}={\frac {1}{n}}\sum _{i=1}^{n}(a+b\cdot x_{i})=a+b\cdot {\overline {x}}} .

Dreiecksungleichungen

Für das arithmetische Mittel gilt die folgende Dreiecksungleichung: Das arithmetische Mittel von n {\displaystyle n} positiven Merkmalsausprägungen x i > 0 {\displaystyle x_{i}>0} ist größer oder gleich dem geometrischen Mittel dieser Merkmalsausprägungen, also

x 1 + x 2 + + x n n x 1 x 2 x n n {\displaystyle {\frac {x_{1}+x_{2}+\ldots +x_{n}}{n}}\geq {\sqrt[{n}]{x_{1}\cdot x_{2}\cdot \ldots \cdot x_{n}}}} .

Die Gleichheit ist nur gegeben, wenn alle Merkmalsausprägungen gleich sind. Weiterhin gilt für den Absolutbetrag des arithmetischen Mittels mehrerer Merkmalsausprägungen, dass er kleiner oder gleich dem quadratischen Mittel ist:

| x 1 + x 2 + + x n n | x 1 2 + x 2 2 + + x n 2 n {\displaystyle \left|{\frac {x_{1}+x_{2}+\ldots +x_{n}}{n}}\right|\leq {\sqrt {\frac {x_{1}^{2}+x_{2}^{2}+\ldots +x_{n}^{2}}{n}}}} .[11]

Beispiele

Einfache Beispiele

  • Das arithmetische Mittel aus 50 und 100 ist x ¯ = 50 + 100 2 = 75 {\displaystyle \quad {\overline {x}}={\frac {50+100}{2}}=75} .
  • Das arithmetische Mittel aus 8, 5 und −1 ist x ¯ = 8 + 5 + ( 1 ) 3 = 4 {\displaystyle \quad {\overline {x}}={\frac {8+5+\left(-1\right)}{3}}=4} .

Klassenspiegel, Notenspiegel, Zensurenspiegel

Häufig wird in Schulklassen bei Klassenarbeiten oder Tests ein Klassendurchschnitt mit Hilfe eines Klassenspiegels berechnet (auch Noten- oder Zensurenspiegel genannt). Der Klassenspiegel ist eine Tabelle mit zwei Zeilen. In der oberen Zeile stehen die möglichen Zensuren von 1 bis 6. In der Zeile darunter wird die Anzahl der Schüler eingetragen, die diese Zensur erreicht haben:

Beispiel für einen Klassenspiegel
Zensur 1 2 3 4 5 6 Anzahl Schüler Durchschnitt
Schüler 3 5 9 4 2 0 23 2,87

Der Klassendurchschnitt wird mit Hilfe der Formel für die Berechnung des arithmetischen Mittels für Häufigkeitsdaten berechnet.

Anwendungsbeispiel

Ein Auto fährt eine Stunde lang 100 km/h und die darauf folgende Stunde 200 km/h. Mit welcher konstanten Geschwindigkeit muss ein anderes Auto fahren, um denselben Weg ebenfalls in zwei Stunden zurückzulegen?

Der Weg s 1 {\displaystyle s_{1}} , den das erste Auto insgesamt zurückgelegt hat, beträgt

s 1 = 100   k m / h 1   h + 200   k m / h 1   h {\displaystyle s_{1}=100\ \mathrm {km/h} \cdot 1\ \mathrm {h} +200\ \mathrm {km/h} \cdot 1\ \mathrm {h} }

und der des zweiten Autos

s 2 = v 2 2   h , {\displaystyle s_{2}=v_{2}\cdot 2\ \mathrm {h} ,}

wobei v 2 {\displaystyle v_{2}} die Geschwindigkeit des zweiten Autos ist. Aus s 1 = s 2 {\displaystyle s_{1}=s_{2}} ergibt sich

v 2 2   h = 100   k m / h 1   h + 200   k m / h 1   h {\displaystyle v_{2}\cdot 2\ \mathrm {h} =100\ \mathrm {km/h} \cdot 1\ \mathrm {h} +200\ \mathrm {km/h} \cdot 1\ \mathrm {h} }

und damit

v 2 = 100   k m / h 1   h + 200   k m / h 1 h 2   h = 100   k m + 200   k m 2   h = 150   k m / h . {\displaystyle v_{2}={\frac {100\ \mathrm {km/h} \cdot 1\ \mathrm {h} +200\ \mathrm {km/h} \cdot 1\mathrm {h} }{2\ \mathrm {h} }}={\frac {100\ \mathrm {km} +200\ \mathrm {km} }{2\ \mathrm {h} }}=150\ \mathrm {km/h} .}

Gewichtetes arithmetisches Mittel

Es lässt sich auch ein gewichtetes arithmetisches Mittel definieren (auch als gewogenes arithmetisches Mittel bezeichnet). Es erweitert den Anwendungsbereich des einfachen arithmetischen Mittels auf Werte mit unterschiedlicher Gewichtung. Ein Beispiel ist die Berechnung einer Schulnote, in die mündliche und schriftliche Leistungen unterschiedlich stark einfließen. Bei Anwendung der Richmannsche Mischungsregel zur Bestimmung der Mischtemperatur zweier Körper aus gleichem Material wird ebenfalls ein gewichtetes arithmetisches Mittel berechnet.

Deskriptive Statistik

Das gewichtete Mittel wird beispielsweise verwendet, wenn man Mittelwerte x i {\displaystyle x_{i}} , i = 1 , , n {\displaystyle i=1,\dots ,n} aus n {\displaystyle n} Stichproben der gleichen Grundgesamtheit mit verschiedenen Stichprobenumfängen w i {\displaystyle w_{i}} miteinander kombinieren will:

x ¯ = i = 1 n w i x i i = 1 n w i {\displaystyle {\overline {x}}={\frac {\sum _{i=1}^{n}{w_{i}\cdot x_{i}}}{\sum _{i=1}^{n}w_{i}}}} .

Wahrscheinlichkeitsrechnung

Stichprobenmittel

Hauptartikel: Stichprobenmittel

Die konkreten Merkmalausprägungen x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} lassen sich als Realisierungen von Zufallsvariablen X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\ldots ,X_{n}} auffassen. Jeder x i {\displaystyle x_{i}} -Wert stellt somit nach der Ziehung der Stichprobe eine Realisierung der jeweiligen Zufallsvariablen X i {\displaystyle X_{i}} dar. Das arithmetische Mittel dieser Zufallsvariablen

X ¯ = 1 n i = 1 n X i {\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}

wird auch als Stichprobenmittel bezeichnet und ist ebenfalls eine Zufallsvariable.

Inverse Varianzgewichtung

Sind die X i {\displaystyle X_{i}} unabhängig verteilte Zufallsvariablen (d. h. X 1 {\displaystyle X_{1}} ist eine Zufallsvariable mit den Zufallsvariablen X 11 , , X 1 n {\displaystyle X_{11},\dots ,X_{1n}} und X 2 {\displaystyle X_{2}} ist eine Zufallsvariable mit den Zufallsvariablen X 21 , , X 2 m {\displaystyle X_{21},\dots ,X_{2m}} ) mit gemeinsamem Erwartungswert μ {\displaystyle \mu } aber unterschiedlichen Varianzen σ i 2 {\displaystyle \sigma _{i}^{2}} , so hat der gewichtete Mittelwert ebenfalls Erwartungswert μ {\displaystyle \mu } und seine Varianz beträgt

σ x ¯ 2 = i = 1 n w i 2 σ i 2 ( i = 1 n w i ) 2 {\displaystyle \sigma _{\overline {x}}^{2}={\frac {\sum _{i=1}^{n}w_{i}^{2}\sigma _{i}^{2}}{\left(\sum _{i=1}^{n}w_{i}\right)^{2}}}} .

Wählt man als Gewicht w i = 1 / σ i 2 {\displaystyle w_{i}=1/\sigma _{i}^{2}} , so vereinfacht sich die Varianz zu

σ x ¯ 2 = i = 1 n 1 σ i 4 σ i 2 ( i = 1 n 1 σ i 2 ) 2 = i = 1 n 1 σ i 2 ( i = 1 n 1 σ i 2 ) 2 = 1 i = 1 n 1 σ i 2 {\displaystyle \sigma _{\overline {x}}^{2}={\frac {\sum _{i=1}^{n}{\frac {1}{\sigma _{i}^{4}}}\sigma _{i}^{2}}{\left(\sum _{i=1}^{n}{\frac {1}{\sigma _{i}^{2}}}\right)^{2}}}={\frac {\sum _{i=1}^{n}{\frac {1}{\sigma _{i}^{2}}}}{\left(\sum _{i=1}^{n}{\frac {1}{\sigma _{i}^{2}}}\right)^{2}}}={\frac {1}{\sum _{i=1}^{n}{\frac {1}{\sigma _{i}^{2}}}}}} .

Aus der Cauchy-Schwarzschen Ungleichung folgt

( i = 1 n w i 2 σ i 2 ) ( i = 1 n 1 σ i 2 ) ( i = 1 n w i ) 2 {\displaystyle \left(\sum _{i=1}^{n}w_{i}^{2}\sigma _{i}^{2}\right)\cdot \left(\sum _{i=1}^{n}{\frac {1}{\sigma _{i}^{2}}}\right)\geq \left(\sum _{i=1}^{n}w_{i}\right)^{2}} .

Die Wahl der Gewichte w i = 1 / σ i 2 {\displaystyle w_{i}=1/\sigma _{i}^{2}} oder eine Wahl proportional dazu minimiert also die Varianz σ x ¯ 2 {\displaystyle \sigma _{\overline {x}}^{2}} des gewichteten Mittels. Mit dieser Formel lassen sich die Gewichte w i {\displaystyle w_{i}} abhängig von der Varianz des jeweiligen Wertes, der dementsprechend den Mittelwert mehr oder weniger stark beeinflusst, zweckmäßig wählen.

Unabhängig und identisch verteilte Zufallsvariablen

Sind X 1 , , X n {\displaystyle X_{1},\dotsc ,X_{n}} Zufallsvariablen, die unabhängig und identisch verteilt mit Erwartungswert μ {\displaystyle \mu } und Varianz σ 2 {\displaystyle \sigma ^{2}} sind, so hat der Stichprobenmittel X ¯ := 1 n i = 1 n X i {\displaystyle {\overline {X}}:={\frac {1}{n}}\sum \nolimits _{i=1}^{n}X_{i}} ebenfalls den Erwartungswert μ {\displaystyle \mu } , aber die kleinere Varianz V a r ( X ¯ ) = σ 2 / n {\displaystyle Var({\overline {X}})=\sigma ^{2}/n} (siehe Standardfehler). Hat also eine Zufallsvariable endlichen Erwartungswert und endliche Varianz, so folgt aus der Tschebyscheff-Ungleichung, dass das arithmetische Mittel einer Stichprobe gegen den Erwartungswert der Zufallsvariablen stochastisch konvergiert. Das arithmetische Mittel ist daher nach vielen Kriterien eine geeignete Schätzung für den Erwartungswert der Verteilung, aus der die Stichprobe stammt.

Sind die X i {\displaystyle X_{i}} speziell Stichprobenmittelwerte vom Umfang n i {\displaystyle n_{i}} aus derselben Grundgesamtheit, so hat X i {\displaystyle X_{i}} die Varianz σ 2 / n i {\displaystyle \sigma ^{2}/n_{i}} , also ist die Wahl w i = n i {\displaystyle w_{i}=n_{i}} optimal.

Gewichtetes arithmetisches Mittel als Erwartungswert

Im Falle einer diskreten Zufallsvariable X {\displaystyle X} mit abzählbar endlichem Träger ergibt sich der Erwartungswert der Zufallsvariable E ( X ) {\displaystyle \operatorname {E} (X)} als

E ( X ) = p 1 x 1 + p 2 x 2 + + p n x n {\displaystyle \operatorname {E} (X)=p_{1}x_{1}+p_{2}x_{2}+\ldots +p_{n}x_{n}} .

Hierbei ist p i = P ( X = x i ) {\displaystyle p_{i}=P(X=x_{i})} die Wahrscheinlichkeit, dass X {\displaystyle X} den Wert x i {\displaystyle x_{i}} annimmt. Dieser Erwartungswert kann als ein gewichtetes Mittel der Werte x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} mit den Wahrscheinlichkeiten p i ( i = 1 , , n ) {\displaystyle p_{i}\;(i=1,\ldots ,n)} interpretiert werden. Bei Gleichverteilung gilt p 1 = p 2 = = p n = 1 / n {\displaystyle p_{1}=p_{2}=\ldots =p_{n}=1/n} und somit wird E ( X ) {\displaystyle \operatorname {E} (X)} zum arithmetischen Mittel der Werte x i {\displaystyle x_{i}} [12]

E ( X ) = 1 n ( x 1 + x 2 + + x n ) = 1 n i = 1 n x i = x ¯ {\displaystyle \operatorname {E} (X)={\frac {1}{n}}(x_{1}+x_{2}+\ldots +x_{n})={\frac {1}{n}}\sum _{i=1}^{n}{x_{i}}={\overline {x}}} .

Beispiele für gewichtete Mittelwerte

Ein Bauer stellt im Nebenerwerb 100 kg Butter her. 10 kg kann er für 10 €/kg verkaufen, weitere 10 kg für 6 €/kg und den Rest muss er für 3 €/kg abgeben. Zu welchem (gewichtetem) Durchschnittspreis hat er seine Butter verkauft? Lösung: 10 k g 10 / k g + 10 k g 6 / k g + 80 k g 3 / k g 10 k g + 10 k g + 80 k g = 4 / k g {\displaystyle {\frac {10\;kg\cdot 10\;\mathrm {\euro} /kg+10\;kg\cdot 6\;\mathrm {\euro} /kg+80\;kg\cdot 3\;\mathrm {\euro} /kg}{10\;kg+10\;kg+80\;kg}}=4\;\mathrm {\euro} /kg} . Der mit der jeweils verkauften Menge gewichtete Durchschnittspreis entspricht also dem fixen Preis, zu dem die Gesamtmenge verkauft werden müsste, um den gleichen Erlös zu erzielen wie beim Verkauf von Teilmengen zu wechselnden Preisen.

Das arithmetische Mittel x ¯ 1 {\displaystyle {\overline {x}}_{1}} der n 1 = 3 {\displaystyle n_{1}=3} Zahlen 1, 2 und 3 beträgt 2, das arithmetische Mittel x ¯ 2 {\displaystyle {\overline {x}}_{2}} der n 2 = 2 {\displaystyle n_{2}=2} Zahlen 4 und 5 beträgt 4,5. Das arithmetische Mittel aller 5 Zahlen ergibt sich als mit dem Stichprobenumfang gewichteter Mittelwert der Teilmittelwerte:

x ¯ = n 1 x ¯ 1 + n 2 x ¯ 2 n 1 + n 2 = 3 1 + 2 + 3 3 + 2 4 + 5 2 3 + 2 = 6 + 9 3 + 2 = 3 = 1 + 2 + 3 + 4 + 5 5 . {\displaystyle {\overline {x}}={\frac {n_{1}{\overline {x}}_{1}+n_{2}{\overline {x}}_{2}}{n_{1}+n_{2}}}={\frac {3{\frac {1+2+3}{3}}+2{\frac {4+5}{2}}}{3+2}}={\frac {6+9}{3+2}}=3={\frac {1+2+3+4+5}{5}}.}

Liegen die Beobachtungen als klassierte Häufigkeit vor, kann man das arithmetische Mittel näherungsweise als gewichtetes Mittel bestimmen, wobei die Klassenmitten als Wert und der Klassenumfang als Gewicht zu wählen sind. Sind beispielsweise in einer Schulklasse ein Kind in der Gewichtsklasse 20 bis 25 kg, 7 Kinder in der Gewichtsklasse 25 bis 30 kg, 8 Kinder in der Gewichtsklasse 30 bis 35 kg und 4 Kinder in der Gewichtsklasse 35 bis 40 kg, so lässt sich das Durchschnittsgewicht als

1 22 , 5 + 7 27 , 5 + 8 32 , 5 + 4 37 , 5 1 + 7 + 8 + 4 = 625 20 = 31 , 25 {\displaystyle {\frac {1\cdot 22{,}5+7\cdot 27{,}5+8\cdot 32{,}5+4\cdot 37{,}5}{1+7+8+4}}={\frac {625}{20}}=31{,}25}

abschätzen. Um die Güte dieser Schätzung zu ermitteln, muss man dann den minimal / maximal möglichen Mittelwert ermitteln, indem man pro Intervall die kleinsten / größten Werte zugrunde legt. Damit ergibt sich dann, dass der tatsächliche Mittelwert zwischen 28,75 kg und 33,75 kg liegt. Der Fehler der Schätzung 31,25 beträgt also maximal ±2,5 kg oder ±8 %.

Der Mittelwert einer Funktion

Als Mittelwert der Riemann-integrierbaren Funktion f : [ a , b ] R {\displaystyle f\colon [a,b]\to \mathbb {R} } wird die Zahl

f ¯ := 1 b a a b f ( x ) d x {\displaystyle {\overline {f}}:={\frac {1}{b-a}}\int _{a}^{b}f(x)\mathrm {d} x}

definiert.

Die Bezeichnung Mittelwert ist insofern gerechtfertigt, als für eine äquidistante Zerlegung { x 0 , x 1 , x 2 , , x n } {\displaystyle \{x_{0},x_{1},x_{2},\dotsc ,x_{n}\}} des Intervalls mit der Schrittweite h = b a n {\displaystyle h={\tfrac {b-a}{n}}} das arithmetische Mittel

m n ( f ) := 1 n ( f ( x 1 ) + f ( x 2 ) + + f ( x n ) ) = 1 b a k = 1 n f ( x k ) h {\displaystyle m_{n}(f):={\frac {1}{n}}(f(x_{1})+f(x_{2})+\ldots +f(x_{n}))={\frac {1}{b-a}}\sum _{k=1}^{n}f(x_{k})h}

gegen f ¯ {\displaystyle {\overline {f}}\;} konvergiert.[13]

Ist f {\displaystyle f\;} stetig, so besagt der Mittelwertsatz der Integralrechnung, dass es ein ξ [ a , b ] {\displaystyle \xi \in [a,b]} gibt mit f ( ξ ) = f ¯ {\displaystyle f(\xi )={\overline {f}}} , die Funktion nimmt also an mindestens einer Stelle ihren Mittelwert an.

Der Mittelwert der Funktion f ( x ) {\displaystyle f(x)} mit dem Gewicht w ( x ) {\displaystyle w(x)\;} (wobei w ( x ) > 0 {\displaystyle w(x)>0\;} für alle x [ a , b ] {\displaystyle x\in [a,b]} ) ist

f ¯ = a b f ( t ) w ( t ) d t a b w ( t ) d t {\displaystyle {\overline {f}}={\frac {\int _{a}^{b}f(t)w(t)\mathrm {d} t}{\int _{a}^{b}w(t)\mathrm {d} t}}} .

Für Lebesgue-Integrale im Maßraum ( Ω , A , μ ) {\displaystyle (\Omega ,{\mathcal {A}},\mu )} mit einem endlichen Maß μ ( Ω ) < {\displaystyle \mu (\Omega )<\infty } lässt sich der Mittelwert einer Lebesgue-integrierbaren Funktion als

f ¯ := 1 μ ( Ω ) Ω f ( x ) d μ ( x ) {\displaystyle {\overline {f}}:={\frac {1}{\mu (\Omega )}}\int _{\Omega }f(x)\,\mathrm {d} \mu (x)}

definieren. Handelt es sich um einen Wahrscheinlichkeitsraum, gilt also μ ( Ω ) = 1 {\displaystyle \mu (\Omega )=1\;} , so nimmt der Mittelwert die Form

f ¯ := Ω f ( x ) d μ ( x ) {\displaystyle {\overline {f}}:=\int _{\Omega }f(x)\,\mathrm {d} \mu (x)}

an; das entspricht genau dem Erwartungswert von f {\displaystyle f\;} .

Der Mittelwert einer Funktion hat in Physik und Technik erhebliche Bedeutung insbesondere bei periodischen Funktionen der Zeit, siehe Gleichwert.

Quasi-arithmetischer Mittelwert (f-Mittel)

Sei f {\displaystyle f} eine auf einem reellen Intervall I {\displaystyle I} streng monotone stetige (und daher invertierbare) Funktion und seien

w i , 0 w i 1 , i w i = 1 {\displaystyle w_{i},0\leq w_{i}\leq 1,\sum _{i}w_{i}=1}

Gewichtsfaktoren. Dann ist für x i I {\displaystyle x_{i}\in I} das mit den Gewichten w i {\displaystyle w_{i}} gewichtete quasi-arithmetische Mittel definiert als

x ¯ f = f 1 ( i = 1 n w i f ( x i ) ) {\displaystyle {\overline {x}}_{f}=f^{-1}\left(\sum _{i=1}^{n}w_{i}f(x_{i})\right)} .

Offensichtlich gilt

min ( x i ) x ¯ f max ( x i ) . {\displaystyle \min(x_{i})\leq {\overline {x}}_{f}\leq \max(x_{i}).}

Für f ( x ) = x {\displaystyle f(x)=x} erhält man das arithmetische, für f ( x ) = log ( x ) {\displaystyle f(x)=\log(x)} das geometrische Mittel und für f ( x ) = x k {\displaystyle f(x)=x^{k}} das k {\displaystyle k} -Potenzmittel.

Dieser Mittelwert lässt sich auf das gewichtete quasi-arithmetische Mittel einer Funktion x {\displaystyle x} verallgemeinern, wobei f {\displaystyle f} in einem die Bildmenge von x {\displaystyle x} umfassenden Intervall streng monoton und stetig sei:

x ¯ f = f 1 ( f ( x ( t ) ) w ( t ) d t w ( t ) d t ) {\displaystyle {\overline {x}}_{f}=f^{-1}\left({\frac {\int f(x(t))w(t)\mathrm {d} t}{\int w(t)\mathrm {d} t}}\right)}

Siehe auch

Weblinks

Wikibooks: Beweis zum Arithmetischen Mittel zweier Zahlen

Einzelnachweise

  1. Karl Bosch: Elementare Einführung in die angewandte Statistik. 8. Auflage. Vieweg, Wiesbaden 2005, S. 13. 
  2. Marco Burkschat, Erhard Cramer, Udo Kamps: Beschreibende Statistik. Grundlegende Methoden der Datenanalyse. 2. Auflage. Springer, Berlin / Heidelberg 2012, ISBN 978-3-642-30012-7, S. 74. 
  3. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3, S. 49.
  4. a b Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3, S. 50.
  5. Lothar Sachs: Angewandte Statistik. Planung und Auswertung, Methoden und Modelle. 4. Auflage. Springer-Verlag, Berlin / Heidelberg / New York, ISBN 3-540-06443-5, S. 60. 
  6. Lothar Sachs: Statistische Methoden. Ein Soforthelfer. 3., neubearbeitete Auflage. Springer-Verlag, Berlin / Heidelberg / New York, ISBN 3-540-07824-X, S. 28. 
  7. Horst Degen, Peter Lorscheid: Statistik-Lehrbuch: mit Wirtschafts- und Bevölkerungsstatistik. S. 42.
  8. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3, S. 65.
  9. a b Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3, S. 54.
  10. arg min ( ) {\displaystyle \arg \min(\cdot )} bezeichnet analog zu arg max ( ) {\displaystyle \arg \max(\cdot )} (Argument des Maximums) das Argument des Minimums
  11. I. N. Bronstein, K. A. Semendjajew u. a.: Taschenbuch der Mathematik. 2. Auflage. 1995, S. 19 ff.
  12. I. N. Bronstein, K. A. Semendjajew u. a.: Taschenbuch der Mathematik. 2. Auflage. 1995, S. 629.
  13. H. Heuser: Lehrbuch der Analysis. Teil 1. 8. Auflage. Teubner, Stuttgart 1990, ISBN 3-519-12231-6.
Normdaten (Sachbegriff): GND: 4143009-8 (lobid, OGND, AKS)