Logarithmische Normalverteilung

Die logarithmische Normalverteilung (kurz Log-Normalverteilung) ist eine kontinuierliche Wahrscheinlichkeitsverteilung für eine Variable, die nur positive Werte annehmen kann. Sie beschreibt die Verteilung einer Zufallsvariablen X {\displaystyle X} , wenn die mit dem Logarithmus transformierte Zufallsvariable Y = ln ( X ) {\displaystyle Y=\ln(X)} normalverteilt ist. Sie bewährt sich als Modell für viele Messgrößen in Naturwissenschaften, Medizin und Technik, beispielsweise für Energien, Konzentrationen, Längen und Mengenangaben.

In Analogie zu einer normalverteilten Zufallsvariablen, die nach dem zentralen Grenzwertsatz als Summe vieler verschiedener Zufallsvariablen aufgefasst werden kann, entsteht eine logarithmisch normalverteilte Zufallsvariable durch das Produkt vieler positiver Zufallsvariablen. Somit ist die Log-Normalverteilung die einfachste Verteilungsart für multiplikative Zufallsprozesse. Da multiplikative Gesetze in den Naturwissenschaften, der Ökonomie und der Technik eine größere Rolle spielen als additive, ist die Log-Normalverteilung in vielen Anwendungen diejenige, die der Theorie am besten entspricht – der zweite Grund, weshalb sie vielfach anstelle der gewöhnlichen, additiven Normalverteilung verwendet werden sollte.

Definition

Dichtefunktion der Log-Normalverteilung (mit μ = 0 {\displaystyle \mu =0} )

Erzeugung

Wenn Z {\displaystyle Z} eine standardnormalverteilte Zufallsvariable ist, dann ist X = e μ + σ Z = e μ ( e Z ) σ {\displaystyle X=\mathrm {e} ^{\mu +\sigma Z}=\mathrm {e} ^{\mu }(\mathrm {e} ^{Z})^{\sigma }} log-normalverteilt mit den Parametern μ {\displaystyle \mu } und σ > 0 {\displaystyle \sigma >0} , geschrieben als L N ( μ , σ 2 ) {\displaystyle {\mathcal {LN}}(\mu ,\sigma ^{2})} . Alternativ können als Parameter die Größen μ = e μ {\displaystyle \mu ^{*}=\mathrm {e} ^{\mu }} und σ = e σ > 1 {\displaystyle \sigma ^{*}=\mathrm {e} ^{\sigma }>1} verwendet werden. μ {\displaystyle \mu ^{*}} ist ein Skalen-Parameter. σ {\displaystyle \sigma } oder ebenso σ {\displaystyle \sigma ^{*}} bestimmt die Form der Verteilung.

Wenn X {\displaystyle X} log-normalverteilt ist, dann ist auch Y = a X {\displaystyle Y=aX} log-normalverteilt, und zwar mit den Parametern ln ( a ) + μ {\displaystyle \ln(a)+\mu } und σ {\displaystyle \sigma } respektive a μ {\displaystyle a\mu ^{*}} und σ {\displaystyle \sigma ^{*}} . Ebenso ist X b {\displaystyle X^{b}} log-normalverteilt, mit den Parametern b μ {\displaystyle b\mu } und b σ {\displaystyle b\sigma } respektive ( μ ) b {\displaystyle (\mu ^{*})^{b}} und ( σ ) b {\displaystyle (\sigma ^{*})^{b}} .

Dichtefunktion

Eine stetige, positive Zufallsvariable X {\displaystyle X} unterliegt einer logarithmischen Normalverteilung L N ( μ , σ 2 ) {\displaystyle {\mathcal {LN}}(\mu ,\sigma ^{2})} mit den Parametern μ R {\displaystyle \mu \in \mathbb {R} } und σ R , σ > 0 {\displaystyle \sigma \in \mathbb {R} ,\sigma >0} , wenn die transformierte Zufallsvariable Y = ln ( X ) {\displaystyle Y=\ln(X)} einer Normalverteilung N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} folgt. Ihre Dichtefunktion ist dann

f ( x ) = 1 2 π σ x exp ( ( ln ( x ) μ ) 2 2 σ 2 ) = 1 x σ φ ( ln ( x ) μ σ ) , x > 0 {\displaystyle f(x)={\frac {1}{{\sqrt {2\pi }}\sigma x}}\,\exp {\Big (}-{\frac {(\ln(x)-\mu )^{2}}{2\sigma ^{2}}}{\Big )}={\frac {1}{x\sigma }}\varphi \left({\frac {\ln(x)-\mu }{\sigma }}\right),\quad x>0} ,

wobei φ {\displaystyle \varphi } die Dichtefunktion der Standardnormalverteilung bezeichnet.

Verteilungsfunktion

Verteilungsfunktion der Log-Normalverteilung (mit μ = 0 {\displaystyle \mu =0} )

Damit hat die Log-Normalverteilung für x 0 {\displaystyle x\geq 0} die Verteilungsfunktion

F ( x ) = 0 x f ( t ) d t = Φ ( ln ( x ) μ σ ) {\displaystyle F(x)=\int _{0}^{x}f(t)\,\mathrm {d} t=\Phi \left({\frac {\ln(x)-\mu }{\sigma }}\right)} ,

wobei Φ {\displaystyle \Phi } die Verteilungsfunktion der Standardnormalverteilung bezeichnet.

Die Verteilungsfunktion der logarithmischen Normalverteilung erscheint auf logarithmisch geteiltem Wahrscheinlichkeitspapier als Gerade.

Mehrdimensionale log-Normalverteilung

Sei Z N ( μ , Σ ) {\displaystyle {\boldsymbol {Z}}\sim {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})} ein mehrdimensional (oder multivariat) normalverteilter Zufallsvektor. Dann ist X = exp ( Z ) {\displaystyle {\boldsymbol {X}}=\exp({\boldsymbol {Z}})} (d. h. X j = exp ( Z j ) {\displaystyle X_{j}=\exp(Z_{j})} ) multivariat log-normalverteilt. Die mehrdimensionale Log-Normalverteilung ist viel weniger bedeutsam als die eindimensionale. Deshalb bezieht sich der nachfolgende Text fast ausschließlich auf den eindimensionalen Fall.

Eigenschaften

Quantile

Ist u ( p ) {\displaystyle u_{(p)}} das p-Quantil einer Standardnormalverteilung (d. h. Φ ( u ( p ) ) = p {\displaystyle \Phi (u_{(p)})=p} , wobei Φ {\displaystyle \Phi } die Verteilungsfunktion der Standardnormalverteilung sei), so ist das p-Quantil der Log-Normalverteilung gegeben durch

x ( p ) = e μ + u ( p ) σ {\displaystyle x_{(p)}=\mathrm {e} ^{\mu +u_{(p)}\cdot \sigma }} .

Median, multiplikativer Erwartungswert

Der Median der logarithmischen Normalverteilung beträgt demnach μ = e μ {\displaystyle \mu ^{*}=\mathrm {e} ^{\mu }} . Er wird auch multiplikativer oder geometrischer Erwartungswert genannt (vgl. geometrisches Mittel). Er ist ein Skalen-Parameter, da μ ( a X ) = a μ ( X ) {\displaystyle \mu ^{*}(aX)=a\mu ^{*}(X)} gilt.

Multiplikative Standardabweichung

In Analogie zum multiplikativen Erwartungswert ist σ = e σ {\displaystyle \sigma ^{*}=\mathrm {e} ^{\sigma }} die multiplikative oder geometrische Standardabweichung. Sie bestimmt (ebenso wie σ {\displaystyle \sigma } selbst) die Form der Verteilung. Es gilt σ > 1 {\displaystyle \sigma ^{*}>1} .

Da das multiplikative oder geometrische Mittel einer Stichprobe von lognormalen Beobachtungen (siehe „Parameterschätzung“ unten) selbst log-normalverteilt ist, kann man seine Standardabweichung angeben, sie beträgt ( σ ) 1 / n {\displaystyle (\sigma ^{*})^{1/{\sqrt {n}}}} .

Erwartungswert

Der Erwartungswert der logarithmischen Normalverteilung beträgt

E ( X ) = e μ + σ 2 2 {\displaystyle \operatorname {E} (X)=\mathrm {e} ^{\mu +{\frac {\sigma ^{2}}{2}}}} .

Modus

Der Modus, also der häufigste Wert der Verteilung bzw. der Wert, für den die Dichtefunktion ihr Maximum annimmt, beträgt für die logarithmische Normalverteilung

Modus ( X ) = x D = e μ σ 2 {\displaystyle \operatorname {Modus} (X)=x_{D}=\mathrm {e} ^{\mu -\sigma ^{2}}} .

Varianz, Standardabweichung, Variationskoeffizient

Die Varianz ergibt sich zu

Var ( X ) = e 2 μ + σ 2 ( e σ 2 1 ) {\displaystyle \operatorname {Var} (X)=\mathrm {e} ^{2\mu +\sigma ^{2}}(\mathrm {e} ^{\sigma ^{2}}-1)} .

Für die Standardabweichung ergibt sich

Var ( X ) = e 2 μ + σ 2 ( e σ 2 1 ) = e μ + σ 2 2 e σ 2 1 {\displaystyle {\sqrt {\operatorname {Var} (X)}}={\sqrt {\mathrm {e} ^{2\mu +\sigma ^{2}}(\mathrm {e} ^{\sigma ^{2}}-1)}}=\mathrm {e} ^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\sqrt {\mathrm {e} ^{\sigma ^{2}}-1}}} .

Aus Erwartungswert und Varianz erhält man unmittelbar den Variationskoeffizienten

VarK ( X ) = e σ 2 1 {\displaystyle \operatorname {VarK} (X)={\sqrt {\mathrm {e} ^{\sigma ^{2}}-1}}} .

Schiefe

Die Schiefe ergibt sich zu

γ m = ( e σ 2 + 2 ) e σ 2 1 > 0 {\displaystyle \gamma _{m}=(\mathrm {e} ^{\sigma ^{2}}+2){\sqrt {\mathrm {e} ^{\sigma ^{2}}-1}}>0} ,

d. h., die Log-Normalverteilung ist rechtsschief.

Je größer die Differenz zwischen Erwartungswert und Median, desto ausgeprägter ist i. a. die Schiefe einer Verteilung. Hier unterscheiden sich diese Parameter um den Faktor e σ 2 / 2 {\displaystyle \mathrm {e} ^{\sigma ^{2}/2}} . Die Wahrscheinlichkeit für extrem große Ausprägungen ist also bei der Log-Normalverteilung mit großem σ {\displaystyle \sigma } hoch.

Momente

Es existieren alle Momente und es gilt:

E ( X n ) = e n μ + n 2 σ 2 2 , n N {\displaystyle \operatorname {E} (X^{n})=\mathrm {e} ^{n\mu +{\frac {n^{2}\sigma ^{2}}{2}}},\quad n\in \mathbb {N} } .

Die momenterzeugende Funktion und die charakteristische Funktion existieren für die Log-Normalverteilung nicht in expliziter Form.

Die Lognormalverteilung ist ein Beispiel einer Wahrscheinlichkeitsverteilung, die durch die Angabe aller Momente nicht charakterisiert ist, da es andere Wahrscheinlichkeitsverteilungen mit denselben Momenten gibt.[1]

Entropie

Die Entropie der logarithmischen Normalverteilung (ausgedrückt in nats) beträgt

μ + 1 2 ln ( 2 π e σ 2 ) {\displaystyle \mu +{\frac {1}{2}}\ln \left(2\pi \mathrm {e} \sigma ^{2}\right)} .

Multiplikation von unabhängigen, log-normalverteilten Zufallsvariablen

Multipliziert man zwei unabhängige, log-normalverteilte Zufallsvariable X 1 {\displaystyle X_{1}} und X 2 {\displaystyle X_{2}} , so ergibt sich wieder eine log-normalverteilte Zufallsvariable mit den Parametern μ = μ 1 + μ 2 {\displaystyle \mu =\mu _{1}+\mu _{2}} und σ {\displaystyle \sigma } , wobei σ 2 = σ 1 2 + σ 2 2 {\displaystyle \sigma ^{2}=\sigma _{1}^{2}+\sigma _{2}^{2}} . Entsprechendes gilt für das Produkt von n {\displaystyle n} solchen Variablen.

Grenzwertsatz

Das geometrische Mittel von n {\displaystyle n} unabhängigen, gleich verteilten, positiven Zufallsvariablen zeigt für n {\displaystyle n\to \infty } genähert eine Log-Normalverteilung, die immer mehr einer gewöhnlichen Normalverteilung gleicht, da σ {\displaystyle \sigma } abnimmt.

Erwartungswert und Kovarianzmatrix einer mehrdimensionalen Log-Normalverteilung

Der Erwartungswert-Vektor ist

E [ X ] i = e μ i + 1 2 Σ i i {\displaystyle \operatorname {E} [{\boldsymbol {X}}]_{i}=\mathrm {e} ^{\mu _{i}+{\frac {1}{2}}\Sigma _{ii}}}

und die Kovarianzmatrix

Var [ X ] i j = e μ i + μ j + 1 2 ( Σ i i + Σ j j ) ( e Σ i j 1 ) . {\displaystyle \operatorname {Var} [{\boldsymbol {X}}]_{ij}=\mathrm {e} ^{\mu _{i}+\mu _{j}+{\frac {1}{2}}(\Sigma _{ii}+\Sigma _{jj})}(\mathrm {e} ^{\Sigma _{ij}}-1).} [2]

Beziehungen zu anderen Verteilungen

Beziehung zur Normalverteilung

Der Logarithmus einer logarithmisch normalverteilten Zufallsvariablen ist normalverteilt. Genauer: Ist Y {\displaystyle Y} eine N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} -verteilte reelle Zufallsvariable (d. h. normalverteilt mit Erwartungswert μ {\displaystyle \mu } und Varianz σ 2 {\displaystyle \sigma ^{2}} ), so ist die Zufallsvariable X = e Y {\displaystyle X=\mathrm {e} ^{Y}} log-normalverteilt mit diesen Parametern μ {\displaystyle \mu } und σ {\displaystyle \sigma } .

Wenn σ 0 {\displaystyle \sigma \to 0} und damit σ 1 {\displaystyle \sigma ^{*}\to 1} geht, geht die Form der Log-Normalverteilung gegen diejenige einer gewöhnlichen Normalverteilung.

Verteilung mit schweren Rändern

Die Verteilung gehört zu den Verteilungen mit schweren Rändern.

Parameterschätzung und Statistik

Parameterschätzung

Die Schätzung der Parameter aus einer Stichprobe von Beobachtungen erfolgt über die Bestimmung von Mittelwert und (quadrierter) Standardabweichung der logarithmierten Werte:

μ ^ = 1 n i = 1 n ln ( X i ) , σ ^ 2 = 1 n 1 i = 1 n ( ln ( X i ) μ ^ ) 2 {\displaystyle {\hat {\mu }}={\frac {1}{n}}\sum _{i=1}^{n}\ln(X_{i}),\quad {\hat {\sigma }}^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}(\ln(X_{i})-{\hat {\mu }})^{2}} .

Die Schätzung der multiplikativen Parameter erfolgt durch μ ^ = exp ( μ ^ ) {\displaystyle {\hat {\mu }}^{*}=\exp({\hat {\mu }})} und σ ^ = exp ( σ ^ ) {\displaystyle {\hat {\sigma }}^{*}=\exp({\hat {\sigma }})} . μ ^ {\displaystyle {\hat {\mu }}^{*}} ist das geometrische Mittel. Seine Verteilung ist log-normal mit multiplikativem Erwartungswert μ {\displaystyle \mu ^{*}} und geschätzter multiplikativer Standardabweichung (besser als multiplikativer Standardfehler bezeichnet) S E M = ( σ ^ ) 1 / n {\displaystyle \mathrm {SEM} ^{*}=({\hat {\sigma }}^{*})^{1/{\sqrt {n}}}} .

Wenn keine Einzelwerte vorliegen, sondern nur der Mittelwert X ¯ {\displaystyle {\bar {X}}} und die empirische Varianz v a r ^ {\displaystyle {\hat {\mathrm {var} }}} der nicht logarithmierten Werte bekannt sind, erhält man passende Parameterwerte über

σ ^ 2 = ln ( v a r ^ X ¯ 2 + 1 ) {\displaystyle {\hat {\sigma }}^{2}=\ln \left({\frac {\hat {\mathrm {var} }}{{\bar {X}}^{2}}}+1\right)}
μ ^ = ln ( X ¯ ) σ ^ 2 2 {\displaystyle {\hat {\mu }}=\ln({\bar {X}})-{\frac {{\hat {\sigma }}^{2}}{2}}} oder direkt μ ^ = ln ( X ¯ 2   1 v a r ^ + X ¯ 2 ) {\displaystyle \quad {\hat {\mu }}=\ln \left({\bar {X}}^{2}\ {\sqrt[{}]{\frac {1}{{\hat {\mathrm {var} }}+{\bar {X}}^{2}}}}\right)} .

Statistik

Allgemein erfolgt die statistische Analyse von log-normalverteilten Größen am einfachsten und Erfolg versprechendsten so, dass die Größen logarithmiert werden und auf diese transformierten Werte die Methoden verwendet werden, die auf der gewöhnlichen Normalverteilung beruhen. Im Bedarfsfall werden dann die Ergebnisse, beispielsweise Vertrauens- oder Vorhersage-Intervalle, in die ursprüngliche Skala zurücktransformiert.

Grundlegendes Beispiel dafür ist die Berechnung von Streuungs-Intervallen. Da für eine gewöhnliche Normalverteilung in einem Bereich von μ ± σ {\displaystyle \mu \pm \sigma } etwa 2/3 (genauer 68 %) und in μ ± 2 σ {\displaystyle \mu \pm 2\sigma } 95 % der Wahrscheinlichkeit enthalten sind, gilt für die Log-Normalverteilung:

Das Intervall   [ μ / σ , μ σ ]   {\displaystyle \ [\mu ^{*}/\sigma ^{*},\mu ^{*}\cdot \sigma ^{*}]\ } enthält 2/3
und das Intervall   [ μ / ( σ ) 2 , μ ( σ ) 2 ]   {\displaystyle \ [\mu ^{*}/(\sigma ^{*})^{2},\mu ^{*}\cdot (\sigma ^{*})^{2}]\ } enthält 95 %

der Wahrscheinlichkeit (und also etwa diese Prozentzahl der Beobachtungen einer Stichprobe). Die Intervalle können in Analogie zu μ ± σ {\displaystyle \mu \pm \sigma } als μ / σ {\displaystyle \mu ^{*}\cdot /\sigma ^{*}} und μ / ( σ ) 2 {\displaystyle \mu ^{*}\cdot /(\sigma ^{*})^{2}} notiert werden.

In graphischen Darstellungen (untransformierter) Beobachtungen sollten deshalb solche asymmetrische Intervalle gezeigt werden.[3][4]

Anwendungen

Variation in vielen natürlichen Phänomenen lässt sich gut mit der Log-Normalverteilung beschreiben. Dies kann erklärt werden durch die Vorstellung, dass kleine prozentuale Abweichungen zusammenwirken, die einzelnen Effekte sich also multiplizieren. Bei Wachstumsprozessen ist dies besonders naheliegend. Zudem bestehen die Formeln für die meisten grundlegenden Naturgesetze aus Multiplikationen und Divisionen. Auf der logarithmischen Skala ergeben sich dann Additionen und Subtraktionen, und der entsprechende Zentrale Grenzwertsatz führt zur Normalverteilung – zurücktransformiert auf die ursprüngliche Skala also zur Log-Normalverteilung. Diese multiplikative Version des Grenzwertsatzes ist auch als Gesetz von Gibrat bekannt. Robert Gibrat (1904–1980) formulierte es für Unternehmen.[5]

In einigen Wissenschaften ist es üblich, Messgrößen in Einheiten anzugeben, die durch Logarithmieren einer gemessenen Konzentration (Chemie) oder Energie (Physik, Technologie) erhalten werden. So wird der Säuregrad einer wässerigen Lösung durch den pH-Wert gemessen, der als negativer Logarithmus der Wasserstoffionen-Aktivität definiert ist. Eine Lautstärke wird in Dezibel (dB) angegeben, das = 10 log 10 ( E ) {\displaystyle =10\log _{10}(E)} , wobei E {\displaystyle E} das Verhältnis des Schalldruckpegels zu einem entsprechenden Referenzwert ist. Analoges gilt für andere Energie-Pegel. In der Finanzmathematik wird ebenfalls oft direkt mit logarithmierten Größen (Preisen, Kursen, Erträgen) gerechnet, siehe unten.

Für solche „bereits logarithmierte“ Größen ist dann die gewöhnliche Normalverteilung oft eine gute Wahl; also wäre hier, wenn man die ursprünglich gemessene Größe betrachten wollte, die Log-Normalverteilung geeignet.

Generell eignet sich die Log-Normalverteilung für Messgrößen, die nur positive Werte annehmen können, also Konzentrationen, Massen und Gewichte, räumliche Größen, Energien usw.

Die folgende Liste zeigt mit Beispielen die breite Palette der Anwendungen der Log-Normalverteilung.

  • Hydrologie: Die Log-Normalverteilung nützt bei der Analyse von Extremwerten wie – beispielsweise – monatliche oder jährliche Maxima der täglichen Regenmenge oder des Abflusses von Gewässern.[7]
  • Ökologie: Die Häufigkeit von Arten zeigt oft eine Log-Normalverteilung.[8]
  • Biologie und Medizin
    • Maße der Größe von Lebewesen (Länge, Hautfläche, Gewicht);[9]
    • Physiologische Größen wie der Blutdruck von Männern und Frauen.[10] Als Konsequenz sollten Referenzbereiche für gesunde Werte auf der Grundlage einer Log-Normalverteilung geschätzt werden.
    • Inkubationszeiten von ansteckenden Krankheiten;[11]
    • In der Neurologie zeigt die Verteilung der Impulsrate von Nervenzellen oft eine log-normale Form, so im Cortex und Striatum[12] und im Hippocampus und im entorhinalen Cortex[13] sowie in anderen Hirnregionen.[14][15] Ebenso für weitere neurobiologische Größen.[16]
    • Sensitivität gegenüber Fungiziden;[17]
    • Bakterien auf Pflanzenblättern:[18]
    • Permeabilität von Zellwänden und Mobilität von gelösten Stoffen:[19]
  • Technologie
    • In der Modellierung der Zuverlässigkeit werden Reparaturzeiten als log-normalverteilt beschrieben.[27]
    • Internet: Die Dateigröße von öffentlich verfügbaren Audio- und Video-Dateien ist genähert log-normalverteilt.[28] Analoges gilt für den Datenverkehr.[29]

Literatur

  • Lognormal Distributions, Theory and Applications (= Statistics: Textbooks and Monographs. Band 88). Marcel Dekker, Inc., 1988, ISBN 978-0-8247-7803-3, S. xvi+387. 
  • j Aitchison, J A C Brown: The Lognormal Distribution. Cambridge University Press, 1957. 
  • Eckhard Limpert, Werner A Stahel, Markus Abbt: Lognormal distributions across the sciences: keys and clues. In: BioScience. Band 51, Nr. 5, 2001, S. 341–352, doi:10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 (PDF Online). 

Einzelnachweise

  1. C. C. Heyde: On a property of the lognormal distribution. In: Journal of the Royal Statistical Society, Series B. Band 25, Nr. 2, 1963, S. 392–393. 
  2. Leigh Halliwell: The Lognormal Random Multivariate. Casualty Actuarial Society E-Forum, Arlington VA, Spring 2015. 2015 (englisch, casact.org [PDF]). 
  3. Eckhard Limpert, Werner A Stahel, Markus Abbt: Lognormal distributions across the sciences: keys and clues. In: BioScience. Band 51, Nr. 5, 2001, S. 341–352, doi:10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2. 
  4. Eckhard Limpert, Werner A Stahel: Problems with Using the Normal Distribution – and Ways to Improve Quality and Efficiency of Data Analysis. In: PlosOne. Band 51, Nr. 5, 2011, S. 341–352, doi:10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2. 
  5. John Sutton: Gibrat's Legacy. In: Journal of Economic Literature. Band 32, Nr. 1, 1997, S. 40–59. 
  6. L H Ahrens: The log-normal distribution of the elements (A fundamental law of geochemistry and its subsidiary) journal. Band 5, 1954, S. 49–73. 
  7. R.J. Oosterbaan: Drainage Principles and Applications, Publication 16. International Institute for Land Reclamation and Improvement (ILRI), Wageningen, The Netherlands 1994, ISBN 978-90-70754-33-4, 6: Frequency and Regression Analysis, S. 175–224 (Online [PDF]). 
  8. G Sugihara: Minimal community structure: An explanation of species abundance patterns. In: American Naturalist. Band 116, 1980, S. 770–786, JSTOR:2460407. 
  9. Julian S Huxley: Problems of relative growth. London, 1932, ISBN 978-0-486-61114-3. 
  10. Robert W. Makuch, D H Freeman, M F Johnson: Justification for the lognormal distribution as a model for blood pressure. In: Journal of Chronic Diseases. Band 32, Nr. 3, 1979, S. 245–250, doi:10.1016/0021-9681(79)90070-5. 
  11. P E Sartwell: The incubation period and the dynamics of infectious disease. In: American Journal of Epidemiology. Band 83, 1966, S. 204–216. 
  12. Gabriele Scheler, Johann Schumann, Schumann: Diversity and stability in neuronal output rates. 36th Society for Neuroscience Meeting, Atlanta. 8. Oktober 2006 (englisch). 
  13. Kenji Mizuseki, György Buzsáki: Preconfigured, skewed distribution of firing rates in the hippocampus and entorhinal cortex. In: Cell Reports. Band 4, Nr. 5, 12. September 2013, ISSN 2211-1247, S. 1010–1021, doi:10.1016/j.celrep.2013.07.039, PMID 23994479, PMC 3804159 (freier Volltext). 
  14. György Buzsáki, Kenji Mizuseki: The log-dynamic brain: how skewed distributions affect network operations. In: Nature Reviews. Neuroscience. Band 15, Nr. 4, 2017, ISSN 1471-003X, S. 264–278, doi:10.1038/nrn3687, PMID 24569488, PMC 4051294 (freier Volltext). 
  15. Adrien Wohrer, Mark D Humphries, Christian K Machens: Population-wide distributions of neural activity during perceptual decision-making. In: Progress in Neurobiology. Band 103, 2013, ISSN 1873-5118, S. 156–193, doi:10.1016/j.pneurobio.2012.09.004, PMID 23123501, PMC 5985929 (freier Volltext). 
  16. Gabriele Scheler: Logarithmic distributions prove that intrinsic learning is Hebbian. In: F1000 Research. Band 6, 2017, S. 1222, doi:10.12688/f1000research.12130.2, PMID 29071065, PMC 5639933 (freier Volltext). 
  17. R A Romero, T B Sutton: Sensitivity of Mycosphaerella fijiensis, causal agent of black sigatoka of banana, to propiconozole. In: Phytopathology. Band 87, 1997, S. 96–100. 
  18. S S Hirano, E V Nordheim, D C Arny, C D Upper: Log-normal distribution of epiphytic bacterial populations on leaf surfaces. In: Applied and Environmental Microbiology. Band 44, 1982, S. 695–700. 
  19. P Baur: Log-normal distribution of water permeability and organic solute mobility in plant cuticles. In: Plant, Cell and Environment. Band 20, 1997, S. 167–177. 
  20. Pareto's law of income distribution: Evidence for Germany, the United Kingdom, and the United States. 2005; abgerufen im 1. Januar 1 (englisch). 
  21. Souma Wataru: Physics of Personal Income. Abgerufen am 22. Februar 2002 (englisch). 
  22. F Black, M Scholes: The Pricing of Options and Corporate Liabilities. In: Journal of Political Economy. Band 81, Nr. 3, 1973, S. 637, doi:10.1086/260062. 
  23. Benoit Mandelbrot: The (mis-)Behaviour of Markets. Basic Books, 2004, ISBN 978-0-465-04355-2 (Google Books). 
  24. Sobkowicz Pawel et al.: Lognormal distributions of user post lengths in Internet discussions - a consequence of the Weber-Fechner law? In: EPJ Data Science. 2013. 
  25. Peifeng Yin, Ping Luo, Wang-Chien Luo, Min Wang: Silence is also evidence: interpreting dwell time for recommendation from psychological perspective. ACM International Conference on KDD. 2013 (englisch, mldm.ict.ac.cn (Memento des Originals vom 10. Mai 2017 im Internet Archive) [abgerufen am 26. August 2019]). 
  26. What is the average length of a game of chess? In: chess.stackexchange.com. Abgerufen am 14. April 2018 (englisch). 
  27. Patrick O'Connor, Andre Kleyner: Practical Reliability Engineering. John Wiley & Sons, 2011, ISBN 978-0-470-97982-2, S. 35. 
  28. C Gros, G. Kaczor, D Markovic: Neuropsychological constraints to human data production on a global scale. In: The European Physical Journal B. Band 85, Nr. 28, 2012, S. 28, doi:10.1140/epjb/e2011-20581-3, arxiv:1111.6849, bibcode:2012EPJB...85...28G. 
  29. Mohammed Alamsar: On the Distribution of Traffic Volumes in the Internet and its Implications. 2019; abgerufen im 1. Januar 1 (englisch). 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart