指数型分布族

指数型分布族(しすうがたぶんぷぞく)は、以下のように定義される、特定の形式の確率分布。有用な代数的特性を持つ。

指数型分布族の概念は、1935 – 1936年に[1]、EJG Pitman[2]、G. Darmois[3] 、BO Koopman[4]らによって与えられた。

定義

指数型分布族に属する確率分布の例

指数型分布族には、最も一般的な分布の多くが含まれる。その一部を例示する。

多くの一般的な分布が指数型分布族に属するが、それは特定のパラメーターが既知定数である場合に限られる。例えば:

二項分布
試行回数は固定
多項分布
試行回数は固定
負の二項分布
失敗回数は固定

いずれの場合も、固定する必要のあるパラメーターが観測値のサイズを制限している。

一般的な分布のうち、指数型分布族ではないものとして、 スチューデントの t 分布、ほとんどの混合分布、範囲が固定されていない場合の均一分布が挙げられる。

スカラーパラメータ

単一の実数パラメータに基づく指数型分布族では、 確率密度関数 (離散分布の場合は確率質量関数)が次の形式で表現できる。

f X ( x θ ) = h ( x ) exp [ η ( θ ) T ( x ) A ( θ ) ] {\displaystyle f_{X}(x\mid \theta )=h(x)\exp {\left[\eta (\theta )\cdot T(x)-A(\theta )\right]}}

ここで、 T ( x ) {\displaystyle T(x)} h ( x ) {\displaystyle h(x)} η ( θ ) {\displaystyle \eta (\theta )} A ( θ ) {\displaystyle A(\theta )} はいずれも既知の関数である。

しばしば次のように同等の形式で記述される。

f X ( x θ ) = h ( x ) g ( θ ) exp [ η ( θ ) T ( x ) ] {\displaystyle f_{X}(x\mid \theta )=h(x)\,g(\theta )\,\exp {\left[\eta (\theta )\cdot T(x)\right]}}

次のように記述しても同等である。

f X ( x θ ) = exp [ η ( θ ) T ( x ) A ( θ ) + B ( x ) ] {\displaystyle f_{X}(x\mid \theta )=\exp {\left[\eta (\theta )\cdot T(x)-A(\theta )+B(x)\right]}}

θ {\displaystyle \theta } は指数型分布族のパラメータと呼ばれる。

η ( θ ) = θ {\displaystyle \eta (\theta )=\theta } の場合、指数型分布族は正準型(canonical form)であるという。 変換後のパラメータ η = η ( θ ) {\displaystyle \eta =\eta (\theta )} をパラメータとして用いることにより、指数型分布族を正準型に変換することができる。

指数型分布族が正準型であるときのパラメータを自然パラメータ(natural parameter)と呼ぶ。

関連する変数の因数分解

すべての指数型分布族は、単一パラメーターによる指数型分布族の積に分解できる。

ベクトルパラメータ

単一の実数パラメータに基づく指数型分布族を、複数の実数パラメータ(下記ベクトル)に基づく指数型分布族に拡張できる。

θ = ( θ 1 , θ 2 , , θ s ) . {\displaystyle {\boldsymbol {\theta }}=\left(\theta _{1},\theta _{2},\ldots ,\theta _{s}\right)^{\intercal }.}

確率密度関数(または離散分布の場合は確率質量関数)が次のように記述できる場合、ベクトル指数型分布族に属している。

f X ( x θ ) = h ( x ) exp ( i = 1 s η i ( θ ) T i ( x ) A ( θ ) ) {\displaystyle f_{X}(x\mid {\boldsymbol {\theta }})=h(x)\exp {\left(\sum _{i=1}^{s}\eta _{i}({\boldsymbol {\theta }})\cdot T_{i}(x)-A({\boldsymbol {\theta }})\right)}}

またはもっとコンパクトな形で

f X ( x θ ) = h ( x ) exp ( η ( θ ) T ( x ) A ( θ ) ) {\displaystyle f_{X}(x\mid {\boldsymbol {\theta }})=h(x)\exp {{\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }{\boldsymbol {T}}(x)-A({\boldsymbol {\theta }}){\Big )}}}

下記のように記載されることも多い。

f X ( x θ ) = h ( x ) g ( θ ) exp ( η ( θ ) T ( x ) ) {\displaystyle f_{X}(x\mid {\boldsymbol {\theta }})=h(x)\,g({\boldsymbol {\theta }})\exp {\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }{\boldsymbol {T}}(x){\Big )}}

スカラー値の場合と同様に、ベクトル指数型分布族は次の場合に正準型と呼ばれる。

i : η i ( θ i ) = θ i . {\displaystyle \forall i:\quad \eta _{i}(\theta _{i})=\theta _{i}.}

ベクトルパラメータ、ベクトル変数

単一の確率変数に対する指数型分布族は、複数の確率変数に対する指数型分布族に拡張できる。

複数の確率変数を次のように記述すると、

x = ( x 1 , x 2 , , x k ) . {\displaystyle \mathbf {x} =\left(x_{1},x_{2},\dotsc ,x_{k}\right).}

指数型分布族の確率分布は次のように記述される。

f X ( x θ ) = h ( x ) exp ( i = 1 s η i ( θ ) T i ( x ) A ( θ ) ) {\displaystyle f_{X}(\mathbf {x} \mid {\boldsymbol {\theta }})=h(\mathbf {x} )\exp \left(\sum _{i=1}^{s}\eta _{i}({\boldsymbol {\theta }})\cdot T_{i}(\mathbf {x} )-A({\boldsymbol {\theta }})\right)}

またはもっとコンパクトな形で

f X ( x θ ) = h ( x ) exp ( η ( θ ) T ( x ) A ( θ ) ) {\displaystyle f_{X}(\mathbf {x} \mid {\boldsymbol {\theta }})=h(\mathbf {x} )\exp {\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }{\boldsymbol {T}}(\mathbf {x} )-A({\boldsymbol {\theta }}){\Big )}}

次のように記述されることも多い。

f X ( x θ ) = h ( x ) g ( θ ) exp ( η ( θ ) T ( x ) ) {\displaystyle f_{X}(\mathbf {x} \mid {\boldsymbol {\theta }})=h(\mathbf {x} )\,g({\boldsymbol {\theta }})\,\exp {\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }{\boldsymbol {T}}({\boldsymbol {x}}){\Big )}}

性質

指数型分布族には、統計分析に非常に役立つ多数の性質がある。 多くの場合、これらの特性を持つのは指数型分布族のみである。 例:

  • 共役事前分布を持つ

正規分布指数分布対数正規分布ガンマ分布カイ二乗分布ベータ分布ディリクレ分布ベルヌーイ分布、カテゴリカル分布、ポアソン分布幾何分布逆ガウス分布フォン・ミーゼス分布、フォンミーゼス-フィッシャー分布はすべて指数型分布族に属する。

正規分布:未知の平均、既知の分散

未知の平均値 μ {\displaystyle \mu } と既知の分散 σ 2 {\displaystyle \sigma ^{2}} による正規分布を考える。 確率密度関数は

f σ ( x ; μ ) = 1 2 π σ 2 exp ( ( x μ ) 2 2 σ 2 ) . {\displaystyle f_{\sigma }(x;\mu )={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \left(-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right).}

これは、次のように設定することで、単一パラメーターの指数型分布族であることが分かる。

h σ ( x ) = 1 2 π σ 2 exp ( x 2 2 σ 2 ) T σ ( x ) = x σ A σ ( μ ) = μ 2 2 σ 2 η σ ( μ ) = μ σ . {\displaystyle {\begin{aligned}h_{\sigma }(x)&={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \left(-{\frac {x^{2}}{2\sigma ^{2}}}\right)\\[4pt]T_{\sigma }(x)&={\frac {x}{\sigma }}\\[4pt]A_{\sigma }(\mu )&={\frac {\mu ^{2}}{2\sigma ^{2}}}\\[4pt]\eta _{\sigma }(\mu )&={\frac {\mu }{\sigma }}.\end{aligned}}}

σ 2 = 1 {\displaystyle \sigma ^{2}=1} 、すなわち η σ ( μ ) = μ {\displaystyle \eta _{\sigma }(\mu )=\mu } の場合、これは正準型となる。

正規分布:未知の平均と分散

未知の平均 μ {\displaystyle \mu } と未知の分散 σ 2 {\displaystyle \sigma ^{2}} を持つ正規分布の場合を考える。 確率密度関数は

f ( x ; μ , σ ) = 1 2 π σ 2 exp ( ( x μ ) 2 2 σ 2 ) . {\displaystyle f(x;\mu ,\sigma )={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \left(-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right).}

これは、次のように設定することで、指数型分布族であることが分かる。

η = ( μ σ 2 , 1 2 σ 2 ) T h ( x ) = 1 2 π T ( x ) = ( x , x 2 ) T A ( η ) = μ 2 2 σ 2 + log | σ | = η 1 2 4 η 2 + 1 2 log | 1 2 η 2 | {\displaystyle {\begin{aligned}{\boldsymbol {\eta }}&=\left({\frac {\mu }{\sigma ^{2}}},-{\frac {1}{2\sigma ^{2}}}\right)^{\rm {T}}\\h(x)&={\frac {1}{\sqrt {2\pi }}}\\T(x)&=\left(x,x^{2}\right)^{\rm {T}}\\A({\boldsymbol {\eta }})&={\frac {\mu ^{2}}{2\sigma ^{2}}}+\log |\sigma |=-{\frac {\eta _{1}^{2}}{4\eta _{2}}}+{\frac {1}{2}}\log \left|{\frac {1}{2\eta _{2}}}\right|\end{aligned}}}

二項分布:既知の試行回数

離散変数を対象とする指数型分布族の例として、試行回数 n {\displaystyle n} が既知の二項分布を考える。

この分布の確率質量関数

f ( x ) = ( n x ) p x ( 1 p ) n x , x { 0 , 1 , 2 , , n } . {\displaystyle f(x)={n \choose x}p^{x}(1-p)^{n-x},\quad x\in \{0,1,2,\ldots ,n\}.}

これは同等に次のように書くことができる。

f ( x ) = ( n x ) exp ( x log ( p 1 p ) + n log ( 1 p ) ) , x { 0 , 1 , 2 , , n } . {\displaystyle f(x)={n \choose x}\exp \left(x\log \left({\frac {p}{1-p}}\right)+n\log(1-p)\right),\quad x\in \{0,1,2,\ldots ,n\}.}

二項分布は指数型分布族であり、その自然パラメーター η {\displaystyle \eta }

η = log p 1 p . {\displaystyle \eta =\log {\frac {p}{1-p}}.}

となる。 この p {\displaystyle p} の関数はロジットと呼ばれる。

分布表

次の表は、多くの一般的な分布を、正準型の指数型分布族として書き換える方法を示している[5]

スカラー変数とスカラーパラメータの場合:

f X ( x θ ) = h ( x ) exp ( η ( θ ) T ( x ) A ( η ) ) {\displaystyle f_{X}(x\mid \theta )=h(x)\,\exp {{\Big (}\eta (\theta )\,T(x)-A(\eta ){\Big )}}}

スカラー変数とベクトルパラメータの場合:

f X ( x θ ) = h ( x ) exp ( η ( θ ) T ( x ) A ( η ) ) {\displaystyle f_{X}(x\mid {\boldsymbol {\theta }})=h(x)\,\exp {{\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }\,{\boldsymbol {T}}(x)-A({\boldsymbol {\eta }}){\Big )}}}
f X ( x θ ) = h ( x ) g ( θ ) exp ( η ( θ ) T ( x ) ) {\displaystyle f_{X}(x\mid {\boldsymbol {\theta }})=h(x)\,g({\boldsymbol {\theta }})\,\exp {{\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }\,{\boldsymbol {T}}(x){\Big )}}}

ベクトル変数とベクトルパラメータの場合:

f X ( x θ ) = h ( x ) exp ( η ( θ ) T ( x ) A ( η ) ) {\displaystyle f_{X}(\mathbf {x} \mid {\boldsymbol {\theta }})=h(\mathbf {x} )\,\exp {{\Big (}{\boldsymbol {\eta }}({\boldsymbol {\theta }})^{\intercal }\,{\boldsymbol {T}}({\boldsymbol {x}})-A({\boldsymbol {\eta }}){\Big )}}}
確率分布 パラメータ θ {\displaystyle {\boldsymbol {\theta }}} 自然パラメータ η {\displaystyle {\boldsymbol {\eta }}} パラメータの逆写像 Base measure h ( x ) {\displaystyle h(x)} 十分統計量 T ( x ) {\displaystyle T(x)} Log-partition A ( η ) {\displaystyle A({\boldsymbol {\eta }})} Log-partition A ( θ ) {\displaystyle A({\boldsymbol {\theta }})}
ベルヌーイ分布[注釈 1] p {\displaystyle p} log p 1 p {\displaystyle \log {\frac {p}{1-p}}} 1 1 + e η = e η 1 + e η {\displaystyle {\frac {1}{1+e^{-\eta }}}={\frac {e^{\eta }}{1+e^{\eta }}}} 1 {\displaystyle 1} x {\displaystyle x} log ( 1 + e η ) {\displaystyle \log(1+e^{\eta })} log ( 1 p ) {\displaystyle -\log(1-p)}
二項分布
既知の試行回数 n {\displaystyle n}
p {\displaystyle p} log p 1 p {\displaystyle \log {\frac {p}{1-p}}} 1 1 + e η = e η 1 + e η {\displaystyle {\frac {1}{1+e^{-\eta }}}={\frac {e^{\eta }}{1+e^{\eta }}}} ( n x ) {\displaystyle {n \choose x}} x {\displaystyle x} n log ( 1 + e η ) {\displaystyle n\log(1+e^{\eta })} n log ( 1 p ) {\displaystyle -n\log(1-p)}
ポアソン分布 λ {\displaystyle \lambda } log λ {\displaystyle \log \lambda } e η {\displaystyle e^{\eta }} 1 x ! {\displaystyle {\frac {1}{x!}}} x {\displaystyle x} e η {\displaystyle e^{\eta }} λ {\displaystyle \lambda }
負の二項分布
with known number of failures r {\displaystyle r}
p {\displaystyle p} log p {\displaystyle \log p} e η {\displaystyle e^{\eta }} ( x + r 1 x ) {\displaystyle {x+r-1 \choose x}} x {\displaystyle x} r log ( 1 e η ) {\displaystyle -r\log(1-e^{\eta })} r log ( 1 p ) {\displaystyle -r\log(1-p)}
指数分布 λ {\displaystyle \lambda } λ {\displaystyle -\lambda } η {\displaystyle -\eta } 1 {\displaystyle 1} x {\displaystyle x} log ( η ) {\displaystyle -\log(-\eta )} log λ {\displaystyle -\log \lambda }
パレート分布
with known minimum value x m {\displaystyle x_{m}}
α {\displaystyle \alpha } α 1 {\displaystyle -\alpha -1} 1 η {\displaystyle -1-\eta } 1 {\displaystyle 1} log x {\displaystyle \log x} log ( 1 η ) + ( 1 + η ) log x m {\displaystyle -\log(-1-\eta )+(1+\eta )\log x_{\mathrm {m} }} log α α log x m {\displaystyle -\log \alpha -\alpha \log x_{\mathrm {m} }}
ワイブル分布
with known shape k {\displaystyle k}
λ {\displaystyle \lambda } 1 λ k {\displaystyle -{\frac {1}{\lambda ^{k}}}} ( η ) 1 k {\displaystyle (-\eta )^{-{\frac {1}{k}}}} x k 1 {\displaystyle x^{k-1}} x k {\displaystyle x^{k}} log ( η ) log k {\displaystyle -\log(-\eta )-\log k} k log λ log k {\displaystyle k\log \lambda -\log k}
ラプラス分布
既知の平均 μ {\displaystyle \mu }
b {\displaystyle b} 1 b {\displaystyle -{\frac {1}{b}}} 1 η {\displaystyle -{\frac {1}{\eta }}} 1 {\displaystyle 1} | x μ | {\displaystyle |x-\mu |} log ( 2 η ) {\displaystyle \log \left(-{\frac {2}{\eta }}\right)} log 2 b {\displaystyle \log 2b}
カイ二乗分布 ν {\displaystyle \nu } ν 2 1 {\displaystyle {\frac {\nu }{2}}-1} 2 ( η + 1 ) {\displaystyle 2(\eta +1)} e x 2 {\displaystyle e^{-{\frac {x}{2}}}} log x {\displaystyle \log x} log Γ ( η + 1 ) + ( η + 1 ) log 2 {\displaystyle \log \Gamma (\eta +1)+(\eta +1)\log 2} log Γ ( ν 2 ) + ν 2 log 2 {\displaystyle \log \Gamma \left({\frac {\nu }{2}}\right)+{\frac {\nu }{2}}\log 2}
正規分布
既知の分散 σ 2 {\displaystyle \sigma ^{2}}
μ {\displaystyle \mu } μ σ {\displaystyle {\frac {\mu }{\sigma }}} σ η {\displaystyle \sigma \eta } e x 2 2 σ 2 2 π σ {\displaystyle {\frac {e^{-{\frac {x^{2}}{2\sigma ^{2}}}}}{{\sqrt {2\pi }}\sigma }}} x σ {\displaystyle {\frac {x}{\sigma }}} η 2 2 {\displaystyle {\frac {\eta ^{2}}{2}}} μ 2 2 σ 2 {\displaystyle {\frac {\mu ^{2}}{2\sigma ^{2}}}}
正規分布 μ {\displaystyle \mu } , σ 2 {\displaystyle \sigma ^{2}} [ μ σ 2 1 2 σ 2 ] {\displaystyle {\begin{bmatrix}{\dfrac {\mu }{\sigma ^{2}}}\\[10pt]-{\dfrac {1}{2\sigma ^{2}}}\end{bmatrix}}} [ η 1 2 η 2 1 2 η 2 ] {\displaystyle {\begin{bmatrix}-{\dfrac {\eta _{1}}{2\eta _{2}}}\\[15pt]-{\dfrac {1}{2\eta _{2}}}\end{bmatrix}}} 1 2 π {\displaystyle {\frac {1}{\sqrt {2\pi }}}} [ x x 2 ] {\displaystyle {\begin{bmatrix}x\\x^{2}\end{bmatrix}}} η 1 2 4 η 2 1 2 log ( 2 η 2 ) {\displaystyle -{\frac {\eta _{1}^{2}}{4\eta _{2}}}-{\frac {1}{2}}\log(-2\eta _{2})} μ 2 2 σ 2 + log σ {\displaystyle {\frac {\mu ^{2}}{2\sigma ^{2}}}+\log \sigma }
対数正規分布 μ {\displaystyle \mu } , σ 2 {\displaystyle \sigma ^{2}} [ μ σ 2 1 2 σ 2 ] {\displaystyle {\begin{bmatrix}{\dfrac {\mu }{\sigma ^{2}}}\\[10pt]-{\dfrac {1}{2\sigma ^{2}}}\end{bmatrix}}} [ η 1 2 η 2 1 2 η 2 ] {\displaystyle {\begin{bmatrix}-{\dfrac {\eta _{1}}{2\eta _{2}}}\\[15pt]-{\dfrac {1}{2\eta _{2}}}\end{bmatrix}}} 1 2 π x {\displaystyle {\frac {1}{{\sqrt {2\pi }}x}}} [ log x ( log x ) 2 ] {\displaystyle {\begin{bmatrix}\log x\\(\log x)^{2}\end{bmatrix}}} η 1 2 4 η 2 1 2 log ( 2 η 2 ) {\displaystyle -{\frac {\eta _{1}^{2}}{4\eta _{2}}}-{\frac {1}{2}}\log(-2\eta _{2})} μ 2 2 σ 2 + log σ {\displaystyle {\frac {\mu ^{2}}{2\sigma ^{2}}}+\log \sigma }
逆ガウス分布 μ {\displaystyle \mu } , λ {\displaystyle \lambda } [ λ 2 μ 2 λ 2 ] {\displaystyle {\begin{bmatrix}-{\dfrac {\lambda }{2\mu ^{2}}}\\[15pt]-{\dfrac {\lambda }{2}}\end{bmatrix}}} [ η 2 η 1 2 η 2 ] {\displaystyle {\begin{bmatrix}{\sqrt {\dfrac {\eta _{2}}{\eta _{1}}}}\\[15pt]-2\eta _{2}\end{bmatrix}}} 1 2 π x 3 2 {\displaystyle {\frac {1}{{\sqrt {2\pi }}x^{\frac {3}{2}}}}} [ x 1 x ] {\displaystyle {\begin{bmatrix}x\\[5pt]{\dfrac {1}{x}}\end{bmatrix}}} 2 η 1 η 2 1 2 log ( 2 η 2 ) {\displaystyle 2{\sqrt {\eta _{1}\eta _{2}}}-{\frac {1}{2}}\log(-2\eta _{2})} λ μ 1 2 log λ {\displaystyle -{\frac {\lambda }{\mu }}-{\frac {1}{2}}\log \lambda }
ガンマ分布 α {\displaystyle \alpha } , β {\displaystyle \beta } [ α 1 β ] {\displaystyle {\begin{bmatrix}\alpha -1\\-\beta \end{bmatrix}}} [ η 1 + 1 η 2 ] {\displaystyle {\begin{bmatrix}\eta _{1}+1\\-\eta _{2}\end{bmatrix}}} 1 {\displaystyle 1} [ log x x ] {\displaystyle {\begin{bmatrix}\log x\\x\end{bmatrix}}} log Γ ( η 1 + 1 ) ( η 1 + 1 ) log ( η 2 ) {\displaystyle \log \Gamma (\eta _{1}+1)-(\eta _{1}+1)\log(-\eta _{2})} log Γ ( α ) α log β {\displaystyle \log \Gamma (\alpha )-\alpha \log \beta }
k {\displaystyle k} , θ {\displaystyle \theta } [ k 1 1 θ ] {\displaystyle {\begin{bmatrix}k-1\\[5pt]-{\dfrac {1}{\theta }}\end{bmatrix}}} [ η 1 + 1 1 η 2 ] {\displaystyle {\begin{bmatrix}\eta _{1}+1\\[5pt]-{\dfrac {1}{\eta _{2}}}\end{bmatrix}}} log Γ ( k ) + k log θ {\displaystyle \log \Gamma (k)+k\log \theta }
逆ガンマ分布 α {\displaystyle \alpha } , β {\displaystyle \beta } [ α 1 β ] {\displaystyle {\begin{bmatrix}-\alpha -1\\-\beta \end{bmatrix}}} [ η 1 1 η 2 ] {\displaystyle {\begin{bmatrix}-\eta _{1}-1\\-\eta _{2}\end{bmatrix}}} 1 {\displaystyle 1} [ log x 1 x ] {\displaystyle {\begin{bmatrix}\log x\\{\frac {1}{x}}\end{bmatrix}}} log Γ ( η 1 1 ) ( η 1 1 ) log ( η 2 ) {\displaystyle \log \Gamma (-\eta _{1}-1)-(-\eta _{1}-1)\log(-\eta _{2})} log Γ ( α ) α log β {\displaystyle \log \Gamma (\alpha )-\alpha \log \beta }
一般化逆ガウス分布 p {\displaystyle p} , a {\displaystyle a} , b {\displaystyle b} [ p 1 a / 2 b / 2 ] {\displaystyle {\begin{bmatrix}p-1\\-a/2\\-b/2\end{bmatrix}}} [ η 1 + 1 2 η 2 2 η 3 ] {\displaystyle {\begin{bmatrix}\eta _{1}+1\\-2\eta _{2}\\-2\eta _{3}\end{bmatrix}}} 1 {\displaystyle 1} [ log x x 1 x ] {\displaystyle {\begin{bmatrix}\log x\\x\\{\frac {1}{x}}\end{bmatrix}}} log 2 K η 1 + 1 ( 4 η 2 η 3 ) η 1 + 1 2 log η 2 η 3 {\displaystyle \log 2K_{\eta _{1}+1}({\sqrt {4\eta _{2}\eta _{3}}})-{\frac {\eta _{1}+1}{2}}\log {\frac {\eta _{2}}{\eta _{3}}}} log 2 K p ( a b ) p 2 log a b {\displaystyle \log 2K_{p}({\sqrt {ab}})-{\frac {p}{2}}\log {\frac {a}{b}}}
スケールされた逆カイ二乗分布 ν {\displaystyle \nu } , σ 2 {\displaystyle \sigma ^{2}} [ ν 2 1 ν σ 2 2 ] {\displaystyle {\begin{bmatrix}-{\dfrac {\nu }{2}}-1\\[10pt]-{\dfrac {\nu \sigma ^{2}}{2}}\end{bmatrix}}} [ 2 ( η 1 + 1 ) η 2 η 1 + 1 ] {\displaystyle {\begin{bmatrix}-2(\eta _{1}+1)\\[10pt]{\dfrac {\eta _{2}}{\eta _{1}+1}}\end{bmatrix}}} 1 {\displaystyle 1} [ log x 1 x ] {\displaystyle {\begin{bmatrix}\log x\\{\frac {1}{x}}\end{bmatrix}}} log Γ ( η 1 1 ) ( η 1 1 ) log ( η 2 ) {\displaystyle \log \Gamma (-\eta _{1}-1)-(-\eta _{1}-1)\log(-\eta _{2})} log Γ ( ν 2 ) ν 2 log ν σ 2 2 {\displaystyle \log \Gamma \left({\frac {\nu }{2}}\right)-{\frac {\nu }{2}}\log {\frac {\nu \sigma ^{2}}{2}}}
ベータ分布 (variant 1) α {\displaystyle \alpha } , β {\displaystyle \beta } [ α β ] {\displaystyle {\begin{bmatrix}\alpha \\\beta \end{bmatrix}}} [ η 1 η 2 ] {\displaystyle {\begin{bmatrix}\eta _{1}\\\eta _{2}\end{bmatrix}}} 1 x ( 1 x ) {\displaystyle {\frac {1}{x(1-x)}}} [ log x log ( 1 x ) ] {\displaystyle {\begin{bmatrix}\log x\\\log(1-x)\end{bmatrix}}} log Γ ( η 1 ) + log Γ ( η 2 ) log Γ ( η 1 + η 2 ) {\displaystyle \log \Gamma (\eta _{1})+\log \Gamma (\eta _{2})-\log \Gamma (\eta _{1}+\eta _{2})} log Γ ( α ) + log Γ ( β ) log Γ ( α + β ) {\displaystyle \log \Gamma (\alpha )+\log \Gamma (\beta )-\log \Gamma (\alpha +\beta )}
ベータ分布 (variant 2) α {\displaystyle \alpha } , β {\displaystyle \beta } [ α 1 β 1 ] {\displaystyle {\begin{bmatrix}\alpha -1\\\beta -1\end{bmatrix}}} [ η 1 + 1 η 2 + 1 ] {\displaystyle {\begin{bmatrix}\eta _{1}+1\\\eta _{2}+1\end{bmatrix}}} 1 {\displaystyle 1} [ log x log ( 1 x ) ] {\displaystyle {\begin{bmatrix}\log x\\\log(1-x)\end{bmatrix}}} log Γ ( η 1 + 1 ) + log Γ ( η 2 + 1 ) log Γ ( η 1 + η 2 + 2 ) {\displaystyle \log \Gamma (\eta _{1}+1)+\log \Gamma (\eta _{2}+1)-\log \Gamma (\eta _{1}+\eta _{2}+2)} log Γ ( α ) + log Γ ( β ) log Γ ( α + β ) {\displaystyle \log \Gamma (\alpha )+\log \Gamma (\beta )-\log \Gamma (\alpha +\beta )}
多変量正規分布 μ {\displaystyle {\boldsymbol {\mu }}} , σ {\displaystyle {\boldsymbol {\sigma }}} [ Σ 1 μ 1 2 Σ 1 ] {\displaystyle {\begin{bmatrix}{\boldsymbol {\Sigma }}^{-1}{\boldsymbol {\mu }}\\[5pt]-{\frac {1}{2}}{\boldsymbol {\Sigma }}^{-1}\end{bmatrix}}} [ 1 2 η 2 1 η 1 1 2 η 2 1 ] {\displaystyle {\begin{bmatrix}-{\frac {1}{2}}{\boldsymbol {\eta }}_{2}^{-1}{\boldsymbol {\eta }}_{1}\\[5pt]-{\frac {1}{2}}{\boldsymbol {\eta }}_{2}^{-1}\end{bmatrix}}} ( 2 π ) k 2 {\displaystyle (2\pi )^{-{\frac {k}{2}}}} [ x x x T ] {\displaystyle {\begin{bmatrix}\mathbf {x} \\[5pt]\mathbf {x} \mathbf {x} ^{\mathrm {T} }\end{bmatrix}}} 1 4 η 1 T η 2 1 η 1 1 2 log | 2 η 2 | {\displaystyle -{\frac {1}{4}}{\boldsymbol {\eta }}_{1}^{\rm {T}}{\boldsymbol {\eta }}_{2}^{-1}{\boldsymbol {\eta }}_{1}-{\frac {1}{2}}\log \left|-2{\boldsymbol {\eta }}_{2}\right|} 1 2 μ T Σ 1 μ + 1 2 log | Σ | {\displaystyle {\frac {1}{2}}{\boldsymbol {\mu }}^{\rm {T}}{\boldsymbol {\Sigma }}^{-1}{\boldsymbol {\mu }}+{\frac {1}{2}}\log |{\boldsymbol {\Sigma }}|}
カテゴリカル分布 (variant 1)[注釈 2] p 1 , , p k {\displaystyle p_{1},\dots {},p_{k}}

where i = 1 k p i = 1 {\displaystyle \textstyle \sum _{i=1}^{k}p_{i}=1}
[ log p 1 log p k ] {\displaystyle {\begin{bmatrix}\log p_{1}\\\vdots \\\log p_{k}\end{bmatrix}}} [ e η 1 e η k ] {\displaystyle {\begin{bmatrix}e^{\eta _{1}}\\\vdots \\e^{\eta _{k}}\end{bmatrix}}}

where i = 1 k e η i = 1 {\displaystyle \textstyle \sum _{i=1}^{k}e^{\eta _{i}}=1}
1 {\displaystyle 1} [ [ x = 1 ] [ x = k ] ] {\displaystyle {\begin{bmatrix}[x=1]\\\vdots \\{[x=k]}\end{bmatrix}}} 0 {\displaystyle 0} 0 {\displaystyle 0}
カテゴリカル分布 (variant 2)[注釈 2] p 1 , , p k {\displaystyle p_{1},\dots {},p_{k}}

where i = 1 k p i = 1 {\displaystyle \textstyle \sum _{i=1}^{k}p_{i}=1}
[ log p 1 + C log p k + C ] {\displaystyle {\begin{bmatrix}\log p_{1}+C\\\vdots \\\log p_{k}+C\end{bmatrix}}} [ 1 C e η 1 1 C e η k ] = {\displaystyle {\begin{bmatrix}{\dfrac {1}{C}}e^{\eta _{1}}\\\vdots \\{\dfrac {1}{C}}e^{\eta _{k}}\end{bmatrix}}=}

[ e η 1 i = 1 k e η i e η k i = 1 k e η i ] {\displaystyle {\begin{bmatrix}{\dfrac {e^{\eta _{1}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\\[10pt]\vdots \\[5pt]{\dfrac {e^{\eta _{k}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\end{bmatrix}}} where i = 1 k e η i = C {\displaystyle \textstyle \sum _{i=1}^{k}e^{\eta _{i}}=C}

1 {\displaystyle 1} [ [ x = 1 ] [ x = k ] ] {\displaystyle {\begin{bmatrix}[x=1]\\\vdots \\{[x=k]}\end{bmatrix}}} 0 {\displaystyle 0} 0 {\displaystyle 0}
カテゴリカル分布 (variant 3)[注釈 2] p 1 , , p k {\displaystyle p_{1},\dots {},p_{k}}

where p k = 1 i = 1 k 1 p i {\displaystyle p_{k}=1-\textstyle \sum _{i=1}^{k-1}p_{i}}
[ log p 1 p k log p k 1 p k 0 ] = {\displaystyle {\begin{bmatrix}\log {\dfrac {p_{1}}{p_{k}}}\\[10pt]\vdots \\[5pt]\log {\dfrac {p_{k-1}}{p_{k}}}\\[15pt]0\end{bmatrix}}=}

[ log p 1 1 i = 1 k 1 p i log p k 1 1 i = 1 k 1 p i 0 ] {\displaystyle {\begin{bmatrix}\log {\dfrac {p_{1}}{1-\sum _{i=1}^{k-1}p_{i}}}\\[10pt]\vdots \\[5pt]\log {\dfrac {p_{k-1}}{1-\sum _{i=1}^{k-1}p_{i}}}\\[15pt]0\end{bmatrix}}}
  • This is the inverse softmax function, a generalization of the logit function.
[ e η 1 i = 1 k e η i e η k i = 1 k e η i ] = {\displaystyle {\begin{bmatrix}{\dfrac {e^{\eta _{1}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\\[10pt]\vdots \\[5pt]{\dfrac {e^{\eta _{k}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\end{bmatrix}}=}

[ e η 1 1 + i = 1 k 1 e η i e η k 1 1 + i = 1 k 1 e η i 1 1 + i = 1 k 1 e η i ] {\displaystyle {\begin{bmatrix}{\dfrac {e^{\eta _{1}}}{1+\sum _{i=1}^{k-1}e^{\eta _{i}}}}\\[10pt]\vdots \\[5pt]{\dfrac {e^{\eta _{k-1}}}{1+\sum _{i=1}^{k-1}e^{\eta _{i}}}}\\[15pt]{\dfrac {1}{1+\sum _{i=1}^{k-1}e^{\eta _{i}}}}\end{bmatrix}}}

  • This is the softmax function, a generalization of the logistic function.
1 {\displaystyle 1} [ [ x = 1 ] [ x = k ] ] {\displaystyle {\begin{bmatrix}[x=1]\\\vdots \\{[x=k]}\end{bmatrix}}} log ( i = 1 k e η i ) = log ( 1 + i = 1 k 1 e η i ) {\displaystyle \log \left(\sum _{i=1}^{k}e^{\eta _{i}}\right)=\log \left(1+\sum _{i=1}^{k-1}e^{\eta _{i}}\right)} log p k = log ( 1 i = 1 k 1 p i ) {\displaystyle -\log p_{k}=-\log \left(1-\sum _{i=1}^{k-1}p_{i}\right)}
多項分布 (variant 1)
既知の試行回数 n {\displaystyle n}
p 1 , , p k {\displaystyle p_{1},\dots {},p_{k}}

where i = 1 k p i = 1 {\displaystyle \textstyle \sum _{i=1}^{k}p_{i}=1}
[ log p 1 log p k ] {\displaystyle {\begin{bmatrix}\log p_{1}\\\vdots \\\log p_{k}\end{bmatrix}}} [ e η 1 e η k ] {\displaystyle {\begin{bmatrix}e^{\eta _{1}}\\\vdots \\e^{\eta _{k}}\end{bmatrix}}}

where i = 1 k e η i = 1 {\displaystyle \textstyle \sum _{i=1}^{k}e^{\eta _{i}}=1}
n ! i = 1 k x i ! {\displaystyle {\frac {n!}{\prod _{i=1}^{k}x_{i}!}}} [ x 1 x k ] {\displaystyle {\begin{bmatrix}x_{1}\\\vdots \\x_{k}\end{bmatrix}}} 0 {\displaystyle 0} 0 {\displaystyle 0}
多項分布 (variant 2)
既知の試行回数 n {\displaystyle n}
p 1 , , p k {\displaystyle p_{1},\dots {},p_{k}}

where i = 1 k p i = 1 {\displaystyle \textstyle \sum _{i=1}^{k}p_{i}=1}
[ log p 1 + C log p k + C ] {\displaystyle {\begin{bmatrix}\log p_{1}+C\\\vdots \\\log p_{k}+C\end{bmatrix}}} [ 1 C e η 1 1 C e η k ] = {\displaystyle {\begin{bmatrix}{\dfrac {1}{C}}e^{\eta _{1}}\\\vdots \\{\dfrac {1}{C}}e^{\eta _{k}}\end{bmatrix}}=}

[ e η 1 i = 1 k e η i e η k i = 1 k e η i ] {\displaystyle {\begin{bmatrix}{\dfrac {e^{\eta _{1}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\\[10pt]\vdots \\[5pt]{\dfrac {e^{\eta _{k}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\end{bmatrix}}}

where i = 1 k e η i = C {\displaystyle \textstyle \sum _{i=1}^{k}e^{\eta _{i}}=C}

n ! i = 1 k x i ! {\displaystyle {\frac {n!}{\prod _{i=1}^{k}x_{i}!}}} [ x 1 x k ] {\displaystyle {\begin{bmatrix}x_{1}\\\vdots \\x_{k}\end{bmatrix}}} 0 {\displaystyle 0} 0 {\displaystyle 0}
多項分布 (variant 3)
既知の試行回数 n {\displaystyle n}
p 1 , , p k {\displaystyle p_{1},\dots {},p_{k}}

where p k = 1 i = 1 k 1 p i {\displaystyle p_{k}=1-\textstyle \sum _{i=1}^{k-1}p_{i}}
[ log p 1 p k log p k 1 p k 0 ] = {\displaystyle {\begin{bmatrix}\log {\dfrac {p_{1}}{p_{k}}}\\[10pt]\vdots \\[5pt]\log {\dfrac {p_{k-1}}{p_{k}}}\\[15pt]0\end{bmatrix}}=}

[ log p 1 1 i = 1 k 1 p i log p k 1 1 i = 1 k 1 p i 0 ] {\displaystyle {\begin{bmatrix}\log {\dfrac {p_{1}}{1-\sum _{i=1}^{k-1}p_{i}}}\\[10pt]\vdots \\[5pt]\log {\dfrac {p_{k-1}}{1-\sum _{i=1}^{k-1}p_{i}}}\\[15pt]0\end{bmatrix}}}
[ e η 1 i = 1 k e η i e η k i = 1 k e η i ] = {\displaystyle {\begin{bmatrix}{\dfrac {e^{\eta _{1}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\\[10pt]\vdots \\[5pt]{\dfrac {e^{\eta _{k}}}{\sum _{i=1}^{k}e^{\eta _{i}}}}\end{bmatrix}}=}

[ e η 1 1 + i = 1 k 1 e η i e η k 1 1 + i = 1 k 1 e η i 1 1 + i = 1 k 1 e η i ] {\displaystyle {\begin{bmatrix}{\dfrac {e^{\eta _{1}}}{1+\sum _{i=1}^{k-1}e^{\eta _{i}}}}\\[10pt]\vdots \\[5pt]{\dfrac {e^{\eta _{k-1}}}{1+\sum _{i=1}^{k-1}e^{\eta _{i}}}}\\[15pt]{\dfrac {1}{1+\sum _{i=1}^{k-1}e^{\eta _{i}}}}\end{bmatrix}}}

n ! i = 1 k x i ! {\displaystyle {\frac {n!}{\prod _{i=1}^{k}x_{i}!}}} [ x 1 x k ] {\displaystyle {\begin{bmatrix}x_{1}\\\vdots \\x_{k}\end{bmatrix}}} n log ( i = 1 k e η i ) = n log ( 1 + i = 1 k 1 e η i ) {\displaystyle n\log \left(\sum _{i=1}^{k}e^{\eta _{i}}\right)=n\log \left(1+\sum _{i=1}^{k-1}e^{\eta _{i}}\right)} n log p k = n log ( 1 i = 1 k 1 p i ) {\displaystyle -n\log p_{k}=-n\log \left(1-\sum _{i=1}^{k-1}p_{i}\right)}
ディリクレ分布 (variant 1) α 1 , , α k {\displaystyle \alpha _{1},\dots {},\alpha _{k}} [ α 1 α k ] {\displaystyle {\begin{bmatrix}\alpha _{1}\\\vdots \\\alpha _{k}\end{bmatrix}}} [ η 1 η k ] {\displaystyle {\begin{bmatrix}\eta _{1}\\\vdots \\\eta _{k}\end{bmatrix}}} 1 i = 1 k x i {\displaystyle {\frac {1}{\prod _{i=1}^{k}x_{i}}}} [ log x 1 log x k ] {\displaystyle {\begin{bmatrix}\log x_{1}\\\vdots \\\log x_{k}\end{bmatrix}}} i = 1 k log Γ ( η i ) log Γ ( i = 1 k η i ) {\displaystyle \sum _{i=1}^{k}\log \Gamma (\eta _{i})-\log \Gamma \left(\sum _{i=1}^{k}\eta _{i}\right)} i = 1 k log Γ ( α i ) log Γ ( i = 1 k α i ) {\displaystyle \sum _{i=1}^{k}\log \Gamma (\alpha _{i})-\log \Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}
ディリクレ分布 (variant 2) α 1 , , α k {\displaystyle \alpha _{1},\dots {},\alpha _{k}} [ α 1 1 α k 1 ] {\displaystyle {\begin{bmatrix}\alpha _{1}-1\\\vdots \\\alpha _{k}-1\end{bmatrix}}} [ η 1 + 1 η k + 1 ] {\displaystyle {\begin{bmatrix}\eta _{1}+1\\\vdots \\\eta _{k}+1\end{bmatrix}}} 1 {\displaystyle 1} [ log x 1 log x k ] {\displaystyle {\begin{bmatrix}\log x_{1}\\\vdots \\\log x_{k}\end{bmatrix}}} i = 1 k log Γ ( η i + 1 ) log Γ ( i = 1 k ( η i + 1 ) ) {\displaystyle \sum _{i=1}^{k}\log \Gamma (\eta _{i}+1)-\log \Gamma \left(\sum _{i=1}^{k}(\eta _{i}+1)\right)} i = 1 k log Γ ( α i ) log Γ ( i = 1 k α i ) {\displaystyle \sum _{i=1}^{k}\log \Gamma (\alpha _{i})-\log \Gamma \left(\sum _{i=1}^{k}\alpha _{i}\right)}
ウィッシャート分布[注釈 3] V {\displaystyle \mathbf {V} } , n {\displaystyle n} [ 1 2 V 1 n p 1 2 ] {\displaystyle {\begin{bmatrix}-{\frac {1}{2}}\mathbf {V} ^{-1}\\[5pt]{\dfrac {n-p-1}{2}}\end{bmatrix}}} [ 1 2 η 1 1 2 η 2 + p + 1 ] {\displaystyle {\begin{bmatrix}-{\frac {1}{2}}{{\boldsymbol {\eta }}_{1}}^{-1}\\[5pt]2\eta _{2}+p+1\end{bmatrix}}} 1 {\displaystyle 1} [ X log | X | ] {\displaystyle {\begin{bmatrix}\mathbf {X} \\\log |\mathbf {X} |\end{bmatrix}}} ( η 2 + p + 1 2 ) log | η 1 | {\displaystyle -\left(\eta _{2}+{\frac {p+1}{2}}\right)\log |-{\boldsymbol {\eta }}_{1}|}
      
  
    
      
        +
        log
        
        
          Γ
          
            p
          
        
        
          (
          
            
              η
              
                2
              
            
            +
            
              
                
                  p
                  +
                  1
                
                2
              
            
          
          )
        
        =
      
    
    {\displaystyle +\log \Gamma _{p}\left(\eta _{2}+{\frac {p+1}{2}}\right)=}
  

n 2 log | η 1 | + log Γ p ( n 2 ) = {\displaystyle -{\frac {n}{2}}\log |-{\boldsymbol {\eta }}_{1}|+\log \Gamma _{p}\left({\frac {n}{2}}\right)=}
( η 2 + p + 1 2 ) ( p log 2 + log | V | ) {\displaystyle \left(\eta _{2}+{\frac {p+1}{2}}\right)(p\log 2+\log |\mathbf {V} |)}
       + log Γ p ( η 2 + p + 1 2 ) {\displaystyle +\log \Gamma _{p}\left(\eta _{2}+{\frac {p+1}{2}}\right)}
  • Three variants with different parameterizations are given, to facilitate computing moments of the sufficient statistics.
n 2 ( p log 2 + log | V | ) + log Γ p ( n 2 ) {\displaystyle {\frac {n}{2}}(p\log 2+\log |\mathbf {V} |)+\log \Gamma _{p}\left({\frac {n}{2}}\right)}
逆ウィッシャート分布 Ψ {\displaystyle {\boldsymbol {\Psi }}} , m {\displaystyle m} [ 1 2 Ψ m + p + 1 2 ] {\displaystyle {\begin{bmatrix}-{\frac {1}{2}}{\boldsymbol {\Psi }}\\[5pt]-{\dfrac {m+p+1}{2}}\end{bmatrix}}} [ 2 η 1 ( 2 η 2 + p + 1 ) ] {\displaystyle {\begin{bmatrix}-2{\boldsymbol {\eta }}_{1}\\[5pt]-(2\eta _{2}+p+1)\end{bmatrix}}} 1 {\displaystyle 1} [ X 1 log | X | ] {\displaystyle {\begin{bmatrix}\mathbf {X} ^{-1}\\\log |\mathbf {X} |\end{bmatrix}}} ( η 2 + p + 1 2 ) log | η 1 | + log Γ p ( ( η 2 + p + 1 2 ) ) = m 2 log | η 1 | + log Γ p ( m 2 ) = ( η 2 + p + 1 2 ) ( p log 2 log | Ψ | ) + log Γ p ( ( η 2 + p + 1 2 ) ) {\displaystyle {\begin{aligned}&\left(\eta _{2}+{\frac {p+1}{2}}\right)\log |-{\boldsymbol {\eta }}_{1}|+\log \Gamma _{p}\left(-{\Big (}\eta _{2}+{\frac {p+1}{2}}{\Big )}\right)\\&=-{\frac {m}{2}}\log |-{\boldsymbol {\eta }}_{1}|+\log \Gamma _{p}\left({\frac {m}{2}}\right)\\&=-\left(\eta _{2}+{\frac {p+1}{2}}\right)(p\log 2-\log |{\boldsymbol {\Psi }}|)+\log \Gamma _{p}\left(-{\Big (}\eta _{2}+{\frac {p+1}{2}}{\Big )}\right)\end{aligned}}} m 2 ( p log 2 log | Ψ | ) + log Γ p ( m 2 ) {\displaystyle {\frac {m}{2}}(p\log 2-\log |{\boldsymbol {\Psi }}|)+\log \Gamma _{p}\left({\frac {m}{2}}\right)}
ガウス・ガンマ分布 α {\displaystyle \alpha } , β {\displaystyle \beta } , μ {\displaystyle \mu } , λ {\displaystyle \lambda } [ α 1 2 β λ μ 2 2 λ μ λ 2 ] {\displaystyle {\begin{bmatrix}\alpha -{\frac {1}{2}}\\-\beta -{\dfrac {\lambda \mu ^{2}}{2}}\\\lambda \mu \\-{\dfrac {\lambda }{2}}\end{bmatrix}}} [ η 1 + 1 2 η 2 + η 3 2 4 η 4 η 3 2 η 4 2 η 4 ] {\displaystyle {\begin{bmatrix}\eta _{1}+{\frac {1}{2}}\\-\eta _{2}+{\dfrac {\eta _{3}^{2}}{4\eta _{4}}}\\-{\dfrac {\eta _{3}}{2\eta _{4}}}\\-2\eta _{4}\end{bmatrix}}} 1 2 π {\displaystyle {\dfrac {1}{\sqrt {2\pi }}}} [ log τ τ τ x τ x 2 ] {\displaystyle {\begin{bmatrix}\log \tau \\\tau \\\tau x\\\tau x^{2}\end{bmatrix}}} log Γ ( η 1 + 1 2 ) 1 2 log ( 2 η 4 ) {\displaystyle \log \Gamma \left(\eta _{1}+{\frac {1}{2}}\right)-{\frac {1}{2}}\log \left(-2\eta _{4}\right)-}

       ( η 1 + 1 2 ) log ( η 2 + η 3 2 4 η 4 ) {\displaystyle -\left(\eta _{1}+{\frac {1}{2}}\right)\log \left(-\eta _{2}+{\dfrac {\eta _{3}^{2}}{4\eta _{4}}}\right)}

log Γ ( α ) α log β 1 2 log λ {\displaystyle \log \Gamma \left(\alpha \right)-\alpha \log \beta -{\frac {1}{2}}\log \lambda }

統計における役割

指数型分布族は、 一般化線形モデルで使用される分布関数の基礎を形成する。 一般化線形モデルは、統計で一般的に使用される回帰モデルの多くを含む。

脚注

注釈

  1. ^ 自然パラメータはロジット関数、パラメータの逆写像はロジスティック関数に相当する。
  2. ^ a b c [ x = i ] {\displaystyle [x=i]} アイバーソンの記法による( x = i {\displaystyle x=i} ならば 1 そうでなければ 0)
  3. ^ t r ( A T B ) = vec ( A ) vec ( B ) {\displaystyle {\rm {tr}}(\mathbf {A} ^{\rm {T}}\mathbf {B} )=\operatorname {vec} (\mathbf {A} )\cdot \operatorname {vec} (\mathbf {B} )} を用いた。行列パラメータは指数形式に代入する際にベクトル化されているとものとする。また、VX は対称行列であり、 V = V {\displaystyle \mathbf {V} ^{\top }=\mathbf {V} } などとなる。

出典

  1. ^ Andersen, Erling (September 1970). “Sufficiency and Exponential Families for Discrete Sample Spaces”. Journal of the American Statistical Association (Journal of the American Statistical Association) 65 (331): 1248–1255. doi:10.2307/2284291. JSTOR 2284291. MR268992. 
  2. ^ Pitman, E.; Wishart, J. (1936). “Sufficient statistics and intrinsic accuracy”. Mathematical Proceedings of the Cambridge Philosophical Society 32 (4): 567–579. Bibcode: 1936PCPS...32..567P. doi:10.1017/S0305004100019307. 
  3. ^ Darmois, G. (1935). “Sur les lois de probabilites a estimation exhaustive” (フランス語). C. R. Acad. Sci. Paris 200: 1265–1266. 
  4. ^ Koopman, B. (1936). “On distribution admitting a sufficient statistic”. Transactions of the American Mathematical Society (American Mathematical Society) 39 (3): 399–409. doi:10.2307/1989758. JSTOR 1989758. MR1501854. 
  5. ^ Nielsen, Frank; Garcia, Vincent. "Statistical exponential families: A digest with flash cards". arXiv:0911.4863

参考文献

  • Fahrmeir, Ludwig; Tutz, G. (1994). Multivariate Statistical Modelling based on Generalized Linear Models. Springer. pp. 18–22, 345–349. ISBN 0-387-94233-5 
  • Keener, Robert W. (2006). Theoretical Statistics: Topics for a Core Course. Springer. pp. 27–28, 32–33. ISBN 978-0-387-93838-7 
  • Lehmann, E. L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). p. sec. 1.5. ISBN 0-387-98502-6 

外部リンク

    • A primer on the exponential family of distributions
    • Exponential family of distributions on the Earliest known uses of some of the words of mathematics
    • jMEF: A Java library for exponential families