SlideShare a Scribd company logo
1 of 74
Download to read offline
1/74
PRML 10.4 - 10.6
宮澤 彬
総合研究大学院大学 博士前期
miyazawa-a@nii.ac.jp
August 7, 2015
(modified: September 9, 2015)
2/74
はじめに
このスライドの LuaLATEX のソースコードは
https://github.com/pecorarista/documents にあります.
教科書とは若干異なる表記をしている場合があります.
10.4.1 と 10.7 は間に合いませんでした.
3/74
潜在変数とパラメータ
今までモデルの中で観測値 (observed variable) と隠れ変数 (hidden
variable) を区別してきた.これからは更に以下のような区別を導入
する.
潜在変数 (latent variable) Z
観測値集合の大きさに従って数が増える(外延的変数)
例:ガウス混合モデルのインジケータ変数 zkn
パラメータ (parameter) θ
観測値集合の大きさに関わらず数が固定(内包的変数)
例:ガウス混合モデルの平均 µk,精度 Λk,混合比 πk
4/74
指数型分布族
独立に同分布に従うデータの集合 X := {x1, . . . , xN } とそれに対応する
潜在変数の集合 Z := {z1, . . . , zN } があるとする.これらの同時分布が
自然パラメータ η を使った以下の指数型分布族で表せるとする.
p (X, Z|η) =
N
n=1
h (xn, zn) g (η) exp (η u (xn, zn)) . (10.113)
また η は共役事前分布
p (η|ν0, χ0) = f (ν0, χ0) g (η)
ν0
exp (ν0η χ0)
に従うものとする.
5/74
指数型分布族について復習
第 2.4 節で指数型分布族とその共役事前分布について学んだ.次のよう
な形をした指数型確率分布
p (x|η) = h (x) g (η) exp (η u (x)) (2.194)
について
p (η|χ, ν) = f (χ, ν) g (η)
ν
exp (νη χ) (2.229)
という形の共役事前分布が存在する.データ X = {x1, . . . , xn} が与え
られたとき,尤度は
p (X|η) =
N
n=1
h (xn) g (η)
N
exp η
N
n=1
u (xn) (2.227)
となる.
6/74
指数型分布族について復習
事後分布は
p (η|X, χ, ν) ∝ p (X|η) p (η|χ, ν)
∝ g (η)
ν+N
exp η
N
n=1
u (xn) + νχ (2.230)
と計算できる.この式から,事前分布のパラメータ ν は,有効な事前の
仮想観測値の数と解釈できる.ただし,仮想観測値では,十分統計量
u (x) の代わりに,χ が与えられる.
7/74
指数型分布族の変分近似
指数型分布族を変分分布近似することを考える.これまでと同様に,周
辺分布の対数 log p (X) を
log p (X) = L (q) + KL (q p) ,
L (q) = q (Z, η) log
p (X, Z|η) p (η)
q (Z, η)
(dηdZ) ,
KL (q p) = − q (Z, η) log
p (Z|X, η) p (η)
q (Z, η)
(dηdZ)
と分解し,L を q について最大化する.
8/74
KL タイバージェンスの最小化
f と g を確率密度関数とする.区間 (0, ∞) において log x ≤ x − 1 が成
り立つ.ここで x := f/g とすると f log g − f log f ≤ g − f となる.積
分の線型性と単調性から
X
f log gdµ −
X
f log fdµ ≤
X
gdµ −
X
fdµ
が成り立つ.確率密度関数の性質から X
fdµ = X
gdµ = 1 なので
X
f log gdµ ≤
X
f log fdµ
を得る.ほとんど確実に f = g のとき上式の等号が成り立つ.また等号
が成り立つのはそのときに限る.
9/74
KL タイバージェンスの最小化の補足
[0, ∞] 値 M-可測関数 f について X
f (x) µ (dx) = 0 が成り立つなら
ば,µ ({x ∈ X ; f (x) = 0}) = 0 が成り立つ.
証明 En := {x ∈ X ; f (x) ≥ 1/n} とおくと
∞
n=1
En = {x ∈ X ; f (x) > 0}
である.仮定 X
f (x) µ (dx) = 0 と f (x) ≥ 0 から,任意の n について
0 =
X
f (x) µ (dx) ≥
En
f (x) µ (dx) ≥
1
n
µ (En) ≥ 0
となる.すなわち各 n で µ (En) = 0 が成り立つ.ゆえに測度の性質から
µ
∞
n=1
En ≤
∞
n=1
µ (En) = 0
であることが分かる.
10/74
指数型分布族の変分近似
L の最大化に戻る.
計算を進めるため,変分分布が潜在変数とパラメータで分けられる,す
なわち q (Z, η) = q (Z) q (η) と分解できると仮定する.
L (q) = q (Z, η) log (p (X, Z|η) p (η)) (dηdZ)
− q (Z, η) log q (Z, η) (dηdZ)
= q (Z) q (η) log p (X, Z|η) dη dZ
− q (Z) log q (Z) dZ
− q (η) (log q (η) − log p (η)) dη
11/74
指数型分布族の変分近似
したがって最適な q (Z) は
log q (Z) = q (η) log p (X, Z|η) dη + const.
= Eη [log p (X, Z|η)] + const.
=
N
n=1
(log h (xn, zn) + E [η ] u (xn, zn)) + const. (10.115)
を満たさなければならない.この式の右辺に注目すると,各 n ごとに独
立な項の和に分解できるので q (Z) =
N
n=1 q (zn) となる.よって指
数をとって
q (zn) = h (xn, zn) g (E [η]) exp (E [η ] u (xn, zn)) (10.116)
を得る.ただし g (E [η]) は正則化のため,指数型分布族の標準的な形に
合わせて付加したものである.
12/74
指数型分布族の変分近似
次に q (η) について最大化する.L は
L (q) = q (η) q (Z) log p (X, Z|η) dZ dη
− q (Z) log q (Z) dZ
− q (η) (log q (η) − log p (η)) dη
と表せるので
log q (η) = log p (η|ν0, χ0) + EZ [log p (X, Z|η)] + const. (10.117)
= ν0 log g (η) + ν0η χ0
+
N
n=1
(log g (η) + η Ezn [u (xn, zn)]) + const. (10.118)
となる.
13/74
指数型分布族の変分近似
指数をとって
q (η) = f (νN , χN ) g (η)
νN
exp (νN η χN ) (10.119)
を得る.ただし,
νN = ν0 + N (10.120)
νN χN = ν0χ0 +
N
n=1
Ezn
[u (xn, zn)] (10.121)
とした.
14/74
指数型分布族の変分近似
q (zn) と q (η) の解には相互に依存関係があるので,二段階の繰り返
しで解く.
変分 E ステップ
q (zn) ← h (xn, zn) g (E [η]) exp (E [η ] u (xn, zn))
q (η) ← f (νN , χN ) g (η)
νN
exp (νN η χN )
where
µn ← Ezn
[u (xn, zn)] = q (zn) u (xn, zn) dzn
νN χN ← ν0χ0 +
N
n=1
µn
変分 M ステップ
η ← E [η] = q (η) ηdη
15/74
局所的変分推論
10.1 節や 10.2 節では,事後分布の近似を直接求めた.
10.5 節と 10.6 節では各変数の上からあるいは下から近似を使う方法
を学ぶ.
16/74
凸関数の下限の表示
関数 f (x) = exp (−x) の点 (ξ, f (ξ)) における接線の方程式を求めると
y (x) = − exp (−ξ) (x − ξ) + exp (−ξ) (10.126)
である.
xξ0 1.5 3
0
0.5
1
17/74
凸関数の下限の表示
ここで η := − exp (−ξ) とすると ξ = − log (−η) なので
y (x, η) = ηx − η + η log (−η) (10.127)
である.凸関数の性質から,f の接線はグラフの下にくるので 1
,
f (x) = max
η
{ηx − η + η log (−η)} (10.128)
と表せる.
1 任意の λ ∈ (0, 1) をとると
f (λx + (1 − λ) ξ) ≤ λf (x) + (1 − λ) f (ξ)
f (λx + (1 − λ) ξ) − f (ξ)
λ
≤ f (x) − f (ξ)
が成り立つ.よって λ → +0 として
f (x) · (x − ξ) ≤ f (x) − f (ξ)
を得る.
18/74
凸関数の下限の表示
新たなパラメータ η を導入するという代償は払ったが,一次関数による
下から近似 y (x, η) を得た.
η
ηξ − g(η)
−1 −0.5 0
0
0.2
0.4
これは一般に凸双対性の理論で説明されることである.
19/74
共役関数
X を Banach 空間とし,X∗
を X の共役空間 2
とする.このとき関数
f : X → [−∞, +∞] に対し,f∗
: X∗
→ [−∞, +∞] を
f∗
(φ) := sup {φ (x) − f (x) ; x ∈ X}
で定め,f の共役関数 (conjugate function) や Fenchel 双対
(Fenchel conjugate)3
などと呼ばれる.
また f の双共役関数 (biconjugate function) f∗∗
: X → [−∞, +∞] を
f∗∗
(x) := sup {φ(x) − f∗
(φ) ; φ ∈ X∗
}
と呼ぶ.
2 X 上の有界線型汎関数全体が作る線型空間.
3 Werner Fenchel /(de) ˈvɛʀnɐ ˈfɛnçəl/ (1905 - 1988)
20/74
共役関数
共役関数は非凸関数についても考えることができるが,多くの場合は
proper4
な凸関数の共役関数を考える.
凹関数については共役関数の定義において sup を inf に置き換えた凹共
役関数 (concave conjugate function) を考える.
f∗ (φ) := inf {φ (x) − f (x) ; x ∈ X} .
凹双共役関数 (concave biconjugate function) も同様に考えられる.
f∗∗ (x) := inf {φ (x) − f∗ (φ) ; φ ∈ X∗
} .
4 関数 f : X → ( −∞, ∞] が proper であるとは dom f = {x ∈ X ; f (x) < ∞} が
空でないということである.つまり ∞ にべったり張り付かないということ.
21/74
共役関数
f∗
(η) = sup {ηx − f (x) ; x ∈ R}
O x
y
y = f (x)
y = ηx
ηx − f (x)
22/74
共役関数
f∗
(η) = sup {ηx − f (x) ; x ∈ R}
O x
y
y = f (x)
y = ηx
f∗
(η) = η¯x − f (¯x)
¯x
23/74
共役関数
例として f (x) := exp (−x) の共役関数 f∗
(η) = supx {ηx − f (x)} を陽
に求めてみる.{·} の中を x で微分して 0 と置くと
η + exp (−x) = 0
x = − log (−η)
となる.したがって f∗
(x) = η − η log (−η) を得る.
xξ0 1.5 3
0
0.5
1
η
ηξ − g(η)
−1 −0.5 0
0
0.2
0.4
24/74
共役関数
次に双共役関数 f∗∗
(x) = supη {ηx − f∗
(η)} を陽に求めてみる.{·} の
中を η で微分して 0 と置くと
d
dη
(ηx − η + η log (−η)) = 0
x − 1 + log (−η) + 1 = 0
η = − exp (−x)
となる.ゆえに
f∗∗
(x) = − exp (−x) x + exp (−x) + exp (−x) (−x)
= exp (−x)
= f (x)
を得る.つまり f = f∗∗
が成り立つ.これは Fenchel 変換によって情
報が失われていないということである.
一般に f を proper で下半連続な凸関数とすると f = f∗∗
が成り立つ.
25/74
ロジスティックシグモイド関数
次にパターン認識でよく現れるロジスティックシグモイドの共役関数を
求める.
σ (x) =
1
1 + exp (−x)
(10.134)
これは凸でも凹でもないが,対数をとると凹になる.u(x) := log σ (x)
とする.
u (x) = − log 1 + e−x
d
dx
u (x) = −
−e−x
1 + e−x
=
1
ex + 1
> 0
d2
dx2
u (x) = −
ex
(ex + 1)
2 < 0
26/74
共役関数
O
x
y
y = − log (1 + e−x
)
− log 2
27/74
ロジスティックシグモイド関数の上からの評価
関数 u は凹なので,凹共役 u∗ (η) = infx {ηx − u (x)} を考える.{·} の
中を x で微分して 0 と置くと
η =
1
ex + 1
x = log (1 − η) − log η
となる.したがって
u∗ (η) = η log (1 − η) − η log η + log 1 +
η
1 − η
= −η log η − (1 − η) log (1 − η)
を得る.これは 2 値エントロピー関数になっている.
28/74
2 値エントロピー関数
1O 1
2
log 2
y = −η log η − (1 − η) log (1 − η)
η
y
29/74
ロジスティックシグモイド関数の上からの評価
凹共役 u∗ (η) を使えば u (x) = log σ (x) を
log σ (x) ≤ ηx − u∗ (η) (10.136)
と上から抑えられる.指数をとって
σ (x) ≤ exp (ηx − u∗ (η)) (10.136)
となる.
30/74
ロジスティックシグモイド関数の上からの評価
今までの計算によって,私達はロジスティックシグモイド関数の上から
の評価を得た.
σ (x) ≤ exp (ηx + η log η + (1 − η) log (1 − η))
η = 0.2
η = 0.7
−6 0 6
0
0.5
1
31/74
ロジスティックシグモイド関数の下からの評価
下からの評価を得るため,まず u を少し変形しておく.
u (x) = − log 1 + e−x
= − log e−x/2
ex/2
+ e−x/2
=
x
2
− log 2 cosh
x
2
右辺の第 2 項に着目する.ここで v := x2
,
f (v) := − log (2 cosh (
√
v/2)) と置いて解析を進める.
32/74
ロジスティックシグモイド関数の下からの評価
いま定義した f (v) = − log (2 cosh (
√
v/2)) は凸関数である.
df
dv
(v) = −
2 sinh (
√
v/2)
2 cosh (
√
v/2)
1
4
√
v
= −
1
4
√
v
tanh
√
v
2
d2
f
dv2
(v) = −
1
8v
√
v
tanh
√
v
2
+
1
4
√
v
1
cosh2
(
√
v/2)
1
4
√
v
=
1
16v
√
v cosh2
(
√
v/2)
2 sinh
√
v
2
cosh
√
v
2
−
√
v
=
sinh
√
v −
√
v
16v
√
v cosh2
(
√
v/2)
≥ 0
33/74
ロジスティックシグモイド関数の下からの評価
念のため g (v) := sinh
√
v −
√
v が v ≥ 0 の範囲で非負であることを確
認する.導関数は
dg
dv
(x) =
cosh
√
v − 1
2
√
v
≥ 0
であり,sinh 0 − 0 = 0 であるから,確かにこの範囲では g (v) ≥ 0 が成
り立つ.
O
y = sinh
√
v −
√
v
v
y
34/74
ロジスティックシグモイド関数の下からの評価
凸関数の性質から接線がグラフの下にくるので
f (v) ≥ f ξ2
+
df
dv
ξ2
v − ξ2
f x2
− f ξ2
≥ −
1
4ξ
tanh
ξ
2
x2
− ξ2
が成り立つ.教科書に合わせて λ (ξ) := (4ξ)
−1
tanh (ξ/2) と置く.上式
を使うと
log σ (x) − log σ (ξ) =
x
2
+ f x2
−
ξ
2
+ f ξ2
≥
x − ξ
2
− λ (ξ) x2
− ξ2
であり,両辺の指数をとって以下を得る.
σ (x) ≥ σ (ξ) exp
x − ξ
2
− λ (ξ) x2
− ξ2
. (10.144)
35/74
ロジスティックシグモイド関数の下からの評価
今までの計算によって,私達はロジスティックシグモイド関数の下から
の評価を得た.
σ (x) ≥ σ (ξ) exp
x − ξ
2
− λ (ξ) x2
− ξ2
ξ = 2.5
−ξ ξ−6 0 6
0
0.5
1
36/74
どうやって使うのか
得られた不等式を積分計算に使ってみる.ロジスティックシグモイド関
数 σ とガウス確率密度 p について以下の積分
I = σ (a) p (a) da (10.145)
を計算したいとする.こういった計算は予測分布を求めるときに必要に
なる.不等式 σ (a) ≥ f (a, ξ) が成り立っているとすると (10.145) は
I ≥ f (a, ξ) p (a) da = F (ξ) (10.146)
と評価できる.もし F を最大化できれば I の良い近似になる.
37/74
変分事後分布
ロジスティック回帰モデルに変分近似を使ってみる.目的変数は
t ∈ {0, 1} とし,表記を簡単にするため a = w φ とする.このとき尤度は
p (t|w) = σ (a)
t
(1 − σ (a))
1−t
=
1
1 + e−a
t
1 −
1
1 + e−a
1−t
=
1
1+e−a
1 − 1
1+e−a
t
1 −
1
1 + e−a
= eat e−a
1 + e−a
= eat
σ (−a) (10.148)
となる.
38/74
変分事後分布
前の節で計算した下限を使って評価する.(10.144) により
p (t|w) = eat
σ (−a)
≥ eat
σ (ξ) exp −
a + ξ
2
− λ (ξ) a2
− ξ2
(10.151)
となる.
39/74
変分事後分布
したがって観測値の系列 t が得られたとき
p (t, w) = p (t|w) p (w)
= p (w)
N
n=1
p (tn|w)
≥ p (w) h (w, ξ) , (10.152)
ただし
h (w, ξ) :=
N
n=1
σ (ξn) exp w φntn −
w φn + ξn
2
− λ (ξn) (w φn)
2
− ξ2
n (10.153)
となる.
40/74
変分事後分布
(10.153) の対数をとると
log (p (t|w) p (w)) ≥ log p (w) + log h (w, ξ)
= log p (w) +
N
n=1
log σ (ξn) + w φntn
−
w φn + ξn
2
− λ (ξn) (w φn)
2
− ξ2
n (10.154)
となる.右辺に事前分布 p (w) = N (w|m0, S0) を代入すると
− (w − m0) S−1
0 (w − m0)
+
N
n=1
w φn tn −
1
2
− λ (ξn) w (φnφn) w + const. (10.155)
となる.
41/74
変分事後分布
(10.155) の形から,変分事後分布 q (w)5
は適当なガウス分布
N (w|mN , SN ) で表せることが分かる.2 次の項に着目すると精度は
S−1
N = S−1
0 + 2
N
n=1
λ (ξn) φnφn
と分かる.1 次の項に着目すると平均 mN は
mN = SN S−1
0 m0 +
N
n=1
tn −
1
2
φn
である.つまり q (w) = N (w|mN , SN ) である.
こうして私達はラプラス近似のように事後分布のガウス分布近似を得
た.今回はさらに変分パラメータ {ξn}n が加わって柔軟になっているた
め,より高い精度が期待できる.
5 q (w) は同時確率 p (t, w) = p (t|w) p (w) を近似するもので,結果として事後分布 p (w|t)
を近似するものになるのだった.
42/74
変分パラメータの最適化
変分事後分布が q (w) = N (w|mN , SN ) となることは分かった.平均
mN と分散 SN はどちらも ξ に依存しているので,ξ の最適化を考えな
ければならない.いつも通り周辺尤度の下からの近似を考えよう.
log p (t) = log p (t|w) p (w) dw
≥ log h (w, ξ) p (w) dw = L (ξ) (10.159)
この後の方法には二通りある.
1. w を潜在変数とみなして EM アルゴリズムを使う.
2. w に対する積分を計算し,ξ を直接最大化する.
まずは一つ目の EM アルゴリズムを使う方法から見ていく.
43/74
変分パラメータの最適化(EM アルゴリズム)
M ステップの導出については次ページ以降で説明する.
E ステップ
q (w) ← N (w|mN , SN )
where
S−1
N ← S−1
0 + 2
N
n=1
λ (ξn) φnφn
mN ← SN S−1
0 m0 +
N
n=1
tn −
1
2
φn
M ステップ
ξ2
n ← φnE [ww ] φn = φn (SN + mN mN ) φn
44/74
変分パラメータの最適化(EM アルゴリズム)
M ステップでは ξ の新しい値を求めるため,E ステップで計算した事後
分布 q (w) を使って
Q ξ, ξold
:= E [log (h (w, ξ) p (w))]
= q (w) log (h (w, ξ) p (w)) dw
を計算する.ξn に依存する項のみに着目すると
Q ξ, ξold
=
N
n=1
log σ (ξn) −
ξn
2
− λ (ξn) φnE [ww ] φn − ξ2
n
+ const. (10.161)
となる.
45/74
変分パラメータの最適化(EM アルゴリズム)
以下を計算する.
d
dξn
log σ (ξn) −
ξn
2
− λ (ξn) φnE [ww ] φn − ξ2
n .
ロジスティックシグモイド関数の微分の公式
dσ
da
= σ (1 − σ) (4.88)
を使うと
d
dξ
log (σ (ξ)) =
σ (ξ) (1 − σ (ξ))
σ (ξ)
= 1 − σ (ξ)
が成り立つ.
46/74
変分パラメータの最適化(EM アルゴリズム)
また λ (ξ) については以下のように変形できる.
λ (ξ) =
1
4ξ
tanh
ξ
2
=
1
4ξ
eξ/2
− e−ξ/2
eξ/2 + e−ξ/2
=
1
4ξ
1 − e−ξ
1 + e−ξ
=
2
4ξ
1
1 + e−ξ
−
1/2 + e−ξ
/2
1 + e−ξ
=
1
2ξ
σ (ξ) −
1
2
. (10.150)
47/74
変分パラメータの最適化(EM アルゴリズム)
よって
d
dξn
log σ (ξn) −
ξn
2
− λ (ξn) φnE [ww ] φn − ξ2
n
= 1 − σ (ξn) −
1
2
+
dλ
dξn
(ξn) φnE [ww ] φn − ξ2
n + σ (ξn) −
1
2
=
dλ
dξn
(ξn) φnE [ww ] φn − ξ2
n
となる.停留条件を求めたいので
dλ
dξn
(ξn) φnE [ww ] φn − ξ2
n = 0 (10.162)
とする.
48/74
y = λ (ξ) のグラフ
−1 1O
y = λ (ξ)
ξ
y
λ (0) = lim
ξ→0
σ (ξ) − σ (0)
ξ − 0
=
dσ
dξ ξ=0
= σ (0) (1 − σ (0)) =
1
4
49/74
y = (dλ/dξ) (ξ) のグラフ
O
ξ
y
dλ
dξ
(ξ) = −
1
ξ2
σ (ξ) −
1
2
−
1
ξ
σ (ξ) (1 − σ (ξ))
50/74
変分パラメータの最適化(EM アルゴリズム)
ξ = 0 の範囲では (dλ/dξ) (ξ) = 0 なので
(ξnew
n )
2
= φnE [ww ] φn
となる.分散の定義,期待値の性質と q (w) = N (w|mN , SN ) より
SN = E (w − mN ) (w − mN )
= E [ww ] − mN E [w] − E [w] mN + mN mN
= E [ww ] − mN mN
であるから
(ξnew
n )
2
= φn (SN + mN mN ) φn (10.163)
を得る.
51/74
変分パラメータの最適化(直接計算)
二つ目の方法は,L (ξ) を計算する方法である.計算で求められた L の
式を ξ で微分することにより,L を最大化するような ξ を求めるので
ある.
L (ξ) =
N
n=1
log σ (ξn) −
ξn
2
+ λ (ξn) ξ2
n
+ log
dw
(2π)
m
|S0|
exp −
1
2
(w − m0) S−1
0 (w − m0)
exp w
N
n=1
tn −
1
2
φn − w
N
n=1
λ (ξn) φnφn w
52/74
変分パラメータの最適化(直接計算)
積分記号の中の指数関数の引数に着目すると
−
1
2
w S−1
0 w + w m0S−1
0 +
N
n=1
tn −
1
2
φn
−
1
2
m0S−1
0 m0 − w
N
n=1
λ (ξn) φnφn w
= −
1
2
w S−1
0 w + w S−1
N mN −
1
2
m0S−1
0 m0 −
1
2
w S−1
N − S−1
0 w
= −
1
2
(w − mN ) S−1
N (w − mN ) +
1
2
mN S−1
N mN −
1
2
m0S−1
0 m0
53/74
変分パラメータの最適化(直接計算)
L (ξ) =
N
n=1
log σ (ξn) −
ξn
2
+ λ (ξn) ξ2
n
+ log
|SN |
|S0|
1
|SN |
exp −
1
2
(w − mN ) S−1
N (w − mN )
exp
1
2
mN S−1
N mN −
1
2
m0S−1
0 m0 dw
=
1
2
log
|SN |
|S0|
+
1
2
mN S−1
N mN −
1
2
m0S−1
0 m0
+
N
n=1
log σ (ξn) −
ξn
2
+ λ (ξn) ξ2
n (10.164)
54/74
変分パラメータの最適化(直接計算)
(10.164) の各項の ξn についての導関数を計算しておこう.まず
log |SN | を ξn で微分することを考える.公式
(d/dt) |A (t)| = tr A−1
(t) ˙A (t) を使う.
∂
∂ξn
log |SN | = −
∂
∂ξn
log S−1
N
= − tr SN
∂S−1
N
∂ξn
= − tr SN 2
dλ
dξn
(ξn) φnφ
対称行列の跡に関する公式 x Ax = tr (Axx ) を使って次を得る.
∂
∂ξn
log |SN | = −2
dλ
dξn
(ξn) φnSN φn.
公式の導出に関しては,このスライドの補足 1 と補足 2 を参照.
55/74
変分パラメータの最適化(直接計算)
次に mN S−1
N mN を ξn で微分する.mN = SN vN と置く.(C.21) の公
式 ∂A−1
/∂x = −A−1
(∂A/∂x)A−1
などを使って
∂
∂ξn
mN S−1
N mN =
∂
∂ξn
vN SN S−1
N SN vN
= vN
∂SN
∂ξn
vN
= −vN SN
∂S−1
N
∂ξn
SN vN
= −2
dλ
dξn
(ξn) mN (φnφn) mN
= −2
dλ
dξn
(ξn) φnmN mN φn
を得る.
56/74
変分パラメータの最適化(直接計算)
最後に総和記号の中を ξn で微分する.
d
dξn
log σ (ξn) −
ξn
2
+ λ (ξn) ξ2
n
= 1 − σ (ξn) −
1
2
+
dλ
dξn
(ξn) ξ2
n + 2λ (ξn) ξn
=
1
2
− σ (ξn) +
dλ
dξn
(ξn) ξ2
n + σ (ξn) −
1
2
=
dλ
dξn
(ξn) ξ2
n
57/74
変分パラメータの最適化(直接計算)
以上の結果から ∂L/∂ξn = 0 と置くと
dλ
dξn
(ξn) ξ2
n − φnSN φn − φnmN mN φn = 0
dλ
dξn
(ξn) ξ2
n − φn (SN + mN mN ) φn = 0
となり,EM アルゴリズムと全く同じ結果になる.
58/74
超パラメータの推論
ベイズロジスティック回帰モデルにおいて今まで w を定める超パラ
メータ α は既知の定数としてきたが,α もデータから推測できたらうれ
しい.以下でその方法を説明する.
w の事前分布として,以下の等方ガウス分布を仮定する 6
.
p (w|α) = N w 0, α−1
I (10.165)
=
1
(2π)
M/2
|α−1I|
1/2
exp −
α
2
w w
=
α
2π
M/2
exp −
α
2
w w
6 w の次元が M であるという記述が見つけられなかったけど多分それであってるはず.
59/74
超パラメータの推論
共役超事前分布 p (α) はガンマ分布
p (α) = Gamma (α|a0, b0) (10.166)
=
1
Γ (a0)
ba0
0 αa0−1
e−b0α
とする.
このモデルの周辺尤度は
p (t) = p (w, α, t) dwdα (10.167)
である.ただし
p (w, α, t) = p (t|w) p (w|α) p (α) (10.168)
である.
60/74
超パラメータの推論
いつも通り周辺尤度の対数 log p (t) を以下のように分解する.
log p (t) = L (q) + KL (q p) . (10.169)
ここで
L (q) = q (w, α) log
p (w, α, t)
q (w, α)
dwdα (10.170)
KL (q p) = − q (w, α) log
p (w, α|t)
q (w, α)
dwdα (10.171)
である.このままでは L の最大化の計算が進められないので,またいつ
ものように下から近似する.
log p (t) ≥ L (q) ≥ L (q, ξ)
= q (w, α) log
h (w, ξ) p (w|α) p (α)
q (w, α)
dwdα (10.172)
61/74
超パラメータの推論
変分分布がパラメータと超パラメータに分解できると仮定しよう.
q (w, α) = q (w) q (α) (10.173)
これで L の最大化に取り組むことができる.
L (q) = q (w) q (α) log (h (w, ξ) p (w|α) p (α)) dαdw
− q (w) q (α) log (q (w) q (α)) dα dw
= q (w) q (α) log (h (w, ξ) p (w|α) p (α)) dα dw
− q (w) log q (w) dw − q (α) log q (α) dα
62/74
超パラメータの推論
KL ダイバージェンスの最小化条件を使って
log q (w) = q (α) log (h (w, ξ) p (w|α) p (α)) dα + const.
= log h (w, ξ) + Eα [log p (w|α)] + const.
となる.log h (w, ξ) に (10.153) を,log p (w|α) に (10.165) を代入して
次式を得る.
log q (w) = −
E [α]
2
w w
+
N
n=1
tn −
1
2
w φn − λ (ξn) w φnφ w + const.
これは w の二次関数なので q (w) はガウス分布であることが分かる.
63/74
超パラメータの推論
したがって q (w) = N (w|µN , ΣN ) とすれば
Σ−1
N = E [α] I + 2
N
n=1
λ (ξn) φnφn, (10.176)
Σ−1
N µN =
N
n=1
tn −
1
2
φn (10.175)
が成り立つ.
64/74
超パラメータの推論
次に α の変分分布について計算する.L は以下のように変形できる.
L (q) = q (α) log p (α) + q (w) log p (w|α) dw dα
− q (α) log q (α) dα + const.
よって KL ダイバージェンスの最小化条件を使って
log q (α) = Ew [log p (w|α)] + log p (α) + const.
となる.
65/74
超パラメータの推論
log p (w|α) に (10.165) を,log p (α) に (10.166) を代入して
log q (α) =
M
2
log α −
α
2
E [w w] + (a0 − 1) log α − b0α + const.
=
M
2
+ a0 − 1 log α − b0 +
1
2
E [w w] α + const.
を得る.これはガンマ分布の対数の形になっているので
aN := a0 +
M
2
, (10.178)
bN := b0 +
1
2
E [w w] (10.179)
と置くと
q (α) = Gamma (α|aN , bN ) =
1
Γ (aN )
abN
N αaN −1
e−bN α
(10.177)
となる.
66/74
超パラメータの推論
最後に ξ の推定を行う方法を考える.L (q, ξ) の ξ に関連する項に着目
すると
L (q) = q (w) q (α) log h (w, ξ) dαdw + const.
= q (w) log h (w, ξ) dw + const.
となる.これはと同じ形なので前の結果から
(ξnew
n )
2
= φn (ΣN + µN µN ) φn (10.181)
以上で q (w) , q (α) , ξ を再推定する方程式が得られた.
67/74
行列式の微分
行列式の微分の公式を導く.A を n 次正則行列とし,その各行を
ai (i = 1, . . . , n) と表す.
d
dt
|A (t)|
= lim
t→0
1
t





a1 (t + h)
a2 (t + h)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t)





= lim
t→0
1
t





a1 (t + h)
a2 (t + h)
...
an (t + h)
−
a1 (t)
a2 (t + h)
...
an (t + h)
+
a1 (t)
a2 (t + h)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t)





68/74
行列式の微分
= lim
t→0
1
t





a1 (t + h) − a1 (t)
a2 (t + h)
...
an (t + h)





+ lim
t→0
1
t





a1 (t)
a2 (t + h)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t)





=
˙a1 (t)
a2 (t)
...
an (t)
+ lim
t→0
1
t





a1 (t)
a2 (t + h)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t)





69/74
行列式の微分
=
˙a1 (t)
a2 (t)
...
an (t)
+ lim
t→0
1
t





a1 (t)
a2 (t + h)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t + h)





+ lim
t→0
1
t





a1 (t)
a2 (t)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t)





=
˙a1 (t)
a2 (t)
...
an (t)
+
a1 (t)
˙a2 (t)
...
an (t)
+ lim
t→0
1
t





a1 (t)
a2 (t)
...
an (t + h)
−
a1 (t)
a2 (t)
...
an (t)





70/74
行列式の微分
上記の計算を繰り返すことで以下の公式を得る.
d
dt
|A (t)| =
n
i=1
a1 (t)
...
˙ai (t)
...
an (t)
=
n
i=1
n
k=1
˙aik∆ik
これを使いさらに簡潔な表現を得ることができる.次頁で説明する.
71/74
行列式の微分
A を n 次正則行列 A とし,その (i, j) 成分の余因子を
∆ij := (−1)
i+j
|Aij|,余因子行列を A = (∆ji)ij と表す.このとき第 i
行に関する余因子展開を行えば
d
dt
|A (t)| =
n
i=1
a1 (t)
...
˙ai (t)
...
an (t)
=
n
i=1
n
k=1
˙aik∆ik
となる.
tr A (t) ˙A (t) = tr


n
k=1
∆ki ˙akj
ij

 =
n
i=1
n
k=1
∆ki ˙aki
なので (d/dt) |A (t)| = tr A (t) ˙A (t) を得る.
72/74
行列式の対数の微分
正則行列について A/ |A| = A−1
が成り立つことと,いま導いた
(d/dt) |A (t)| = tr A (t) ˙A (t) を使うと
d
dt
log |A (t)| =
1
|A (t)|
d
dt
|A (t)|
=
1
|A (t)|
tr A (t) ˙A (t)
=
1
|A (t)|
tr A (t) ˙A (t)
= tr A−1
(t) ˙A (t)
を得る.
73/74
跡と二次形式
公式 tr (Axx ) = x Ax を示す.そのために,まずは tr (AB) = tr (BA)
を示す.
tr (AB) =
m
i=1
n
k=1
aikbki
=
m
i=1
n
k=1
bkiaik
= tr (BA)
したがって
tr (Axx ) = tr (x (Ax))
= tr (x Ax)
= x Ax
が成り立つ.
74/74
参考文献
Bogachev, V. I. (2007). Measure theory, volume 1. Springer
Science & Business Media.
Borwein, J. M. and Lewis, A. S. (2010). Convex analysis and
nonlinear optimization: theory and examples. Springer
Science & Business Media.
Golberg, M. (1972). The derivative of a determinant.
American Mathematical Monthly, page 1124–1126.
ビショップ, C. M. (2008). パターン認識と機械学習 下. シュプリン
ガージャパン.

More Related Content

What's hot

変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
Random Forest による分類
Random Forest による分類Random Forest による分類
Random Forest による分類Ken'ichi Matsui
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 
漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)
漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)
漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)Hideo Hirose
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)Hideo Terada
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」Koichi Hamada
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリングノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング智文 中野
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度Seiichi Uchida
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 

What's hot (20)

変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Random Forest による分類
Random Forest による分類Random Forest による分類
Random Forest による分類
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 
漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)
漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)
漸近理論をスライド1枚で(フォローアッププログラムクラス講義07132016)
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)ディープラーニングの2値化(Binarized Neural Network)
ディープラーニングの2値化(Binarized Neural Network)
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
PRML8章
PRML8章PRML8章
PRML8章
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリングノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 

Similar to PRML 10.4 - 10.6

20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算matsumoring
 
高速フーリエ変換
高速フーリエ変換高速フーリエ変換
高速フーリエ変換AtCoder Inc.
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”Kota Matsui
 
導来代数幾何入門
導来代数幾何入門導来代数幾何入門
導来代数幾何入門Naoya Umezaki
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
 
Scala 初心者が米田の補題を Scala で考えてみた
Scala 初心者が米田の補題を Scala で考えてみたScala 初心者が米田の補題を Scala で考えてみた
Scala 初心者が米田の補題を Scala で考えてみたKazuyuki TAKASE
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)Akira Asano
 
Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Masahiro Sakai
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 

Similar to PRML 10.4 - 10.6 (20)

20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
 
統計概論 isseing333
統計概論 isseing333統計概論 isseing333
統計概論 isseing333
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
高速フーリエ変換
高速フーリエ変換高速フーリエ変換
高速フーリエ変換
 
回帰
回帰回帰
回帰
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
 
導来代数幾何入門
導来代数幾何入門導来代数幾何入門
導来代数幾何入門
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
表現行列の問題
表現行列の問題表現行列の問題
表現行列の問題
 
表現行列問題
表現行列問題表現行列問題
表現行列問題
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
Scala 初心者が米田の補題を Scala で考えてみた
Scala 初心者が米田の補題を Scala で考えてみたScala 初心者が米田の補題を Scala で考えてみた
Scala 初心者が米田の補題を Scala で考えてみた
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
 
最急降下法
最急降下法最急降下法
最急降下法
 
Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 

PRML 10.4 - 10.6