SlideShare a Scribd company logo
1 of 22
Download to read offline
.
.
ベイズ Chow-Liu アルゴリズム
鈴木譲
大阪大学
2013 年 7 月 19 日
人工知能学会 FPAI 研究会
(北海道稚内市)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ロードマップ
ロードマップ
1 Chow-Liu アルゴリズム
2 ユニバーサルデータ圧縮
3 ユニバーサルなベイズ測度
4 まとめ
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ロードマップ
スライドは、お手元でもご覧になれます
キーワード: Joe Suzuki
slideshare
http://www.slideshare.net/prof-joe/
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
Chow-Liu: 木への近似 (1968)
X(1), · · · , X(N): N (≥ 1) 離散 確率変数
P1,··· ,N(x(1), · · · , x(N)): X(1) = x(1), · · · , X(N) = x(N) の分布
 
V := {1, · · · , N} と E ⊆ {{i, j}|i ̸= j, i, j ∈ V } が木を構成すると仮定
Q(x(1)
, · · · , x(N)
|E) =
∏
{i,j}∈E
Pi,j (x(i), x(j))
Pi (x(i))Pj (x(j))
∏
i∈V
Pi (x(i)
)
D(P1,··· ,N||Q) → 最小
ループができない限り、I(i, j) を最大にする {i, j} を辺として結ぶ
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
例
i 1 1 2 1 2 3
j 2 3 3 4 4 4
I(i, j) 12 10 8 6 4 2
j j
j j
2 4
1 3
j j
j j
2 4
1 3
j j
j j
2 4
1 3
j j
j j
2 4
1 3
@@
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
Kullback 情報量
D(P1,··· ,N||Q) =
∑
x(1),···x(N)
P1,··· ,N(x(1)
, · · · x(N)
) log
P1,··· ,N(x(1), · · · x(N))
Q(x(1), · · · x(N))
= −H(1, · · · , N) +
N∑
i∈V
H(i) −
∑
{i,j}∈E
I(i, j)
H(i): X(i) のエントロピー
I(i, j): X(i), X(j) の相互情報量
H(1, · · · , N): X(1), · · · , X(N) の同時エントロピー
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
Kruscal のアルゴリズム
V : 有限集合
E := {{u, v}|u ̸= v, u, v ∈ V }
1 E ← {}
2 ループができない限り、w(e) 最大の e ∈ E に対して E ← E + {e}
Kruscal のアルゴリズム
∑
e∈E
w(e) を最大にする木 (V , E) が構成される
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
Chow-Liu: 最尤による木の推定
推定
.
.
分布 P1,··· ,N ではなく、n 個の例 xn = {(x
(1)
i , · · · , x
(N)
i )}n
i=1 から出発
xn から得られた相対頻度 ˆpi , ˆpi,j を用いて、以下が計算される:
ˆH(i): i ∈ V の経験的エントロピー
ˆI(i, j): {i, j} ∈ E の経験的相互情報量
 
木の経験的エントロピーは以下で計算される:
ˆHn
(xn
|E) := n
∑
i∈V
ˆH(i) − n
∑
{i,j}∈E
ˆI(i, j)
ˆHn(xn|E) → 最小
ループができない限り、ˆI(i, j) を最大にする {i, j} を辺として結ぶ
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
最尤法の問題点
X(i) が α(i) 通りの値をとるとき、
1 X(1), · · · X(N) が独立のときも、木を推定する
2 α(i), α(j) が大きくても、ˆI(i, j) が最大の辺 {i, j} を選ぶ (過学習)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
Chow-Liu: MDL による木の推定 (Suzuki, 1993)
π(E): E の事前確率 (一様と仮定)
E のもとでの記述長を計算:
L(xn
|E) := ˆHn
(xn
|E) +
1
2
k(E) log n
ˆHn
(xn
|E) := n
∑
i∈V
ˆH(i) − n
∑
{i,j}∈E
ˆI(i, j)
パラメータ数:
k(E) :=
∑
i∈V
α(i)
+
∑
{i,j}∈E
(α(i)
− 1)(α(j)
− 1)
ˆJ(i, j) = ˆI(i, j) −
1
2n
(α(i)
− 1)(α(j)
− 1) log n
記述長 L(xn|E) − log π(E) → 最小
ループができない限り、ˆJ(i, j) を最大にする {i, j} を辺として結ぶ
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
MDL のメリット
X(i) が α(i) 通りの値をとるとき、
ˆJ(i, j) = ˆI(i, j) −
1
2n
(α(i)
− 1)(α(j)
− 1) log n
1 木ではなく森を推定する
2 X(1), · · · X(N) が独立のときも、辺を結ばない
3 α(i), α(j) を考慮して、ˆI(i, j) でなく ˆJ(i, j) が最大の辺 {i, j} を選ぶ
4 過学習は避ける
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
最尤と MDL
最尤 MDL
E の選択 ˆHn(xn|E) ˆHn(xn|E) + 1
2 k(E) log n
最小 最小
{i, j} の選択 ˆI(i, j) ˆI(i, j) − 1
2n (α(i) − 1)(α(j) − 1) log n
最大 最大
基準 xn の E への適合性 xn の E への適合性
E の簡潔さ
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
Chow-Liu アルゴリズム
Chow-Liu: Bayes による木の推定
Q1,··· ,N(x(1)
, · · · , x(N)
|E) =
∏
{i,j}∈E
Pi,j (x(i), x(j))
Pi (x(i))Pj (x(j))
∏
i∈V
Pi (x(i)
)
Rn
(xn
|E) :=
∏
{i,j}∈E
Rn(i, j)
Rn(i)Rn(j)
∏
i∈V
Rn
(i)
Rn(i): {x
(i)
k }n
k=1 で表現
Rn(i, j): {x
(i)
k }n
k=1,{x
(j)
k }n
k=1 で表現
J(i, j) :=
1
n
log
Rn(i, j)
Rn(i)Rn(j)
事後確率 π(E)Rn(xn|E) → 最大
ループができない限り、J(i, j) を最大にする {i, j} を辺として結ぶ
x ˆ鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルデータ圧縮
どんな Rn
が、Pn
の代わりになりうるのか?
A: 有限集合
 
yn = (y1, · · · , yn) ∈ An
真の θ = θ∗ は、使えない
.
.
Rn
(yn
) = Pn
(yn
|θ∗
)
w: θ の重み
Rn
(yn
) :=
∫
Pn
(yn
|θ)w(θ)dθ
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルデータ圧縮
例: Bayes 符号
A = {0, 1} のとき、
c: yn = (y1, · · · , yn) ∈ {0, 1}n ∈ An における 1 の頻度
θ: 1 の確率
Pn
(yn
|θ) = θc
(1 − θ)n−c
a, b > 0
w(θ) ∝
1
θa(1 − θ)b
Rn
(yn
) :=
∫
P(yn
|θ)w(θ)dθ =
∏c−1
j=0 (j + a) ·
∏n−c−1
k=0 (k + b)
∏n−1
i=0 (i + a + b)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルデータ圧縮
ユニバーサル性
a = b = 1/2 とおくと (Krichevsky-Trofimov)、どのような P についても
−
1
n
log Rn
(yn
) → H :=
∑
y∈A
−θ log θ − (1 − θ) log(1 − θ)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルデータ圧縮
Shannon McMillian Breiman の定理
どのような P についても
−
1
n
log Pn
(yn
|θ) =
1
n
log{θc
(1 − θ)n−c
} → E[− log P(yi )] = H
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルデータ圧縮
n が大きいと、どうして Pn
を Rn
にしてよいのか?
Pn(yn|θ) を Pn(yn) と書くと、どのような P についても
1
n
log
Pn(yn)
Rn(yn)
→ 0 (1)
Rn はユニバーサルなベイズ測度
離散や連続を仮定しない Rn と (1) の一般化 (Suzuki, 2012)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルなベイズ測度
Chow-Liu アルゴリズムの問題に戻ると
a = 1/2 として
Rn
(i) :=
∏
x∈A
ci [x]−1
∏
j=0
(j + a)
∏n−1
k=0(k + α(i)a)
Rn
(i, j) :=
∏
x∈A
∏
y∈A
ci [x,y]−1
∏
j=0
(j + a)
∏n−1
k=0(k + α(i)α(j)a)
ci [x]: X(i) = x の頻度
ci,j [x(i), x(j)]: X(i) = x, X(j) = y の頻度
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルなベイズ測度
ユニバーサル性から
Rn
(xn
|E) :=
∏
{i,j}∈E
Rn(i, j)
Rn(i)Rn(j)
∏
i∈V
Rn
(i)
−
1
n
log Rn
(i) → H(i)
−
1
n
log Rn
(i, j) → H(i, j)
J(i, j) =
1
n
log
Rn(i, j)
Rn(i)Rn(j)
→ H(i) + H(j) − H(i, j) = I(i, j)
−
1
n
log Rn
(xn
|E) →
∑
i∈V
H(i) −
∑
{i,j}∈E
I(i, j)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
ユニバーサルなベイズ測度
Shannon McMillian Breiman の定理の適用
Q(x(1)
, · · · , x(N)
|E) =
∏
{i,j}∈E
Pi,j (x(i), x(j))
Pi (x(i))Pj (x(j))
∏
i∈V
Pi (x(i)
)
−
1
n
log Pn
({x
(i)
k }n
k=1|θ) → H(i)
−
1
n
log Pn
({x
(i)
k , x
(j)
k }n
k=1|θ) → H(i, j)
1
n
log
Pn({x
(i)
k , x
(j)
k }n
k=1|θ)
Pn({x
(i)
k }n
k=1|θ)Pn({x
(j)
k }n
k=1|θ)
→ H(i) + H(j) − H(i, j) = I(i, j)
−
1
n
log Qn
(xn
|E) →
∑
i∈V
H(i) −
∑
{i,j}∈E
I(i, j)
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22
まとめ
まとめ: Rn
はユニバーサルなベイズ測度
どのような Q についても
1
n
log
Qn(xn|E)
Rn(xn|E)
→ 0 (2)
その他の応用事例:
Bayesian ネットワークの構造推定の一般化 (DCC 2012)
{Xi } が連続である場合の Markov の次数推定
本講演を含む
最近のスライド
http://www.slideshare.net/prof-joe/
鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム
2013 年 7 月 19 日人工知能学会 FPAI 研究会
/ 22

More Related Content

What's hot

【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながりMathCafe
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Yuya Takashina
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)Akira Asano
 
第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義MathCafe
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)Akira Asano
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017yukisachi
 
複素数・四元数と図形の回転
複素数・四元数と図形の回転複素数・四元数と図形の回転
複素数・四元数と図形の回転Yoshihiro Mizoguchi
 
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみようaokomoriuta
 
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner BasisComputing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner BasisYasu Math
 
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)Akira Asano
 

What's hot (13)

【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
 
ACPC 2017 Day3 F: 掛け算は楽しい
ACPC 2017 Day3 F: 掛け算は楽しいACPC 2017 Day3 F: 掛け算は楽しい
ACPC 2017 Day3 F: 掛け算は楽しい
 
第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義
 
Lect14
Lect14Lect14
Lect14
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
 
複素数・四元数と図形の回転
複素数・四元数と図形の回転複素数・四元数と図形の回転
複素数・四元数と図形の回転
 
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
 
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner BasisComputing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner Basis
 
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
 

Viewers also liked

機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測Momoko Hayamizu
 
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming""Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"Momoko Hayamizu
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
Financial Networks VI - Correlation Networks
Financial Networks VI - Correlation NetworksFinancial Networks VI - Correlation Networks
Financial Networks VI - Correlation NetworksKimmo Soramaki
 
20141003.journal club
20141003.journal club20141003.journal club
20141003.journal clubHayaru SHOUNO
 
20150326.journal club
20150326.journal club20150326.journal club
20150326.journal clubHayaru SHOUNO
 
20140530.journal club
20140530.journal club20140530.journal club
20140530.journal clubHayaru SHOUNO
 
20150703.journal club
20150703.journal club20150703.journal club
20150703.journal clubHayaru SHOUNO
 
20141208.名大セミナー
20141208.名大セミナー20141208.名大セミナー
20141208.名大セミナーHayaru SHOUNO
 
20140726.西野研セミナー
20140726.西野研セミナー20140726.西野研セミナー
20140726.西野研セミナーHayaru SHOUNO
 
20141204.journal club
20141204.journal club20141204.journal club
20141204.journal clubHayaru SHOUNO
 
20130925.deeplearning
20130925.deeplearning20130925.deeplearning
20130925.deeplearningHayaru SHOUNO
 
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析Shu Tanaka
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演Hayaru SHOUNO
 
20140705.西野研セミナー
20140705.西野研セミナー20140705.西野研セミナー
20140705.西野研セミナーHayaru SHOUNO
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義Hayaru SHOUNO
 

Viewers also liked (17)

機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測
 
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming""Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
Financial Networks VI - Correlation Networks
Financial Networks VI - Correlation NetworksFinancial Networks VI - Correlation Networks
Financial Networks VI - Correlation Networks
 
20130722
2013072220130722
20130722
 
20141003.journal club
20141003.journal club20141003.journal club
20141003.journal club
 
20150326.journal club
20150326.journal club20150326.journal club
20150326.journal club
 
20140530.journal club
20140530.journal club20140530.journal club
20140530.journal club
 
20150703.journal club
20150703.journal club20150703.journal club
20150703.journal club
 
20141208.名大セミナー
20141208.名大セミナー20141208.名大セミナー
20141208.名大セミナー
 
20140726.西野研セミナー
20140726.西野研セミナー20140726.西野研セミナー
20140726.西野研セミナー
 
20141204.journal club
20141204.journal club20141204.journal club
20141204.journal club
 
20130925.deeplearning
20130925.deeplearning20130925.deeplearning
20130925.deeplearning
 
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演
 
20140705.西野研セミナー
20140705.西野研セミナー20140705.西野研セミナー
20140705.西野研セミナー
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義
 

More from Joe Suzuki

RとPythonを比較する
RとPythonを比較するRとPythonを比較する
RとPythonを比較するJoe Suzuki
 
R集会@統数研
R集会@統数研R集会@統数研
R集会@統数研Joe Suzuki
 
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
E-learning Development of Statistics and in Duex: Practical Approaches and Th...E-learning Development of Statistics and in Duex: Practical Approaches and Th...
E-learning Development of Statistics and in Duex: Practical Approaches and Th...Joe Suzuki
 
分枝限定法でモデル選択の計算量を低減する
分枝限定法でモデル選択の計算量を低減する分枝限定法でモデル選択の計算量を低減する
分枝限定法でモデル選択の計算量を低減するJoe Suzuki
 
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定Joe Suzuki
 
E-learning Design and Development for Data Science in Osaka University
E-learning Design and Development for Data Science in Osaka UniversityE-learning Design and Development for Data Science in Osaka University
E-learning Design and Development for Data Science in Osaka UniversityJoe Suzuki
 
AMBN2017 サテライトワークショップ
AMBN2017 サテライトワークショップAMBN2017 サテライトワークショップ
AMBN2017 サテライトワークショップJoe Suzuki
 
CRAN Rパッケージ BNSLの概要
CRAN Rパッケージ BNSLの概要CRAN Rパッケージ BNSLの概要
CRAN Rパッケージ BNSLの概要Joe Suzuki
 
Forest Learning from Data
Forest Learning from DataForest Learning from Data
Forest Learning from DataJoe Suzuki
 
A Bayesian Approach to Data Compression
A Bayesian Approach to Data CompressionA Bayesian Approach to Data Compression
A Bayesian Approach to Data CompressionJoe Suzuki
 
A Conjecture on Strongly Consistent Learning
A Conjecture on Strongly Consistent LearningA Conjecture on Strongly Consistent Learning
A Conjecture on Strongly Consistent LearningJoe Suzuki
 
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...Joe Suzuki
 
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...Joe Suzuki
 
研究紹介(学生向け)
研究紹介(学生向け)研究紹介(学生向け)
研究紹介(学生向け)Joe Suzuki
 
Bayesian Criteria based on Universal Measures
Bayesian Criteria based on Universal MeasuresBayesian Criteria based on Universal Measures
Bayesian Criteria based on Universal MeasuresJoe Suzuki
 
MDL/Bayesian Criteria based on Universal Coding/Measure
MDL/Bayesian Criteria based on Universal Coding/MeasureMDL/Bayesian Criteria based on Universal Coding/Measure
MDL/Bayesian Criteria based on Universal Coding/MeasureJoe Suzuki
 
The Universal Measure for General Sources and its Application to MDL/Bayesian...
The Universal Measure for General Sources and its Application to MDL/Bayesian...The Universal Measure for General Sources and its Application to MDL/Bayesian...
The Universal Measure for General Sources and its Application to MDL/Bayesian...Joe Suzuki
 
Universal Prediction without assuming either Discrete or Continuous
Universal Prediction without assuming either Discrete or ContinuousUniversal Prediction without assuming either Discrete or Continuous
Universal Prediction without assuming either Discrete or ContinuousJoe Suzuki
 
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Bayesian network structure estimation based on the Bayesian/MDL criteria when...Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Bayesian network structure estimation based on the Bayesian/MDL criteria when...Joe Suzuki
 

More from Joe Suzuki (20)

RとPythonを比較する
RとPythonを比較するRとPythonを比較する
RとPythonを比較する
 
R集会@統数研
R集会@統数研R集会@統数研
R集会@統数研
 
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
E-learning Development of Statistics and in Duex: Practical Approaches and Th...E-learning Development of Statistics and in Duex: Practical Approaches and Th...
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
 
分枝限定法でモデル選択の計算量を低減する
分枝限定法でモデル選択の計算量を低減する分枝限定法でモデル選択の計算量を低減する
分枝限定法でモデル選択の計算量を低減する
 
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
 
E-learning Design and Development for Data Science in Osaka University
E-learning Design and Development for Data Science in Osaka UniversityE-learning Design and Development for Data Science in Osaka University
E-learning Design and Development for Data Science in Osaka University
 
UAI 2017
UAI 2017UAI 2017
UAI 2017
 
AMBN2017 サテライトワークショップ
AMBN2017 サテライトワークショップAMBN2017 サテライトワークショップ
AMBN2017 サテライトワークショップ
 
CRAN Rパッケージ BNSLの概要
CRAN Rパッケージ BNSLの概要CRAN Rパッケージ BNSLの概要
CRAN Rパッケージ BNSLの概要
 
Forest Learning from Data
Forest Learning from DataForest Learning from Data
Forest Learning from Data
 
A Bayesian Approach to Data Compression
A Bayesian Approach to Data CompressionA Bayesian Approach to Data Compression
A Bayesian Approach to Data Compression
 
A Conjecture on Strongly Consistent Learning
A Conjecture on Strongly Consistent LearningA Conjecture on Strongly Consistent Learning
A Conjecture on Strongly Consistent Learning
 
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
 
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
 
研究紹介(学生向け)
研究紹介(学生向け)研究紹介(学生向け)
研究紹介(学生向け)
 
Bayesian Criteria based on Universal Measures
Bayesian Criteria based on Universal MeasuresBayesian Criteria based on Universal Measures
Bayesian Criteria based on Universal Measures
 
MDL/Bayesian Criteria based on Universal Coding/Measure
MDL/Bayesian Criteria based on Universal Coding/MeasureMDL/Bayesian Criteria based on Universal Coding/Measure
MDL/Bayesian Criteria based on Universal Coding/Measure
 
The Universal Measure for General Sources and its Application to MDL/Bayesian...
The Universal Measure for General Sources and its Application to MDL/Bayesian...The Universal Measure for General Sources and its Application to MDL/Bayesian...
The Universal Measure for General Sources and its Application to MDL/Bayesian...
 
Universal Prediction without assuming either Discrete or Continuous
Universal Prediction without assuming either Discrete or ContinuousUniversal Prediction without assuming either Discrete or Continuous
Universal Prediction without assuming either Discrete or Continuous
 
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Bayesian network structure estimation based on the Bayesian/MDL criteria when...Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
 

ベイズ Chow-Liu アルゴリズム

  • 1. . . ベイズ Chow-Liu アルゴリズム 鈴木譲 大阪大学 2013 年 7 月 19 日 人工知能学会 FPAI 研究会 (北海道稚内市) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 2. ロードマップ ロードマップ 1 Chow-Liu アルゴリズム 2 ユニバーサルデータ圧縮 3 ユニバーサルなベイズ測度 4 まとめ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 3. ロードマップ スライドは、お手元でもご覧になれます キーワード: Joe Suzuki slideshare http://www.slideshare.net/prof-joe/ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 4. Chow-Liu アルゴリズム Chow-Liu: 木への近似 (1968) X(1), · · · , X(N): N (≥ 1) 離散 確率変数 P1,··· ,N(x(1), · · · , x(N)): X(1) = x(1), · · · , X(N) = x(N) の分布   V := {1, · · · , N} と E ⊆ {{i, j}|i ̸= j, i, j ∈ V } が木を構成すると仮定 Q(x(1) , · · · , x(N) |E) = ∏ {i,j}∈E Pi,j (x(i), x(j)) Pi (x(i))Pj (x(j)) ∏ i∈V Pi (x(i) ) D(P1,··· ,N||Q) → 最小 ループができない限り、I(i, j) を最大にする {i, j} を辺として結ぶ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 5. Chow-Liu アルゴリズム 例 i 1 1 2 1 2 3 j 2 3 3 4 4 4 I(i, j) 12 10 8 6 4 2 j j j j 2 4 1 3 j j j j 2 4 1 3 j j j j 2 4 1 3 j j j j 2 4 1 3 @@ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 6. Chow-Liu アルゴリズム Kullback 情報量 D(P1,··· ,N||Q) = ∑ x(1),···x(N) P1,··· ,N(x(1) , · · · x(N) ) log P1,··· ,N(x(1), · · · x(N)) Q(x(1), · · · x(N)) = −H(1, · · · , N) + N∑ i∈V H(i) − ∑ {i,j}∈E I(i, j) H(i): X(i) のエントロピー I(i, j): X(i), X(j) の相互情報量 H(1, · · · , N): X(1), · · · , X(N) の同時エントロピー 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 7. Chow-Liu アルゴリズム Kruscal のアルゴリズム V : 有限集合 E := {{u, v}|u ̸= v, u, v ∈ V } 1 E ← {} 2 ループができない限り、w(e) 最大の e ∈ E に対して E ← E + {e} Kruscal のアルゴリズム ∑ e∈E w(e) を最大にする木 (V , E) が構成される 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 8. Chow-Liu アルゴリズム Chow-Liu: 最尤による木の推定 推定 . . 分布 P1,··· ,N ではなく、n 個の例 xn = {(x (1) i , · · · , x (N) i )}n i=1 から出発 xn から得られた相対頻度 ˆpi , ˆpi,j を用いて、以下が計算される: ˆH(i): i ∈ V の経験的エントロピー ˆI(i, j): {i, j} ∈ E の経験的相互情報量   木の経験的エントロピーは以下で計算される: ˆHn (xn |E) := n ∑ i∈V ˆH(i) − n ∑ {i,j}∈E ˆI(i, j) ˆHn(xn|E) → 最小 ループができない限り、ˆI(i, j) を最大にする {i, j} を辺として結ぶ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 9. Chow-Liu アルゴリズム 最尤法の問題点 X(i) が α(i) 通りの値をとるとき、 1 X(1), · · · X(N) が独立のときも、木を推定する 2 α(i), α(j) が大きくても、ˆI(i, j) が最大の辺 {i, j} を選ぶ (過学習) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 10. Chow-Liu アルゴリズム Chow-Liu: MDL による木の推定 (Suzuki, 1993) π(E): E の事前確率 (一様と仮定) E のもとでの記述長を計算: L(xn |E) := ˆHn (xn |E) + 1 2 k(E) log n ˆHn (xn |E) := n ∑ i∈V ˆH(i) − n ∑ {i,j}∈E ˆI(i, j) パラメータ数: k(E) := ∑ i∈V α(i) + ∑ {i,j}∈E (α(i) − 1)(α(j) − 1) ˆJ(i, j) = ˆI(i, j) − 1 2n (α(i) − 1)(α(j) − 1) log n 記述長 L(xn|E) − log π(E) → 最小 ループができない限り、ˆJ(i, j) を最大にする {i, j} を辺として結ぶ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 11. Chow-Liu アルゴリズム MDL のメリット X(i) が α(i) 通りの値をとるとき、 ˆJ(i, j) = ˆI(i, j) − 1 2n (α(i) − 1)(α(j) − 1) log n 1 木ではなく森を推定する 2 X(1), · · · X(N) が独立のときも、辺を結ばない 3 α(i), α(j) を考慮して、ˆI(i, j) でなく ˆJ(i, j) が最大の辺 {i, j} を選ぶ 4 過学習は避ける 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 12. Chow-Liu アルゴリズム 最尤と MDL 最尤 MDL E の選択 ˆHn(xn|E) ˆHn(xn|E) + 1 2 k(E) log n 最小 最小 {i, j} の選択 ˆI(i, j) ˆI(i, j) − 1 2n (α(i) − 1)(α(j) − 1) log n 最大 最大 基準 xn の E への適合性 xn の E への適合性 E の簡潔さ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 13. Chow-Liu アルゴリズム Chow-Liu: Bayes による木の推定 Q1,··· ,N(x(1) , · · · , x(N) |E) = ∏ {i,j}∈E Pi,j (x(i), x(j)) Pi (x(i))Pj (x(j)) ∏ i∈V Pi (x(i) ) Rn (xn |E) := ∏ {i,j}∈E Rn(i, j) Rn(i)Rn(j) ∏ i∈V Rn (i) Rn(i): {x (i) k }n k=1 で表現 Rn(i, j): {x (i) k }n k=1,{x (j) k }n k=1 で表現 J(i, j) := 1 n log Rn(i, j) Rn(i)Rn(j) 事後確率 π(E)Rn(xn|E) → 最大 ループができない限り、J(i, j) を最大にする {i, j} を辺として結ぶ x ˆ鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 14. ユニバーサルデータ圧縮 どんな Rn が、Pn の代わりになりうるのか? A: 有限集合   yn = (y1, · · · , yn) ∈ An 真の θ = θ∗ は、使えない . . Rn (yn ) = Pn (yn |θ∗ ) w: θ の重み Rn (yn ) := ∫ Pn (yn |θ)w(θ)dθ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 15. ユニバーサルデータ圧縮 例: Bayes 符号 A = {0, 1} のとき、 c: yn = (y1, · · · , yn) ∈ {0, 1}n ∈ An における 1 の頻度 θ: 1 の確率 Pn (yn |θ) = θc (1 − θ)n−c a, b > 0 w(θ) ∝ 1 θa(1 − θ)b Rn (yn ) := ∫ P(yn |θ)w(θ)dθ = ∏c−1 j=0 (j + a) · ∏n−c−1 k=0 (k + b) ∏n−1 i=0 (i + a + b) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 16. ユニバーサルデータ圧縮 ユニバーサル性 a = b = 1/2 とおくと (Krichevsky-Trofimov)、どのような P についても − 1 n log Rn (yn ) → H := ∑ y∈A −θ log θ − (1 − θ) log(1 − θ) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 17. ユニバーサルデータ圧縮 Shannon McMillian Breiman の定理 どのような P についても − 1 n log Pn (yn |θ) = 1 n log{θc (1 − θ)n−c } → E[− log P(yi )] = H 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 18. ユニバーサルデータ圧縮 n が大きいと、どうして Pn を Rn にしてよいのか? Pn(yn|θ) を Pn(yn) と書くと、どのような P についても 1 n log Pn(yn) Rn(yn) → 0 (1) Rn はユニバーサルなベイズ測度 離散や連続を仮定しない Rn と (1) の一般化 (Suzuki, 2012) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 19. ユニバーサルなベイズ測度 Chow-Liu アルゴリズムの問題に戻ると a = 1/2 として Rn (i) := ∏ x∈A ci [x]−1 ∏ j=0 (j + a) ∏n−1 k=0(k + α(i)a) Rn (i, j) := ∏ x∈A ∏ y∈A ci [x,y]−1 ∏ j=0 (j + a) ∏n−1 k=0(k + α(i)α(j)a) ci [x]: X(i) = x の頻度 ci,j [x(i), x(j)]: X(i) = x, X(j) = y の頻度 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 20. ユニバーサルなベイズ測度 ユニバーサル性から Rn (xn |E) := ∏ {i,j}∈E Rn(i, j) Rn(i)Rn(j) ∏ i∈V Rn (i) − 1 n log Rn (i) → H(i) − 1 n log Rn (i, j) → H(i, j) J(i, j) = 1 n log Rn(i, j) Rn(i)Rn(j) → H(i) + H(j) − H(i, j) = I(i, j) − 1 n log Rn (xn |E) → ∑ i∈V H(i) − ∑ {i,j}∈E I(i, j) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 21. ユニバーサルなベイズ測度 Shannon McMillian Breiman の定理の適用 Q(x(1) , · · · , x(N) |E) = ∏ {i,j}∈E Pi,j (x(i), x(j)) Pi (x(i))Pj (x(j)) ∏ i∈V Pi (x(i) ) − 1 n log Pn ({x (i) k }n k=1|θ) → H(i) − 1 n log Pn ({x (i) k , x (j) k }n k=1|θ) → H(i, j) 1 n log Pn({x (i) k , x (j) k }n k=1|θ) Pn({x (i) k }n k=1|θ)Pn({x (j) k }n k=1|θ) → H(i) + H(j) − H(i, j) = I(i, j) − 1 n log Qn (xn |E) → ∑ i∈V H(i) − ∑ {i,j}∈E I(i, j) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
  • 22. まとめ まとめ: Rn はユニバーサルなベイズ測度 どのような Q についても 1 n log Qn(xn|E) Rn(xn|E) → 0 (2) その他の応用事例: Bayesian ネットワークの構造推定の一般化 (DCC 2012) {Xi } が連続である場合の Markov の次数推定 本講演を含む 最近のスライド http://www.slideshare.net/prof-joe/ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22