Submit Search
Upload
ベイズ Chow-Liu アルゴリズム
•
5 likes
•
1,729 views
Joe Suzuki
Follow
人工知能学会 FPAI研究会 2013年7月19日 (北海道稚内市)
Read less
Read more
Report
Share
Report
Share
1 of 22
Download now
Download to read offline
Recommended
グラフデータ構造と5色定理
グラフデータ構造と5色定理
Yoshihiro Mizoguchi
Moig 05
Moig 05
Zenghan Liang
Operad and Recognition Principle
Operad and Recognition Principle
Tatsuki SHIMIZU
公開鍵暗号8: 有限体上の楕円曲線の位数計算
公開鍵暗号8: 有限体上の楕円曲線の位数計算
Joe Suzuki
Introduction to Topological Data Analysis
Introduction to Topological Data Analysis
Tatsuki SHIMIZU
SIRM(Subset Infinite Relational Models)の式導出の解説
SIRM(Subset Infinite Relational Models)の式導出の解説
Tomonari Masada
しかくのお勉強
しかくのお勉強
Tatsuki SHIMIZU
公開鍵暗号(4): 楕円曲線における離散対数問題
公開鍵暗号(4): 楕円曲線における離散対数問題
Joe Suzuki
Recommended
グラフデータ構造と5色定理
グラフデータ構造と5色定理
Yoshihiro Mizoguchi
Moig 05
Moig 05
Zenghan Liang
Operad and Recognition Principle
Operad and Recognition Principle
Tatsuki SHIMIZU
公開鍵暗号8: 有限体上の楕円曲線の位数計算
公開鍵暗号8: 有限体上の楕円曲線の位数計算
Joe Suzuki
Introduction to Topological Data Analysis
Introduction to Topological Data Analysis
Tatsuki SHIMIZU
SIRM(Subset Infinite Relational Models)の式導出の解説
SIRM(Subset Infinite Relational Models)の式導出の解説
Tomonari Masada
しかくのお勉強
しかくのお勉強
Tatsuki SHIMIZU
公開鍵暗号(4): 楕円曲線における離散対数問題
公開鍵暗号(4): 楕円曲線における離散対数問題
Joe Suzuki
【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり
MathCafe
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Yuya Takashina
代数トポロジー入門
代数トポロジー入門
Tatsuki SHIMIZU
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
Akira Asano
ACPC 2017 Day3 F: 掛け算は楽しい
ACPC 2017 Day3 F: 掛け算は楽しい
HCPC: 北海道大学競技プログラミングサークル
第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義
MathCafe
Lect14
Lect14
Debug Midorikawa
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
Akira Asano
Hayashi tutorial ne2017
Hayashi tutorial ne2017
yukisachi
複素数・四元数と図形の回転
複素数・四元数と図形の回転
Yoshihiro Mizoguchi
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
aokomoriuta
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner Basis
Yasu Math
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
Akira Asano
機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測
Momoko Hayamizu
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
Momoko Hayamizu
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
Financial Networks VI - Correlation Networks
Financial Networks VI - Correlation Networks
Kimmo Soramaki
20130722
20130722
Hayaru SHOUNO
20141003.journal club
20141003.journal club
Hayaru SHOUNO
20150326.journal club
20150326.journal club
Hayaru SHOUNO
20140530.journal club
20140530.journal club
Hayaru SHOUNO
20150703.journal club
20150703.journal club
Hayaru SHOUNO
More Related Content
What's hot
【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり
MathCafe
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Yuya Takashina
代数トポロジー入門
代数トポロジー入門
Tatsuki SHIMIZU
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
Akira Asano
ACPC 2017 Day3 F: 掛け算は楽しい
ACPC 2017 Day3 F: 掛け算は楽しい
HCPC: 北海道大学競技プログラミングサークル
第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義
MathCafe
Lect14
Lect14
Debug Midorikawa
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
Akira Asano
Hayashi tutorial ne2017
Hayashi tutorial ne2017
yukisachi
複素数・四元数と図形の回転
複素数・四元数と図形の回転
Yoshihiro Mizoguchi
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
aokomoriuta
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner Basis
Yasu Math
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
Akira Asano
What's hot
(13)
【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
代数トポロジー入門
代数トポロジー入門
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
2018年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2018. 10. 5)
ACPC 2017 Day3 F: 掛け算は楽しい
ACPC 2017 Day3 F: 掛け算は楽しい
第33回数学カフェ予習会#1 線形空間・射影空間の定義
第33回数学カフェ予習会#1 線形空間・射影空間の定義
Lect14
Lect14
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
Hayashi tutorial ne2017
Hayashi tutorial ne2017
複素数・四元数と図形の回転
複素数・四元数と図形の回転
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
[関東GPGPU勉強会#2] ライブラリを使って大規模疎行列線形方程式を解いてみよう
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner Basis
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
2020年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2020. 11. 27)
Viewers also liked
機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測
Momoko Hayamizu
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
Momoko Hayamizu
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
Financial Networks VI - Correlation Networks
Financial Networks VI - Correlation Networks
Kimmo Soramaki
20130722
20130722
Hayaru SHOUNO
20141003.journal club
20141003.journal club
Hayaru SHOUNO
20150326.journal club
20150326.journal club
Hayaru SHOUNO
20140530.journal club
20140530.journal club
Hayaru SHOUNO
20150703.journal club
20150703.journal club
Hayaru SHOUNO
20141208.名大セミナー
20141208.名大セミナー
Hayaru SHOUNO
20140726.西野研セミナー
20140726.西野研セミナー
Hayaru SHOUNO
20141204.journal club
20141204.journal club
Hayaru SHOUNO
20130925.deeplearning
20130925.deeplearning
Hayaru SHOUNO
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
Shu Tanaka
20150803.山口大学講演
20150803.山口大学講演
Hayaru SHOUNO
20140705.西野研セミナー
20140705.西野研セミナー
Hayaru SHOUNO
20150803.山口大学集中講義
20150803.山口大学集中講義
Hayaru SHOUNO
Viewers also liked
(17)
機械学習の応用例にみる認知症診断と将来の発症予測
機械学習の応用例にみる認知症診断と将来の発症予測
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
"Estimating Tree-Structured Covariance Matrices via Mixed-Integer Programming"
パターン認識と機械学習入門
パターン認識と機械学習入門
Financial Networks VI - Correlation Networks
Financial Networks VI - Correlation Networks
20130722
20130722
20141003.journal club
20141003.journal club
20150326.journal club
20150326.journal club
20140530.journal club
20140530.journal club
20150703.journal club
20150703.journal club
20141208.名大セミナー
20141208.名大セミナー
20140726.西野研セミナー
20140726.西野研セミナー
20141204.journal club
20141204.journal club
20130925.deeplearning
20130925.deeplearning
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
20150803.山口大学講演
20150803.山口大学講演
20140705.西野研セミナー
20140705.西野研セミナー
20150803.山口大学集中講義
20150803.山口大学集中講義
More from Joe Suzuki
RとPythonを比較する
RとPythonを比較する
Joe Suzuki
R集会@統数研
R集会@統数研
Joe Suzuki
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
Joe Suzuki
分枝限定法でモデル選択の計算量を低減する
分枝限定法でモデル選択の計算量を低減する
Joe Suzuki
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
Joe Suzuki
E-learning Design and Development for Data Science in Osaka University
E-learning Design and Development for Data Science in Osaka University
Joe Suzuki
UAI 2017
UAI 2017
Joe Suzuki
AMBN2017 サテライトワークショップ
AMBN2017 サテライトワークショップ
Joe Suzuki
CRAN Rパッケージ BNSLの概要
CRAN Rパッケージ BNSLの概要
Joe Suzuki
Forest Learning from Data
Forest Learning from Data
Joe Suzuki
A Bayesian Approach to Data Compression
A Bayesian Approach to Data Compression
Joe Suzuki
A Conjecture on Strongly Consistent Learning
A Conjecture on Strongly Consistent Learning
Joe Suzuki
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
Joe Suzuki
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
Joe Suzuki
研究紹介(学生向け)
研究紹介(学生向け)
Joe Suzuki
Bayesian Criteria based on Universal Measures
Bayesian Criteria based on Universal Measures
Joe Suzuki
MDL/Bayesian Criteria based on Universal Coding/Measure
MDL/Bayesian Criteria based on Universal Coding/Measure
Joe Suzuki
The Universal Measure for General Sources and its Application to MDL/Bayesian...
The Universal Measure for General Sources and its Application to MDL/Bayesian...
Joe Suzuki
Universal Prediction without assuming either Discrete or Continuous
Universal Prediction without assuming either Discrete or Continuous
Joe Suzuki
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Joe Suzuki
More from Joe Suzuki
(20)
RとPythonを比較する
RとPythonを比較する
R集会@統数研
R集会@統数研
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
分枝限定法でモデル選択の計算量を低減する
分枝限定法でモデル選択の計算量を低減する
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
E-learning Design and Development for Data Science in Osaka University
E-learning Design and Development for Data Science in Osaka University
UAI 2017
UAI 2017
AMBN2017 サテライトワークショップ
AMBN2017 サテライトワークショップ
CRAN Rパッケージ BNSLの概要
CRAN Rパッケージ BNSLの概要
Forest Learning from Data
Forest Learning from Data
A Bayesian Approach to Data Compression
A Bayesian Approach to Data Compression
A Conjecture on Strongly Consistent Learning
A Conjecture on Strongly Consistent Learning
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
研究紹介(学生向け)
研究紹介(学生向け)
Bayesian Criteria based on Universal Measures
Bayesian Criteria based on Universal Measures
MDL/Bayesian Criteria based on Universal Coding/Measure
MDL/Bayesian Criteria based on Universal Coding/Measure
The Universal Measure for General Sources and its Application to MDL/Bayesian...
The Universal Measure for General Sources and its Application to MDL/Bayesian...
Universal Prediction without assuming either Discrete or Continuous
Universal Prediction without assuming either Discrete or Continuous
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
ベイズ Chow-Liu アルゴリズム
1.
. . ベイズ Chow-Liu アルゴリズム 鈴木譲 大阪大学 2013
年 7 月 19 日 人工知能学会 FPAI 研究会 (北海道稚内市) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
2.
ロードマップ ロードマップ 1 Chow-Liu アルゴリズム 2
ユニバーサルデータ圧縮 3 ユニバーサルなベイズ測度 4 まとめ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
3.
ロードマップ スライドは、お手元でもご覧になれます キーワード: Joe Suzuki slideshare http://www.slideshare.net/prof-joe/ 鈴木譲
(大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
4.
Chow-Liu アルゴリズム Chow-Liu: 木への近似
(1968) X(1), · · · , X(N): N (≥ 1) 離散 確率変数 P1,··· ,N(x(1), · · · , x(N)): X(1) = x(1), · · · , X(N) = x(N) の分布 V := {1, · · · , N} と E ⊆ {{i, j}|i ̸= j, i, j ∈ V } が木を構成すると仮定 Q(x(1) , · · · , x(N) |E) = ∏ {i,j}∈E Pi,j (x(i), x(j)) Pi (x(i))Pj (x(j)) ∏ i∈V Pi (x(i) ) D(P1,··· ,N||Q) → 最小 ループができない限り、I(i, j) を最大にする {i, j} を辺として結ぶ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
5.
Chow-Liu アルゴリズム 例 i 1
1 2 1 2 3 j 2 3 3 4 4 4 I(i, j) 12 10 8 6 4 2 j j j j 2 4 1 3 j j j j 2 4 1 3 j j j j 2 4 1 3 j j j j 2 4 1 3 @@ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
6.
Chow-Liu アルゴリズム Kullback 情報量 D(P1,···
,N||Q) = ∑ x(1),···x(N) P1,··· ,N(x(1) , · · · x(N) ) log P1,··· ,N(x(1), · · · x(N)) Q(x(1), · · · x(N)) = −H(1, · · · , N) + N∑ i∈V H(i) − ∑ {i,j}∈E I(i, j) H(i): X(i) のエントロピー I(i, j): X(i), X(j) の相互情報量 H(1, · · · , N): X(1), · · · , X(N) の同時エントロピー 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
7.
Chow-Liu アルゴリズム Kruscal のアルゴリズム V
: 有限集合 E := {{u, v}|u ̸= v, u, v ∈ V } 1 E ← {} 2 ループができない限り、w(e) 最大の e ∈ E に対して E ← E + {e} Kruscal のアルゴリズム ∑ e∈E w(e) を最大にする木 (V , E) が構成される 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
8.
Chow-Liu アルゴリズム Chow-Liu: 最尤による木の推定 推定 . . 分布
P1,··· ,N ではなく、n 個の例 xn = {(x (1) i , · · · , x (N) i )}n i=1 から出発 xn から得られた相対頻度 ˆpi , ˆpi,j を用いて、以下が計算される: ˆH(i): i ∈ V の経験的エントロピー ˆI(i, j): {i, j} ∈ E の経験的相互情報量 木の経験的エントロピーは以下で計算される: ˆHn (xn |E) := n ∑ i∈V ˆH(i) − n ∑ {i,j}∈E ˆI(i, j) ˆHn(xn|E) → 最小 ループができない限り、ˆI(i, j) を最大にする {i, j} を辺として結ぶ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
9.
Chow-Liu アルゴリズム 最尤法の問題点 X(i) が
α(i) 通りの値をとるとき、 1 X(1), · · · X(N) が独立のときも、木を推定する 2 α(i), α(j) が大きくても、ˆI(i, j) が最大の辺 {i, j} を選ぶ (過学習) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
10.
Chow-Liu アルゴリズム Chow-Liu: MDL
による木の推定 (Suzuki, 1993) π(E): E の事前確率 (一様と仮定) E のもとでの記述長を計算: L(xn |E) := ˆHn (xn |E) + 1 2 k(E) log n ˆHn (xn |E) := n ∑ i∈V ˆH(i) − n ∑ {i,j}∈E ˆI(i, j) パラメータ数: k(E) := ∑ i∈V α(i) + ∑ {i,j}∈E (α(i) − 1)(α(j) − 1) ˆJ(i, j) = ˆI(i, j) − 1 2n (α(i) − 1)(α(j) − 1) log n 記述長 L(xn|E) − log π(E) → 最小 ループができない限り、ˆJ(i, j) を最大にする {i, j} を辺として結ぶ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
11.
Chow-Liu アルゴリズム MDL のメリット X(i)
が α(i) 通りの値をとるとき、 ˆJ(i, j) = ˆI(i, j) − 1 2n (α(i) − 1)(α(j) − 1) log n 1 木ではなく森を推定する 2 X(1), · · · X(N) が独立のときも、辺を結ばない 3 α(i), α(j) を考慮して、ˆI(i, j) でなく ˆJ(i, j) が最大の辺 {i, j} を選ぶ 4 過学習は避ける 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
12.
Chow-Liu アルゴリズム 最尤と MDL 最尤
MDL E の選択 ˆHn(xn|E) ˆHn(xn|E) + 1 2 k(E) log n 最小 最小 {i, j} の選択 ˆI(i, j) ˆI(i, j) − 1 2n (α(i) − 1)(α(j) − 1) log n 最大 最大 基準 xn の E への適合性 xn の E への適合性 E の簡潔さ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
13.
Chow-Liu アルゴリズム Chow-Liu: Bayes
による木の推定 Q1,··· ,N(x(1) , · · · , x(N) |E) = ∏ {i,j}∈E Pi,j (x(i), x(j)) Pi (x(i))Pj (x(j)) ∏ i∈V Pi (x(i) ) Rn (xn |E) := ∏ {i,j}∈E Rn(i, j) Rn(i)Rn(j) ∏ i∈V Rn (i) Rn(i): {x (i) k }n k=1 で表現 Rn(i, j): {x (i) k }n k=1,{x (j) k }n k=1 で表現 J(i, j) := 1 n log Rn(i, j) Rn(i)Rn(j) 事後確率 π(E)Rn(xn|E) → 最大 ループができない限り、J(i, j) を最大にする {i, j} を辺として結ぶ x ˆ鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
14.
ユニバーサルデータ圧縮 どんな Rn が、Pn の代わりになりうるのか? A: 有限集合 yn
= (y1, · · · , yn) ∈ An 真の θ = θ∗ は、使えない . . Rn (yn ) = Pn (yn |θ∗ ) w: θ の重み Rn (yn ) := ∫ Pn (yn |θ)w(θ)dθ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
15.
ユニバーサルデータ圧縮 例: Bayes 符号 A
= {0, 1} のとき、 c: yn = (y1, · · · , yn) ∈ {0, 1}n ∈ An における 1 の頻度 θ: 1 の確率 Pn (yn |θ) = θc (1 − θ)n−c a, b > 0 w(θ) ∝ 1 θa(1 − θ)b Rn (yn ) := ∫ P(yn |θ)w(θ)dθ = ∏c−1 j=0 (j + a) · ∏n−c−1 k=0 (k + b) ∏n−1 i=0 (i + a + b) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
16.
ユニバーサルデータ圧縮 ユニバーサル性 a = b
= 1/2 とおくと (Krichevsky-Trofimov)、どのような P についても − 1 n log Rn (yn ) → H := ∑ y∈A −θ log θ − (1 − θ) log(1 − θ) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
17.
ユニバーサルデータ圧縮 Shannon McMillian Breiman
の定理 どのような P についても − 1 n log Pn (yn |θ) = 1 n log{θc (1 − θ)n−c } → E[− log P(yi )] = H 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
18.
ユニバーサルデータ圧縮 n が大きいと、どうして Pn を
Rn にしてよいのか? Pn(yn|θ) を Pn(yn) と書くと、どのような P についても 1 n log Pn(yn) Rn(yn) → 0 (1) Rn はユニバーサルなベイズ測度 離散や連続を仮定しない Rn と (1) の一般化 (Suzuki, 2012) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
19.
ユニバーサルなベイズ測度 Chow-Liu アルゴリズムの問題に戻ると a =
1/2 として Rn (i) := ∏ x∈A ci [x]−1 ∏ j=0 (j + a) ∏n−1 k=0(k + α(i)a) Rn (i, j) := ∏ x∈A ∏ y∈A ci [x,y]−1 ∏ j=0 (j + a) ∏n−1 k=0(k + α(i)α(j)a) ci [x]: X(i) = x の頻度 ci,j [x(i), x(j)]: X(i) = x, X(j) = y の頻度 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
20.
ユニバーサルなベイズ測度 ユニバーサル性から Rn (xn |E) := ∏ {i,j}∈E Rn(i, j) Rn(i)Rn(j) ∏ i∈V Rn (i) − 1 n log
Rn (i) → H(i) − 1 n log Rn (i, j) → H(i, j) J(i, j) = 1 n log Rn(i, j) Rn(i)Rn(j) → H(i) + H(j) − H(i, j) = I(i, j) − 1 n log Rn (xn |E) → ∑ i∈V H(i) − ∑ {i,j}∈E I(i, j) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
21.
ユニバーサルなベイズ測度 Shannon McMillian Breiman
の定理の適用 Q(x(1) , · · · , x(N) |E) = ∏ {i,j}∈E Pi,j (x(i), x(j)) Pi (x(i))Pj (x(j)) ∏ i∈V Pi (x(i) ) − 1 n log Pn ({x (i) k }n k=1|θ) → H(i) − 1 n log Pn ({x (i) k , x (j) k }n k=1|θ) → H(i, j) 1 n log Pn({x (i) k , x (j) k }n k=1|θ) Pn({x (i) k }n k=1|θ)Pn({x (j) k }n k=1|θ) → H(i) + H(j) − H(i, j) = I(i, j) − 1 n log Qn (xn |E) → ∑ i∈V H(i) − ∑ {i,j}∈E I(i, j) 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
22.
まとめ まとめ: Rn はユニバーサルなベイズ測度 どのような Q
についても 1 n log Qn(xn|E) Rn(xn|E) → 0 (2) その他の応用事例: Bayesian ネットワークの構造推定の一般化 (DCC 2012) {Xi } が連続である場合の Markov の次数推定 本講演を含む 最近のスライド http://www.slideshare.net/prof-joe/ 鈴木譲 (大阪大学) ベイズ Chow-Liu アルゴリズム 2013 年 7 月 19 日人工知能学会 FPAI 研究会 / 22
Download now