SlideShare une entreprise Scribd logo
1  sur  26
入門パターン認識と機械学習
@hiro5585
Chapter 12
関連ベクトルマシン
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
2
SVMとRVM
サポートベクトルマシンも関連ベクトルマシンも識別境界を
引くための有効なベクトル(点)だけを保持することで
予測の際の計算量を小さくする
3
SVM RVM
確立時期:1963年
モデルのタイプ:識別関数
計算方法:マージン最大化
サポートベクターの数:中程度
計算量(予測時):中程度
確立時期:2001年
モデルのタイプ:生成モデル
計算方法:尤度最大化
サポートベクターの数:少量
計算量(予測時):少量
RVMの全体の流れ
1.予測したい値𝑦はカーネル回帰で表せる
2. 𝑦に対するカーネル回帰の式を確率で表現する
3.スパース化のため重み𝑎に対する事前確率を導入する
4.(周辺化)尤度を求めてそれが最大となる𝐴, 𝛽を求める
4
𝑦 = 𝒂 𝚻
𝐊 𝒙 + 𝜀
p(𝑦|𝑎, 𝑋, 𝐴, 𝛽) = Ν(𝑦 |𝒂 𝚻
𝐊 𝒙 , 𝛽−1
)
𝑎に対するハイパーパラメータ 𝜀に対するハイパーパラメータ
p(𝑎|𝐴) = Ν(𝑎 |0, 𝐴−1
)
𝛼 𝑘 =
𝑠 𝑘
2
𝑞𝑘
2
− 𝑠 𝑘
⋯ 𝑞𝑘
2
≥ 𝑠 𝑘
∞ ⋯ 𝑞𝑘
2
< 𝑠 𝑘
𝛽 =
𝑛 − 𝑖=0
𝑛
(1 − 𝛼𝑖Σ 𝑎
𝑖𝑖)
|𝑦 − 𝐺𝜇 𝑎|2
・・・12.14式
・・・12.21式
・・・12.17式
・・・12.44式 ・・・12.61式
計算の流れ(1/2)
1.同時確率を求める
2.重み𝑎を積分消去して𝑦の尤度を求める
3.周辺化尤度の式を求める
5
p(y, 𝑎|X, A, B) = Ν(y|𝑎K(X), 𝛽−1)×Ν(𝑎 |0, 𝐴−1)
p y|X, A, 𝛽 = ∫ p(y, 𝑎 |X, A, β) d𝑎 = Ν(y|0, Σ)・・・12.32式
・・・12.22式
L(A, β) = log|Σ| + 𝑦 𝑇Σ−1 𝑦 + (定数) ・・・12.34式
計算の流れ(2/2)
4.要素𝑎 𝑘ごとに微分をするため尤度をばらす
5. 12.43式で偏微分を行い𝑎 𝑘の更新式を得る
6.尤度の各項ごとをβで偏微分する(12.56, 12.59式)
7.結果をまとめて(12.60式)、βの更新式を得る
6
L(A, β) =log|Σ/𝑘| + log(1 +
𝑠 𝑘
𝛼 𝑘
) + 𝑦 𝑇Σ/𝑘
−1
𝑦 −
𝑞 𝑘
2
𝛼 𝑘+𝑠 𝑘
・・・12.40式
𝛼 𝑘 =
𝑠 𝑘
2
𝑞𝑘
2
− 𝑠 𝑘
⋯ 𝑞𝑘
2
≥ 𝑠 𝑘
∞ ⋯ 𝑞𝑘
2
< 𝑠 𝑘
・・・12.44式
𝛽 =
𝑛 − 𝑖=0
𝑛
(1 − 𝛼𝑖Σ 𝑎
𝑖𝑖
)
|𝑦 − 𝐺𝜇 𝑎|2
・・・12.61式
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
7
グラフィカルモデル
確率変数間をグラフで表現したもの
可視化することで変数間の従属(独立)性が分かりやすくなる
8
a b c
p(a, b, c) = p(a) x p(b|a) x p(c|a, b)
a b c
p(a, b, c) = p(b) x p(a|b) x p(c| b)
RVMのグラフィカルモデル表現
重みのハイパーパラメータからカーネル関数の重みが生成
重み、データ、分散のハイパーパラメータから回帰値生成
9
a y
X
A
β
重みを制御する
ハイパーパラメータ
データ
回帰値の分散を制御する
ハイパーパラメータ
カーネル関数の重み
回帰値
(クラス)
RVMモデル
観測できるものは
黒く塗りつぶす
RVMの確率的表現(1/2)
10
a y
X
A
β
重みを制御する
ハイパーパラメータ
データ
回帰値の分散を制御する
ハイパーパラメータ
回帰値
(クラス)
RVMモデル
p(a|X, y, A, β) = p(y, a|X, A, β) / p(y)
∝ p(y, a|X, A, β)
= p(y|a, X, A, β) x p(a|A)
事後確率
尤度 事前確率
ベイズの定理
・・・同時確率
事後確率と同時確率は
比例の関係を持つ
カーネル関数の重み
RVMの確率的表現(1/2)
RVMでは尤度および事前確率にガウス分布を仮定する
事後確率を最大化するパラメータ(μとΣ)を求めればよい
これをMAP(Maximum A Posteriori)推定という
11
p(a|X, y, A, β)∝p(y|a, X, A, β) x p(a|A)
= Ν(y|aK(X), 𝛽−1
) x Ν(a|0, 𝐴−1
)
= Ν(a|μ, Σ)
事後確率 尤度 事前確率
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
12
尤度関数の意味(1/3)
ここで、yがRVMではどのように表現されていたかを考える
カーネル関数の重み付き和に誤差が加わったものが回帰値
グラム行列を用いて表現すると以下のようになる
13
𝑦 = 𝑗=0
𝑛
𝑎 𝑛 Κ 𝑥, 𝑥𝑗 + 𝜀
𝑦 = 𝒂 𝑻
𝐊 𝒙 + 𝜀
尤度関数の意味(2/3)
尤度と回帰式をもう一度眺めてみる
ε はN(ε|0, 𝛽−1)から生起している白色雑音
14
p(y|a, X, A, B) = Ν(y|aK(X), 𝛽−1
)
𝑦 = 𝒂 𝑻
𝐊 𝒙 + 𝜀
尤度関数の意味(3/3)
aK(X)を中心に分散𝛽−1で散らばった分布からyは生起する
15
p(y|a, X, A, β) = Ν(y|aK(X), 𝛽−1
)
p(y)
aK(X)
𝛽−1
事前確率の意味(1/3)
0を中心に分散𝛼−1の分布からaが生起する
つまり、重みaは0付近の値を取る
16
p(a|α) = Ν(a|0, 𝛼−1
)
p(a|α)
0
𝛼−1
事前確率の意味(2/3)
このとき、αが∞の場合を考えると𝛼−1が0となる
17
p(a|α) = Ν(a|0, 𝛼−1
)
p(a|α)
0
𝛼−1
事前確率の意味(3/3)
重みaが0になる確率が1となり対応するカーネルが無効化
事後確率最大化ではそのようなスパースなモデルを学習
18
p(a|α) = Ν(a|0, 0)
p(a|α)
0
1.0
𝑦 = 𝑗=0
𝑛
𝑎 𝑛 Κ 𝑥, 𝑥𝑗 + 𝜀
元の式
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
19
エビデンス近似(1/2)
しかしながら、事後確率のパラメータを求めるのは難しい
そこで、方針を転換して事後確率に比例している
同時確率について計算をややこしくしてるaを積分消去する
20
p(a|X, y, A, β)∝Ν(a|μ, Σ)
事後確率
p(y, a|X, A, B) = p(y|a, X, A, β) x p(a|X, A, B)
= p(y|a, X, B) x p(a|A)
= Ν(y|aK(X), 𝛽−1
) x Ν(a|0, 𝐴−1
)
同時確率
エビデンス近似(2/2)
同時確率について計算をややこしくしてるaを積分消去
そうすると、周辺化した尤度が出てくる
計算すると周辺化尤度はガウス分布になっている
このように、パラメータを積分消去して周辺化尤度を求める
ことをエビデンス近似という
周辺尤度を最大化するようなハイパーパラメータを求める
21
∫ p(y, a|X, A, β) da = ∫ Ν(y|aK(X), 𝛽−1
) x Ν(a|0, 𝐴−1
) da
= Ν(y|0, Σ)
∫ p(y, a|X, A, β) da = p(y|X, A, β)
周辺尤度
周辺化尤度の最大化
周辺尤度の対数をとり最大化を行う
Aのチューニングは𝛼0, 𝛼1, ⋯ , 𝛼 𝑛を個別に偏微分して求める
このとき、対象の𝛼𝑖以外は固定して求める
全ての𝛼𝑖が求まったら、𝛽で偏微分した値を使って𝛽を求める
これを、収束条件に達するまで繰り返す 22
L(A, β) = log p(y|X, A, β)
= log|Σ| + 𝑦 𝑇Σ−1 𝑦 + (定数)
Σ =
𝐼
𝛽
+ KA−1 𝐾 𝑇 A = 𝑑𝑖𝑎𝑔(𝛼0, 𝛼1, ⋯ , 𝛼 𝑛)
チューニング対象
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
23
ハイパーパラメータの更新式
更新式は以下の通り
24
𝛼 𝑘 =
𝑠 𝑘
2
𝑞𝑘
2
− 𝑠 𝑘
⋯ 𝑞𝑘
2
≥ 𝑠 𝑘
∞ ⋯ 𝑞𝑘
2
< 𝑠 𝑘
𝛽 =
𝑛 − 𝑖=0
𝑛
(1 − 𝛼𝑖Σ 𝑎
𝑖𝑖)
|𝑦 − 𝐺𝜇 𝑎|2
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
25
RVMによる予測方法
新しいデータxが入ってきたときの回帰値𝑦を求める
点推定で回帰値を予測する場合は期待値を用いる
26
p(y|𝑥, X, y, A, β) = ∫ p(y|𝑥, a, β)× p(a|X, y, A, β) da
= Ν(a|𝜇 𝑎
𝑇 𝐤 𝑥 , 𝜎2(𝑥))
𝑦 = 𝜇 𝑎
𝑇 𝐤 𝑥
12.25式

Contenu connexe

Tendances

不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
Shintaro Fukushima
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
 
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
. .
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
 

Tendances (20)

PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
Ml professional bandit_chapter2
Ml professional bandit_chapter2Ml professional bandit_chapter2
Ml professional bandit_chapter2
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
PRML勉強会 #4 @筑波大学 発表スライド
PRML勉強会 #4 @筑波大学 発表スライドPRML勉強会 #4 @筑波大学 発表スライド
PRML勉強会 #4 @筑波大学 発表スライド
 
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
 
Prml07
Prml07Prml07
Prml07
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 

En vedette

パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
Mitsuki Ogasahara
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Wataru Kishimoto
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Wataru Kishimoto
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Wataru Kishimoto
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
Minoru Chikamune
 

En vedette (18)

[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Guide for program Implement for PRML
Guide for program Implement for PRML  Guide for program Implement for PRML
Guide for program Implement for PRML
 
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章入門パターン認識と機械学習3章
入門パターン認識と機械学習3章
 
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
機械学習
機械学習機械学習
機械学習
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
 
SVMについて
SVMについてSVMについて
SVMについて
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 

Similaire à 入門パターン認識と機械学習12章

パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531
nwpmq516
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
Yohei Sato
 

Similaire à 入門パターン認識と機械学習12章 (13)

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531
 
Prml7 2
Prml7 2Prml7 2
Prml7 2
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
Implement for Deep Learning of RBM Network in C.
Implement for Deep Learning of  RBM Network in C.Implement for Deep Learning of  RBM Network in C.
Implement for Deep Learning of RBM Network in C.
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
 
Tokyo r #43
Tokyo r #43Tokyo r #43
Tokyo r #43
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
 
Prml revenge7.1.1
Prml revenge7.1.1Prml revenge7.1.1
Prml revenge7.1.1
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
 

入門パターン認識と機械学習12章