SlideShare une entreprise Scribd logo
1  sur  27
Télécharger pour lire hors ligne
PRML輪読会 2017
第6章 カーネル法
東京⼤学⼯学部システム創成学科
B4 ⻄村弘平
構成
6.1 双対表現
6.2 カーネル関数の構成
6.3 RBFネットワーク
6.4 ガウス過程
2
概要
• 3章~5章では線形・⾮線形なパラメトリックなモデルによる予測
– 𝑦 𝑋, 𝑊 = 𝑊&Φ 𝑋 ,
• 訓練データは𝑤を学習したら捨てる.
• 予測時にも訓練データ点の全部あるいは⼀部を利⽤するパターン認識法を考える.
– ex. 最近傍法(2.5.2節参照)
• 新しいテスト点は訓練データの中で最も近いサンプルと同じラベルが割り当てられる.
– メモリベース法
• ⼊⼒空間における任意の2つのベクトルの類似度を測る指標が必要になる.
• カーネル関数
– 𝑘 𝑋, 𝑋* = 𝜙 𝑋 & 𝜙(𝑋*)
• 𝜙(𝑋): 特徴空間への⾮線形写像
• 元の次元から特徴空間次元に移して内積をとる関数
– 2つのベクトルの類似度を定めるようなもの
• 特徴空間次元に移すメリット
– 線形分離可能になる
– パラメトリックな線形モデルはカーネル関数の線形和で表現可能
• 𝜙(𝑥)を直接扱わなくて良くなる.
3
6.1 双対表現(1)
• 多くの線形モデルは双対表現で表すことでカーネル関数が現れる.
• ex. 線形回帰モデルの⼆乗和誤差
– J‘(w)	= 	0 とすると,
– ただし, Φはn番⽬の列が𝜙 𝑥4
&となるような計画⾏列で,
– 最⼩⼆乗法のアルゴリズムを𝑤を使わずに で表現する: 双対表現
4
6.1 双対表現(2)
• 𝑤 = Φ&
𝑎を に代⼊
• 𝐾47 = 𝜙 𝑥4
&
𝜙 𝑥7 = 𝑘(𝑥4, 𝑥7)と定められるグラム⾏列𝐾 = ΦΦ&
を定義する.
• ⼆乗和誤算関数:
• の解:
• 予測関数:
• 双対関数の意義
5
カーネル関数
全てがカーネル関数𝑘 𝑋, 𝑋*
で表現されるため,	常にカーネル関数を通じて
問題を扱うことができ,	特徴ベクトル𝜙(𝑋)を明示的に考えることを避け,	高次
元・無次元の特徴ベクトルを間接的に扱うことができる
6.2 カーネル関数の構成(1)
• 1. 特徴空間への写像を考えて有効なカーネル空間を構成する.
– 𝜙8 𝑥 : 基底関数(多項式関数, ガウス分布など)
– 下段: カーネル関数𝑘(𝑥*, 𝑥)を𝑥の関数としてプロット(グラフ上の×は𝑥′)
– 上段: 下段に対応する基底関数(多項式関数, ガウス分布, ロジスティックシグモイド関数)
6
6.2. カーネル関数の構成(2)
• 2. カーネル関数を直接定義する.
– カーネル関数として有効であることを保証する必要がある.
• 特徴空間におけるスカラー積であることを保証しなければならない.
– ex. 𝑘 𝑥, 𝑧 = 𝑥& 𝑧 ;
• 𝜙のスカラー積となるので有効なカーネル関数である.
– 有効なカーネルであるための必要⼗分条件
7
関数𝑘(𝑋, 𝑋*
)が有効なカーネル
⇕
任意の{𝑋4}に対して要素が𝑘(𝑥4, 𝑥7)であるグラム⾏列𝐾が半正定値である
6.2 カーネル関数の構成(3)
• ⾊々なカーネル関数
– ⼀般化された多項式カーネル
– ガウスカーネル
• 無限次元への写像と等価
– ⽣成モデルから構成されるカーネル
• 2つの⼊⼒𝑋と𝑋′の確率がともに⼤きいときに2つの⼊⼒が似ているとされる.
– シグモイドカーネル
• グラム⾏列が必ずしも半正定値にならない.
• サポートベクターマシンとニューラルネットワークが表層的に類似したものとなるため
よく使われる.
8
𝑘 𝑋, 𝑋*
= 𝑋&
𝑋*
+ 𝑐 A
	(𝑐 > 0)
𝑘 𝑋, 𝑋*
= exp	(− 𝑋 − 𝑋* ;
	/ 2𝜎;
)
𝑘 𝑋, 𝑋*
= 𝑝 𝑋 𝑝(𝑋*
)
𝑘 𝑋, 𝑋*
= 𝑋&
𝑋*
+ 𝑐 A
	(𝑐 > 0)
6.3 RBFネットワーク
• 線形回帰モデル(3章)
• 基底関数の選び⽅
– ⼀般的にRBF(動径基底関数)
– RBFはその中⼼𝜇Lからの動径のみに依存している.
• RBFを導⼊する動機
– 正確に⽬標変数の値を再現する関数補間
• ⽬的変数のノイズによって過学習する可能性あり
– ⼊⼒変数にノイズが含まれる場合の補間
• Nadaraya-Watsonモデル
9
6.3 RBFネットワーク(2)
• ⼊⼒変数に確率分布𝑣(𝜉)に従う確率変数𝜉で表されるノイズが含まれるとき,
⼆乗和誤算関数は
• 変分法により
– ℎ(𝑥 − 𝑥4)は正規化されている.
10
6.3 RBFネットワーク
• 基底関数を正規化するメリット
– 全ての基底関数が⼩さな値を持つ領域をなくす.
• 領域内の予測値が⼩さくなり, ほとんどバイアスパラメータによって決定されることを避ける.
11
6.3.1 Nadaraya-Watsonモデル (1)
• 訓練集合{𝑥4, 𝑡4}について同時分布𝑝(𝑥, 𝑡)の推定にParzan推定法を⽤いると
– 𝑓(𝑥, 𝑡)は密度関数の要素で各データ点中⼼
– 同時分布:
– 回帰関数
12
6.3.1 Nadaraya-Watsonモデル(2)
• 回帰関数をカーネル関数で表す
– 簡単のため, 密度関数の各要素の平均を0とする.
• 全ての𝑥に対して,
• また, 以下の式を仮定すると
• 回帰関数は
13
6.4 ガウス過程
• 6.4節の⽬標
– ベイズ的な視点においても確率的識別モデルに対して⾃然にカーネルが現れることを確
認する.
• ガウス過程とは
• ガウス過程の考え⽅
14
任意の点集合{𝑥R, 𝑥;, … , 𝑥4}に対する{𝑦 𝑥R , 𝑦 𝑥; , … , 𝑦 𝑥4 }の同時分布が
ガウス分布に従うもの.
パラメータ𝑤の事前分布𝑝(𝑤)を決めるのではなく, 関数𝑦(𝑥)の事前分布
𝑝(𝑦)を直接定義する
6.4.1 線形回帰再訪(1)
• 線形回帰モデルy 𝑋 = 𝑊&
𝜙(𝑋)を考える.
• 𝑤の事前分布として次の等⽅的ガウス分布を考える.
– 𝛼は分布の精度
– 1つの𝑤に対して𝑦(𝑥)が決まるため, 𝑤の事前分布を与えることと𝑦(𝑥)の事前分布を与え
ることは同値
• 訓練データに対応する{𝑦 𝑋R , … , 𝑦 𝑋V }の同値分布を求める
• 𝑌 = 𝑦 𝑥R , 𝑦 𝑥; , … , 𝑦 𝑥4 = Φ𝑤とすると
• ここで𝐾は
15
6.4.1 線形回帰再訪(2)
• 𝑤はガウス分布に従う変数集合
– その線形結合である𝑦⾃⾝もガウス分布に従う.
– 平均と分散を求めれば, 𝑦の分布も定まる.
• ガウス過程の重要な点
– 同時分布が平均や共分散といった2次までの統計量で記述される.
– 𝑦(𝑋)の平均は0とされることが多いのでガウス過程はカーネル関数として与えられる.
16
6.4.2 ガウス過程による回帰(1)
• ⽬標変数にノイズが含まれることを考慮
– 各観測値に対してノイズは独⽴に決定する.
– ノイズはガウス分布に従う.
– ⽬標値の同時分布は等⽅的なガウス分布に従う.
– ガウス過程の定義より,
• 周辺分布𝑝(𝑦)は平均が0で共分散がグラム⾏列𝐾であるガウス分布になるので
– 周辺分布𝑝(𝑡)は,
• 𝑝 𝑡 =	∫ 𝑝 𝑡 𝑦 𝑝 𝑦 𝑑𝑦 = 𝑁(𝑡|0, 𝐶)
• ここで共分散⾏列𝐶は
– 𝐶 𝑋4, 𝑋7 = 𝑘 𝑋4, 𝑋7 + 𝛽^R 𝛿47
17
誤差(ノイズ)⽬標値
6.4.2 ガウス過程による回帰(2)
• ガウス過程からのデータ点のサンプル 𝑡4 を⽰したもの
– 実線: 事前分布𝑝(𝑦)からサンプリングされた関数𝑦
– ⿊丸●: ⼊⼒集合{𝑥4}に対する{𝑦4}
– ⽩丸○: 𝑦(𝑥4) + ノイズ = 𝑡4
• 回帰の⽬的
– 訓練集合𝑥R, … . 𝑥V, 𝑡V = 𝑡R, … , 𝑡V
&が与えられているとき,
新しい⼊⼒XbcRに対する⽬標変数𝑡VcRを予測したい.
– 予測分布𝑝(𝑡VcR|𝑡V)を求めたい.
– 先の結果から
– 𝑝 𝑡VcR = 𝑁 𝑡V 0, 𝐶VcR
• 𝐶VcR	 =
𝐶V 𝑘
𝑘& 𝑐
• 𝑘4 = 𝑘 𝑥4, 𝑥VcR
• 𝑐 = 𝑘 𝑥VcR,	 𝑥VcR	 + 𝛽^R
18
6.4.2 ガウス過程による回帰(3)
• 2章の結果を⽤いると条件付き分布𝑝 𝑡VcR	 𝑡)は
次に⽰す平均と共分散を持つガウス分布に従う.
– 𝑚 𝑋VcR = 𝑘& 𝐶V
^R
𝑡
– 𝜎; 𝑋VcR = 𝑐 − 𝑘& 𝐶V
^R
𝑘
• カーネル関数の制約
– 共分散⾏列𝐶が正定値
– カーネル⾏列𝐾が半正定値
• ガウス過程の利点・⽋点
– 利点
• 無限個の基底関数に対応できる
– ⽋点
• 𝑂(𝑁f)の⼤きな計算量を必要とする.
• ⼤きな訓練データを扱えない.
19
⾚線: 正弦関数
⻘丸: ガウス分布に従うノイズを加えた点
緑線: ガウス過程による予測分布の平均
影: 標準偏差の範囲
6.4.3 超パラメータの学習
• ガウス過程による予測は共分散関数の選択に依存
– パラメトリックな関数族を考えて, そのパラメータ𝜃をデータから推定
• 超パラメータの学習⽅法
– 尤度関数𝑝(𝑡|𝜃)を評価する.
– 簡単には, 対数尤度関数を最⼤化する𝜃の点推定を⾏う.
• 共役勾配法などの効率的な最適化アルゴリズムが⽤いられる.
20
6.4.5 ガウス過程による分類(1)
• 確率的な⼿法による分類
– 区間(0, 1)に収まる事後確率を求める.
– しかし, ガウス過程のモデルは予測が実数値全体での値をとる.
– ガウス過程の出⼒を⾮線形な活性化関数で変換
• ガウス過程を分類問題に適⽤できるようになる
• 2クラス分類問題
– ⽬標変数: 𝑡 ∈ {0, 1}
– 関数𝑎(𝑥)上のガウス過程を定義し, ロジスティックシグモイド関数𝜎(𝑎)で変換
• 𝑦 ∈ (0,1)な関数𝑦(𝑥)上の⾮ガウス確率過程が得られる.
21
ガウス過程の事前分布
からのサンプル
ロジスティックシグモ
イド変換
6.4.5 ガウス過程による分類(2)
• ⽬標変数𝑡の確率分布はベルヌーイ分布になる.
– 𝑝 𝑡 𝑎 = 𝜎 𝑎 j 1 − 𝜎 𝑎
R^j
• ガウス過程の分類の⽬標
– 予測分布𝑝 𝑡VcR 𝑡)の決定
22
6.4.5 ガウス過程による分類(3)
• 導出の流れ
– 𝑎VcR = {𝑎 𝑋R , … , 𝑎 𝑋V }のガウス過程事前分布を考える.
– 𝑡VcRに対する⾮ガウス事前分布が導かれる.
– 𝑡Vが与えられた下での予測分布が与えられる.
• 𝑎VcRに対するガウス過程事前分布は
– 𝑝 𝑎VcR = 𝑁 𝑎VcR 0, 𝐶VcR	)
– 回帰問題と異なり, 共分散⾏列にノイズが含まれない.
• ⾏列の正定値性を保証するためノイズのような項を⼊れる.
23
6.4.5 ガウス過程による分類(4)
• 2クラス分類問題なので𝑝 𝑡VcR 𝑡V)を求めれば良い.
– この積分を解析的に解くのは不可能
– サンプリング, またはガウス分布による近似
• ガウス分布による近似
– ラプラス近似を⽤いた⽅法(次節)
– 変分推論法に基づく⽅法(10章)
– EP法を⽤いる⽅法(10章)
24
𝜎(𝑎VcR)
6.4.6 ラプラス近似
• 𝑝 𝑎VcR 𝑡V)のラプラス近似
• 以下の4章の近似式を⽤いて解ける
25
ガウス過程のまとめ
• ガウス過程のモデルは共分散がカーネル関数になる
– ハイパーパラメーターが平均と分散になる.
• ガウス過程での回帰・分類問題
– 予測分布𝑝 𝑡VcR 𝑡V)を求める
• ガウス過程の利点・⽋点
– 利点:無限個の基底関数に対応できる
– ⽋点:𝑂(𝑁f)の⼤きな計算量を必要とする
• 訓練データ数N
– 基底関数の数Mがデータ数Nより⼤きい時に有効
26
参照
• パターン認識と機械学習 下
– C.M. ビショップ (著), 元⽥ 浩 (監訳), 栗⽥ 多喜夫 (監訳), 樋⼝ 知之 (監訳), 松本 裕治 (監訳), 村⽥ 昇 (監訳)
• Pattern Recognition and Machine Learning
– Kernel Methods , 池宮由楽
– https://www.slideshare.net/yukaraikemiya/6-15415589
• PRML勉強会 第6章 カーネル法
– 岩橋研究室 ⽊村⼤輝
– https://speakerdeck.com/muzun/prml-6zhang-kanerufa-at-chang-gang
• ガウス過程の基礎と教師なし学習
– 統計数理研究所 持橋⼤地
– https://deepx-company.slack.com/archives/G46AJEKRC/p1490759266651275
27

Contenu connexe

Tendances

PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布Yuki Soma
 
[DL輪読会]Deep Learning 第4章 数値計算
[DL輪読会]Deep Learning 第4章 数値計算[DL輪読会]Deep Learning 第4章 数値計算
[DL輪読会]Deep Learning 第4章 数値計算Deep Learning JP
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13matsuolab
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数Deep Learning JP
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 

Tendances (20)

PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
 
[DL輪読会]Deep Learning 第4章 数値計算
[DL輪読会]Deep Learning 第4章 数値計算[DL輪読会]Deep Learning 第4章 数値計算
[DL輪読会]Deep Learning 第4章 数値計算
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
PRML8章
PRML8章PRML8章
PRML8章
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 

Similaire à PRML輪読#6

PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章hakusai
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2Ryoma Nakagawa
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter halfNarihira Takuya
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
Yamadai.Rデモンストレーションセッション
Yamadai.RデモンストレーションセッションYamadai.Rデモンストレーションセッション
Yamadai.Rデモンストレーションセッション考司 小杉
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定
読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定
読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定健児 青木
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...yukihiro domae
 
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner BasisComputing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner BasisYasu Math
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMMMorpho, Inc.
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングtakutori
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector MachineYuma Nakamura
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリングKosei ABE
 
大規模地震シミュレーション1
大規模地震シミュレーション1大規模地震シミュレーション1
大規模地震シミュレーション1RCCSRENKEI
 

Similaire à PRML輪読#6 (20)

PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2
 
PRML6.4
PRML6.4PRML6.4
PRML6.4
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
Yamadai.Rデモンストレーションセッション
Yamadai.RデモンストレーションセッションYamadai.Rデモンストレーションセッション
Yamadai.Rデモンストレーションセッション
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定
読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定
読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
 
Computing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner BasisComputing for Isogeny Kernel Problem by Groebner Basis
Computing for Isogeny Kernel Problem by Groebner Basis
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
大規模地震シミュレーション1
大規模地震シミュレーション1大規模地震シミュレーション1
大規模地震シミュレーション1
 

Dernier

東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 

Dernier (7)

東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 

PRML輪読#6

  • 2. 構成 6.1 双対表現 6.2 カーネル関数の構成 6.3 RBFネットワーク 6.4 ガウス過程 2
  • 3. 概要 • 3章~5章では線形・⾮線形なパラメトリックなモデルによる予測 – 𝑦 𝑋, 𝑊 = 𝑊&Φ 𝑋 , • 訓練データは𝑤を学習したら捨てる. • 予測時にも訓練データ点の全部あるいは⼀部を利⽤するパターン認識法を考える. – ex. 最近傍法(2.5.2節参照) • 新しいテスト点は訓練データの中で最も近いサンプルと同じラベルが割り当てられる. – メモリベース法 • ⼊⼒空間における任意の2つのベクトルの類似度を測る指標が必要になる. • カーネル関数 – 𝑘 𝑋, 𝑋* = 𝜙 𝑋 & 𝜙(𝑋*) • 𝜙(𝑋): 特徴空間への⾮線形写像 • 元の次元から特徴空間次元に移して内積をとる関数 – 2つのベクトルの類似度を定めるようなもの • 特徴空間次元に移すメリット – 線形分離可能になる – パラメトリックな線形モデルはカーネル関数の線形和で表現可能 • 𝜙(𝑥)を直接扱わなくて良くなる. 3
  • 4. 6.1 双対表現(1) • 多くの線形モデルは双対表現で表すことでカーネル関数が現れる. • ex. 線形回帰モデルの⼆乗和誤差 – J‘(w) = 0 とすると, – ただし, Φはn番⽬の列が𝜙 𝑥4 &となるような計画⾏列で, – 最⼩⼆乗法のアルゴリズムを𝑤を使わずに で表現する: 双対表現 4
  • 5. 6.1 双対表現(2) • 𝑤 = Φ& 𝑎を に代⼊ • 𝐾47 = 𝜙 𝑥4 & 𝜙 𝑥7 = 𝑘(𝑥4, 𝑥7)と定められるグラム⾏列𝐾 = ΦΦ& を定義する. • ⼆乗和誤算関数: • の解: • 予測関数: • 双対関数の意義 5 カーネル関数 全てがカーネル関数𝑘 𝑋, 𝑋* で表現されるため, 常にカーネル関数を通じて 問題を扱うことができ, 特徴ベクトル𝜙(𝑋)を明示的に考えることを避け, 高次 元・無次元の特徴ベクトルを間接的に扱うことができる
  • 6. 6.2 カーネル関数の構成(1) • 1. 特徴空間への写像を考えて有効なカーネル空間を構成する. – 𝜙8 𝑥 : 基底関数(多項式関数, ガウス分布など) – 下段: カーネル関数𝑘(𝑥*, 𝑥)を𝑥の関数としてプロット(グラフ上の×は𝑥′) – 上段: 下段に対応する基底関数(多項式関数, ガウス分布, ロジスティックシグモイド関数) 6
  • 7. 6.2. カーネル関数の構成(2) • 2. カーネル関数を直接定義する. – カーネル関数として有効であることを保証する必要がある. • 特徴空間におけるスカラー積であることを保証しなければならない. – ex. 𝑘 𝑥, 𝑧 = 𝑥& 𝑧 ; • 𝜙のスカラー積となるので有効なカーネル関数である. – 有効なカーネルであるための必要⼗分条件 7 関数𝑘(𝑋, 𝑋* )が有効なカーネル ⇕ 任意の{𝑋4}に対して要素が𝑘(𝑥4, 𝑥7)であるグラム⾏列𝐾が半正定値である
  • 8. 6.2 カーネル関数の構成(3) • ⾊々なカーネル関数 – ⼀般化された多項式カーネル – ガウスカーネル • 無限次元への写像と等価 – ⽣成モデルから構成されるカーネル • 2つの⼊⼒𝑋と𝑋′の確率がともに⼤きいときに2つの⼊⼒が似ているとされる. – シグモイドカーネル • グラム⾏列が必ずしも半正定値にならない. • サポートベクターマシンとニューラルネットワークが表層的に類似したものとなるため よく使われる. 8 𝑘 𝑋, 𝑋* = 𝑋& 𝑋* + 𝑐 A (𝑐 > 0) 𝑘 𝑋, 𝑋* = exp (− 𝑋 − 𝑋* ; / 2𝜎; ) 𝑘 𝑋, 𝑋* = 𝑝 𝑋 𝑝(𝑋* ) 𝑘 𝑋, 𝑋* = 𝑋& 𝑋* + 𝑐 A (𝑐 > 0)
  • 9. 6.3 RBFネットワーク • 線形回帰モデル(3章) • 基底関数の選び⽅ – ⼀般的にRBF(動径基底関数) – RBFはその中⼼𝜇Lからの動径のみに依存している. • RBFを導⼊する動機 – 正確に⽬標変数の値を再現する関数補間 • ⽬的変数のノイズによって過学習する可能性あり – ⼊⼒変数にノイズが含まれる場合の補間 • Nadaraya-Watsonモデル 9
  • 11. 6.3 RBFネットワーク • 基底関数を正規化するメリット – 全ての基底関数が⼩さな値を持つ領域をなくす. • 領域内の予測値が⼩さくなり, ほとんどバイアスパラメータによって決定されることを避ける. 11
  • 12. 6.3.1 Nadaraya-Watsonモデル (1) • 訓練集合{𝑥4, 𝑡4}について同時分布𝑝(𝑥, 𝑡)の推定にParzan推定法を⽤いると – 𝑓(𝑥, 𝑡)は密度関数の要素で各データ点中⼼ – 同時分布: – 回帰関数 12
  • 13. 6.3.1 Nadaraya-Watsonモデル(2) • 回帰関数をカーネル関数で表す – 簡単のため, 密度関数の各要素の平均を0とする. • 全ての𝑥に対して, • また, 以下の式を仮定すると • 回帰関数は 13
  • 14. 6.4 ガウス過程 • 6.4節の⽬標 – ベイズ的な視点においても確率的識別モデルに対して⾃然にカーネルが現れることを確 認する. • ガウス過程とは • ガウス過程の考え⽅ 14 任意の点集合{𝑥R, 𝑥;, … , 𝑥4}に対する{𝑦 𝑥R , 𝑦 𝑥; , … , 𝑦 𝑥4 }の同時分布が ガウス分布に従うもの. パラメータ𝑤の事前分布𝑝(𝑤)を決めるのではなく, 関数𝑦(𝑥)の事前分布 𝑝(𝑦)を直接定義する
  • 15. 6.4.1 線形回帰再訪(1) • 線形回帰モデルy 𝑋 = 𝑊& 𝜙(𝑋)を考える. • 𝑤の事前分布として次の等⽅的ガウス分布を考える. – 𝛼は分布の精度 – 1つの𝑤に対して𝑦(𝑥)が決まるため, 𝑤の事前分布を与えることと𝑦(𝑥)の事前分布を与え ることは同値 • 訓練データに対応する{𝑦 𝑋R , … , 𝑦 𝑋V }の同値分布を求める • 𝑌 = 𝑦 𝑥R , 𝑦 𝑥; , … , 𝑦 𝑥4 = Φ𝑤とすると • ここで𝐾は 15
  • 16. 6.4.1 線形回帰再訪(2) • 𝑤はガウス分布に従う変数集合 – その線形結合である𝑦⾃⾝もガウス分布に従う. – 平均と分散を求めれば, 𝑦の分布も定まる. • ガウス過程の重要な点 – 同時分布が平均や共分散といった2次までの統計量で記述される. – 𝑦(𝑋)の平均は0とされることが多いのでガウス過程はカーネル関数として与えられる. 16
  • 17. 6.4.2 ガウス過程による回帰(1) • ⽬標変数にノイズが含まれることを考慮 – 各観測値に対してノイズは独⽴に決定する. – ノイズはガウス分布に従う. – ⽬標値の同時分布は等⽅的なガウス分布に従う. – ガウス過程の定義より, • 周辺分布𝑝(𝑦)は平均が0で共分散がグラム⾏列𝐾であるガウス分布になるので – 周辺分布𝑝(𝑡)は, • 𝑝 𝑡 = ∫ 𝑝 𝑡 𝑦 𝑝 𝑦 𝑑𝑦 = 𝑁(𝑡|0, 𝐶) • ここで共分散⾏列𝐶は – 𝐶 𝑋4, 𝑋7 = 𝑘 𝑋4, 𝑋7 + 𝛽^R 𝛿47 17 誤差(ノイズ)⽬標値
  • 18. 6.4.2 ガウス過程による回帰(2) • ガウス過程からのデータ点のサンプル 𝑡4 を⽰したもの – 実線: 事前分布𝑝(𝑦)からサンプリングされた関数𝑦 – ⿊丸●: ⼊⼒集合{𝑥4}に対する{𝑦4} – ⽩丸○: 𝑦(𝑥4) + ノイズ = 𝑡4 • 回帰の⽬的 – 訓練集合𝑥R, … . 𝑥V, 𝑡V = 𝑡R, … , 𝑡V &が与えられているとき, 新しい⼊⼒XbcRに対する⽬標変数𝑡VcRを予測したい. – 予測分布𝑝(𝑡VcR|𝑡V)を求めたい. – 先の結果から – 𝑝 𝑡VcR = 𝑁 𝑡V 0, 𝐶VcR • 𝐶VcR = 𝐶V 𝑘 𝑘& 𝑐 • 𝑘4 = 𝑘 𝑥4, 𝑥VcR • 𝑐 = 𝑘 𝑥VcR, 𝑥VcR + 𝛽^R 18
  • 19. 6.4.2 ガウス過程による回帰(3) • 2章の結果を⽤いると条件付き分布𝑝 𝑡VcR 𝑡)は 次に⽰す平均と共分散を持つガウス分布に従う. – 𝑚 𝑋VcR = 𝑘& 𝐶V ^R 𝑡 – 𝜎; 𝑋VcR = 𝑐 − 𝑘& 𝐶V ^R 𝑘 • カーネル関数の制約 – 共分散⾏列𝐶が正定値 – カーネル⾏列𝐾が半正定値 • ガウス過程の利点・⽋点 – 利点 • 無限個の基底関数に対応できる – ⽋点 • 𝑂(𝑁f)の⼤きな計算量を必要とする. • ⼤きな訓練データを扱えない. 19 ⾚線: 正弦関数 ⻘丸: ガウス分布に従うノイズを加えた点 緑線: ガウス過程による予測分布の平均 影: 標準偏差の範囲
  • 20. 6.4.3 超パラメータの学習 • ガウス過程による予測は共分散関数の選択に依存 – パラメトリックな関数族を考えて, そのパラメータ𝜃をデータから推定 • 超パラメータの学習⽅法 – 尤度関数𝑝(𝑡|𝜃)を評価する. – 簡単には, 対数尤度関数を最⼤化する𝜃の点推定を⾏う. • 共役勾配法などの効率的な最適化アルゴリズムが⽤いられる. 20
  • 21. 6.4.5 ガウス過程による分類(1) • 確率的な⼿法による分類 – 区間(0, 1)に収まる事後確率を求める. – しかし, ガウス過程のモデルは予測が実数値全体での値をとる. – ガウス過程の出⼒を⾮線形な活性化関数で変換 • ガウス過程を分類問題に適⽤できるようになる • 2クラス分類問題 – ⽬標変数: 𝑡 ∈ {0, 1} – 関数𝑎(𝑥)上のガウス過程を定義し, ロジスティックシグモイド関数𝜎(𝑎)で変換 • 𝑦 ∈ (0,1)な関数𝑦(𝑥)上の⾮ガウス確率過程が得られる. 21 ガウス過程の事前分布 からのサンプル ロジスティックシグモ イド変換
  • 22. 6.4.5 ガウス過程による分類(2) • ⽬標変数𝑡の確率分布はベルヌーイ分布になる. – 𝑝 𝑡 𝑎 = 𝜎 𝑎 j 1 − 𝜎 𝑎 R^j • ガウス過程の分類の⽬標 – 予測分布𝑝 𝑡VcR 𝑡)の決定 22
  • 23. 6.4.5 ガウス過程による分類(3) • 導出の流れ – 𝑎VcR = {𝑎 𝑋R , … , 𝑎 𝑋V }のガウス過程事前分布を考える. – 𝑡VcRに対する⾮ガウス事前分布が導かれる. – 𝑡Vが与えられた下での予測分布が与えられる. • 𝑎VcRに対するガウス過程事前分布は – 𝑝 𝑎VcR = 𝑁 𝑎VcR 0, 𝐶VcR ) – 回帰問題と異なり, 共分散⾏列にノイズが含まれない. • ⾏列の正定値性を保証するためノイズのような項を⼊れる. 23
  • 24. 6.4.5 ガウス過程による分類(4) • 2クラス分類問題なので𝑝 𝑡VcR 𝑡V)を求めれば良い. – この積分を解析的に解くのは不可能 – サンプリング, またはガウス分布による近似 • ガウス分布による近似 – ラプラス近似を⽤いた⽅法(次節) – 変分推論法に基づく⽅法(10章) – EP法を⽤いる⽅法(10章) 24 𝜎(𝑎VcR)
  • 25. 6.4.6 ラプラス近似 • 𝑝 𝑎VcR 𝑡V)のラプラス近似 • 以下の4章の近似式を⽤いて解ける 25
  • 26. ガウス過程のまとめ • ガウス過程のモデルは共分散がカーネル関数になる – ハイパーパラメーターが平均と分散になる. • ガウス過程での回帰・分類問題 – 予測分布𝑝 𝑡VcR 𝑡V)を求める • ガウス過程の利点・⽋点 – 利点:無限個の基底関数に対応できる – ⽋点:𝑂(𝑁f)の⼤きな計算量を必要とする • 訓練データ数N – 基底関数の数Mがデータ数Nより⼤きい時に有効 26
  • 27. 参照 • パターン認識と機械学習 下 – C.M. ビショップ (著), 元⽥ 浩 (監訳), 栗⽥ 多喜夫 (監訳), 樋⼝ 知之 (監訳), 松本 裕治 (監訳), 村⽥ 昇 (監訳) • Pattern Recognition and Machine Learning – Kernel Methods , 池宮由楽 – https://www.slideshare.net/yukaraikemiya/6-15415589 • PRML勉強会 第6章 カーネル法 – 岩橋研究室 ⽊村⼤輝 – https://speakerdeck.com/muzun/prml-6zhang-kanerufa-at-chang-gang • ガウス過程の基礎と教師なし学習 – 統計数理研究所 持橋⼤地 – https://deepx-company.slack.com/archives/G46AJEKRC/p1490759266651275 27