SlideShare une entreprise Scribd logo
1  sur  11
Télécharger pour lire hors ligne
PRML5.6 混合密度ネットワーク




           2012/12/15
                @K5_sem
              PRML読書会
混合密度ネットワークとは?
●   ネットワークモデルを関数として考え、最尤推定の枠
    組みでネットワークパラメタを決定する問題(ここまで
    がニューラルネットワーク)におけるニューラルネット
    ワークモデルへの拡張の一つ
●   条件付き確率分布をモデル化するための枠組み
●   tの分布を表すパラメトリックな混合モデルを考えて
    一般的な条件付き確率密度p(t|x)を表現する手法
    ●   そのパラメタはxを入力ベクトルとして取るニューラル
        ネットワークの出力から定める
概要
●
    5.6では解が複数存在する問題への対処法
    について考える
●   5.6の流れ
    ●   解が複数存在する問題(逆問題)
    ●   解が複数存在する問題の解決
        –   混合密度ネットワークの特徴
        –   アプローチ(混合密度ネットワークの利用)
        –   解析(混合密度ネットワークの出力)
        –   解析(混合密度ネットワークの最適化)
        –   適用(単純な問題で混合ネットワークを使って解を求めてみる)
解が複数存在する問題
●   逆問題
    ●   分布が多峰性(multimodality)を持つ問題
        –   そこそこよい解をいろいろ探し出す!!
    ●   例1:ロボットアーム(図5.18 目的の終端位置を達成する関節
        角を求める)
        –   「肘を上にした」状態と「肘を下にした」状態の2つの解
    ●   例2:多峰性を容易に可視化できる単純な(あまり面白味のない)問題(図
        5.19 2層ニューラルネットのフィッティング)
        –   XとYを入れ替えただけで多峰性によりフィッティングが失敗
        –   逆問題(高度な非ガウス性質を持つ)に対しては、通常のニューラ
            ルネットワークは非常に貧弱なモデル (予測精度が低い)
解が複数存在する問題の解決[1/5]
●
    混合密度ネットワークの特徴
    ●
        条件付き密度をガウス混合分布でモデル化
    ●
        混合比、期待値、分散を入力xの関数としてニュー
        ラルネットワークで学習
    ●
        推定精度は良いが、局所解があるため、信頼性が低
        く学習に時間がかかる
    ●
        混合係数をxの関数とすることで解決
    ●
        構成要素の密度と混合係数をニューラルネットワー
        クの隠れユニットで共有できる
解が複数存在する問題の解決[2/5]
●
    アプローチ(混合密度ネットワークの利用)
    ●
        条件付き確率分布をモデル化するための枠組み
    ●
        p(t|x)に混合モデル(2.3.9)を用いることで実現
        –   与えられたどんなxに対してもp(t|x)モデル化のための枠
            組みを提供(詳細は9章および14.5?)
    ●
        混合密度ネットワーク(mixture density network)
        を構築   混合係数  平均    分散
                        K
                                                         2
        p  t | x  = ∑ k  x  N  t |μ k  x  , σ  x  I 
                                                         k
                                                                    (5.148)式
                       k=1

    ↑の混合係数・平均・分散という3つのパラメタが入力xへの出力
    ※それぞれ(5.150式),(5.151式),(5.152式)
解が複数存在する問題の解決[3/5]
●
    解析(混合密度ネットワークの出力)
    ●
        混合係数
        –   (5.149)式を満たす制約充足問題に帰着(P.109参照)
        –   ソフトマックス関数を用いて(5.150)式が得られる
    ●
        平均
        –   ネットワークの出力(K×L個の出力)より(5.152)式が得ら
            れる
    ●
        分散
        –   ネットワークの出力の指数関数(カーネルの幅)より
            (5.151)式が得られる
解が複数存在する問題の解決[4/5]
●
    解析(混合密度ネットワークの最適化)
    ●
        ニューラルネットワークの重みとバイアスのベクト
        ルwの2つのパラメータ(の最適な値)を求める
    ●
        尤度を最大化=負の対数尤度として定義される誤
        差関数を最小化することで定まる
        –   混合係数を決めるネットワークの出力・各要素の平均を
            決める出力・各要素の分散を決める出力それぞれに関す
            る偏微分を求める((5.155)式~(5.157)式)
    ●
        計算量:L→(L+2)K
解が複数存在する問題の解決[5/5]
●   適用(図5.19の問題(多峰性を容易に可視化できる単純な問題)で
    混合ネットワークを使って解を求めてみる)
●   与えられた任意の入力ベクトルの値に対する目標デー
    タの条件付き密度関数が予測可能
    ●   平均の導出→(5.158)式
        –   しかし平均は解にならない(ロボットアームの例)
    ●   分散の導出→(5.160)式
    ●   しかし、単純な解析解は持たない(数値反復法で地道に計算)
    ●   混合係数が最大の要素の平均をとるという方策(図5/21(d))
まとめ
●
    分布が多峰性を持つ問題に対応
●
    混合係数と各要素密度のすべてのパラメータ予
    測に同一の関数を利用
    ●
        非線形隠れユニットは入力に依存される関数により
        共有される
        –   これが混合密度ネットワークの利点であり、混合エキス
            パートモデル(14.5.3)との違い
●
    単純な解析解を持たない
    ●
        推定精度は良いが局所解があるため、信頼性が低く
        学習に時間がかかる?
参考資料
●   多目的最適化と多峰性の複数の解を求める違い
    ●   http://www.furuta-lab.jp/member/kamechan/index.php?%E5%A4%9A%E7%9B%AE%E7%9A
        %84%E6%9C%80%E9%81%A9%E5%8C%96%E3%81%A8%E5%A4%9A
        %E5%B3%B0%E6%80%A7%E3%81%AE%E8%A4%87%E6%95%B0%E3%81%AE
        %E8%A7%A3%E3%82%92%E6%B1%82%E3%82%81%E3%82%8B%E9%81%95%E3%81%84
●   14.5条件付き混同モデルの解説資料(tsubosaka氏)
    ●   http://www.slideshare.net/tsubosaka/prml14-5#btnNext
●   sage/PRML - 混合密度ネットワーク
    ●   http://www.pwv.co.jp/~take/TakeWiki/index.php?sage%2FPRML%20-%20%E6%B7%B7%E5%90%8
●   第5章要約資料(kisa12012氏)
    ●   http://www.slideshare.net/kisa12012/prml5-4697969#btnNext
●   条件付き確率推定(東京工業大学 杉山将教授(PRML翻訳者の一人)) ※スライド20
    ●   sugiyama-www.cs.titech.ac.jp/.../Canon-MachineLearning15-jp.pdf

Contenu connexe

Tendances

2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワークTakeshi Sakaki
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
Back propagation
Back propagationBack propagation
Back propagationT2C_
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3正志 坪坂
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
深層学習と活性化関数
深層学習と活性化関数深層学習と活性化関数
深層学習と活性化関数spade630
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)t dev
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13matsuolab
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 

Tendances (20)

2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
Back propagation
Back propagationBack propagation
Back propagation
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
深層学習と活性化関数
深層学習と活性化関数深層学習と活性化関数
深層学習と活性化関数
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
Prml4 1-4-2
Prml4 1-4-2Prml4 1-4-2
Prml4 1-4-2
 

Similaire à Prml5 6

PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)Shogo Nakamura
 
Nmp for quantum_chemistry
Nmp for  quantum_chemistryNmp for  quantum_chemistry
Nmp for quantum_chemistryshima o
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Wataru Kishimoto
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点Taiji Suzuki
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter halfNarihira Takuya
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...nkazuki
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learningHirotaka Hachiya
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計Yuta Sugii
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章孝好 飯塚
 

Similaire à Prml5 6 (20)

PRML_from5.1to5.3.1
PRML_from5.1to5.3.1PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
 
PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)
 
Nmp for quantum_chemistry
Nmp for  quantum_chemistryNmp for  quantum_chemistry
Nmp for quantum_chemistry
 
PRML10-draft1002
PRML10-draft1002PRML10-draft1002
PRML10-draft1002
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
深層学習①
深層学習①深層学習①
深層学習①
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
 

Plus de K5_sem

Ryogoku performance meeting4
Ryogoku performance meeting4Ryogoku performance meeting4
Ryogoku performance meeting4K5_sem
 
マジックとITの可能性
マジックとITの可能性マジックとITの可能性
マジックとITの可能性K5_sem
 
Tmp20130824
Tmp20130824Tmp20130824
Tmp20130824K5_sem
 
Tmp20130822
Tmp20130822Tmp20130822
Tmp20130822K5_sem
 
Prml7 2
Prml7 2Prml7 2
Prml7 2K5_sem
 
Bsd5.12.3
Bsd5.12.3Bsd5.12.3
Bsd5.12.3K5_sem
 
Bsd5.10.1
Bsd5.10.1Bsd5.10.1
Bsd5.10.1K5_sem
 
Oss magic2
Oss magic2Oss magic2
Oss magic2K5_sem
 
Oss magic
Oss magicOss magic
Oss magicK5_sem
 
Prml3 4
Prml3 4Prml3 4
Prml3 4K5_sem
 
Prml3 4
Prml3 4Prml3 4
Prml3 4K5_sem
 
Technologyand region
Technologyand regionTechnologyand region
Technologyand regionK5_sem
 

Plus de K5_sem (12)

Ryogoku performance meeting4
Ryogoku performance meeting4Ryogoku performance meeting4
Ryogoku performance meeting4
 
マジックとITの可能性
マジックとITの可能性マジックとITの可能性
マジックとITの可能性
 
Tmp20130824
Tmp20130824Tmp20130824
Tmp20130824
 
Tmp20130822
Tmp20130822Tmp20130822
Tmp20130822
 
Prml7 2
Prml7 2Prml7 2
Prml7 2
 
Bsd5.12.3
Bsd5.12.3Bsd5.12.3
Bsd5.12.3
 
Bsd5.10.1
Bsd5.10.1Bsd5.10.1
Bsd5.10.1
 
Oss magic2
Oss magic2Oss magic2
Oss magic2
 
Oss magic
Oss magicOss magic
Oss magic
 
Prml3 4
Prml3 4Prml3 4
Prml3 4
 
Prml3 4
Prml3 4Prml3 4
Prml3 4
 
Technologyand region
Technologyand regionTechnologyand region
Technologyand region
 

Prml5 6

  • 1. PRML5.6 混合密度ネットワーク 2012/12/15 @K5_sem PRML読書会
  • 2. 混合密度ネットワークとは? ● ネットワークモデルを関数として考え、最尤推定の枠 組みでネットワークパラメタを決定する問題(ここまで がニューラルネットワーク)におけるニューラルネット ワークモデルへの拡張の一つ ● 条件付き確率分布をモデル化するための枠組み ● tの分布を表すパラメトリックな混合モデルを考えて 一般的な条件付き確率密度p(t|x)を表現する手法 ● そのパラメタはxを入力ベクトルとして取るニューラル ネットワークの出力から定める
  • 3. 概要 ● 5.6では解が複数存在する問題への対処法 について考える ● 5.6の流れ ● 解が複数存在する問題(逆問題) ● 解が複数存在する問題の解決 – 混合密度ネットワークの特徴 – アプローチ(混合密度ネットワークの利用) – 解析(混合密度ネットワークの出力) – 解析(混合密度ネットワークの最適化) – 適用(単純な問題で混合ネットワークを使って解を求めてみる)
  • 4. 解が複数存在する問題 ● 逆問題 ● 分布が多峰性(multimodality)を持つ問題 – そこそこよい解をいろいろ探し出す!! ● 例1:ロボットアーム(図5.18 目的の終端位置を達成する関節 角を求める) – 「肘を上にした」状態と「肘を下にした」状態の2つの解 ● 例2:多峰性を容易に可視化できる単純な(あまり面白味のない)問題(図 5.19 2層ニューラルネットのフィッティング) – XとYを入れ替えただけで多峰性によりフィッティングが失敗 – 逆問題(高度な非ガウス性質を持つ)に対しては、通常のニューラ ルネットワークは非常に貧弱なモデル (予測精度が低い)
  • 5. 解が複数存在する問題の解決[1/5] ● 混合密度ネットワークの特徴 ● 条件付き密度をガウス混合分布でモデル化 ● 混合比、期待値、分散を入力xの関数としてニュー ラルネットワークで学習 ● 推定精度は良いが、局所解があるため、信頼性が低 く学習に時間がかかる ● 混合係数をxの関数とすることで解決 ● 構成要素の密度と混合係数をニューラルネットワー クの隠れユニットで共有できる
  • 6. 解が複数存在する問題の解決[2/5] ● アプローチ(混合密度ネットワークの利用) ● 条件付き確率分布をモデル化するための枠組み ● p(t|x)に混合モデル(2.3.9)を用いることで実現 – 与えられたどんなxに対してもp(t|x)モデル化のための枠 組みを提供(詳細は9章および14.5?) ● 混合密度ネットワーク(mixture density network) を構築 混合係数 平均 分散 K 2 p  t | x  = ∑ k  x  N  t |μ k  x  , σ  x  I  k (5.148)式 k=1 ↑の混合係数・平均・分散という3つのパラメタが入力xへの出力 ※それぞれ(5.150式),(5.151式),(5.152式)
  • 7. 解が複数存在する問題の解決[3/5] ● 解析(混合密度ネットワークの出力) ● 混合係数 – (5.149)式を満たす制約充足問題に帰着(P.109参照) – ソフトマックス関数を用いて(5.150)式が得られる ● 平均 – ネットワークの出力(K×L個の出力)より(5.152)式が得ら れる ● 分散 – ネットワークの出力の指数関数(カーネルの幅)より (5.151)式が得られる
  • 8. 解が複数存在する問題の解決[4/5] ● 解析(混合密度ネットワークの最適化) ● ニューラルネットワークの重みとバイアスのベクト ルwの2つのパラメータ(の最適な値)を求める ● 尤度を最大化=負の対数尤度として定義される誤 差関数を最小化することで定まる – 混合係数を決めるネットワークの出力・各要素の平均を 決める出力・各要素の分散を決める出力それぞれに関す る偏微分を求める((5.155)式~(5.157)式) ● 計算量:L→(L+2)K
  • 9. 解が複数存在する問題の解決[5/5] ● 適用(図5.19の問題(多峰性を容易に可視化できる単純な問題)で 混合ネットワークを使って解を求めてみる) ● 与えられた任意の入力ベクトルの値に対する目標デー タの条件付き密度関数が予測可能 ● 平均の導出→(5.158)式 – しかし平均は解にならない(ロボットアームの例) ● 分散の導出→(5.160)式 ● しかし、単純な解析解は持たない(数値反復法で地道に計算) ● 混合係数が最大の要素の平均をとるという方策(図5/21(d))
  • 10. まとめ ● 分布が多峰性を持つ問題に対応 ● 混合係数と各要素密度のすべてのパラメータ予 測に同一の関数を利用 ● 非線形隠れユニットは入力に依存される関数により 共有される – これが混合密度ネットワークの利点であり、混合エキス パートモデル(14.5.3)との違い ● 単純な解析解を持たない ● 推定精度は良いが局所解があるため、信頼性が低く 学習に時間がかかる?
  • 11. 参考資料 ● 多目的最適化と多峰性の複数の解を求める違い ● http://www.furuta-lab.jp/member/kamechan/index.php?%E5%A4%9A%E7%9B%AE%E7%9A %84%E6%9C%80%E9%81%A9%E5%8C%96%E3%81%A8%E5%A4%9A %E5%B3%B0%E6%80%A7%E3%81%AE%E8%A4%87%E6%95%B0%E3%81%AE %E8%A7%A3%E3%82%92%E6%B1%82%E3%82%81%E3%82%8B%E9%81%95%E3%81%84 ● 14.5条件付き混同モデルの解説資料(tsubosaka氏) ● http://www.slideshare.net/tsubosaka/prml14-5#btnNext ● sage/PRML - 混合密度ネットワーク ● http://www.pwv.co.jp/~take/TakeWiki/index.php?sage%2FPRML%20-%20%E6%B7%B7%E5%90%8 ● 第5章要約資料(kisa12012氏) ● http://www.slideshare.net/kisa12012/prml5-4697969#btnNext ● 条件付き確率推定(東京工業大学 杉山将教授(PRML翻訳者の一人)) ※スライド20 ● sugiyama-www.cs.titech.ac.jp/.../Canon-MachineLearning15-jp.pdf