SlideShare une entreprise Scribd logo
1  sur  21
Télécharger pour lire hors ligne
5/12/2015 7th #ぞくパタ 1
続・わかりやすいパターン認識
第7章 マルコフモデル(pp.123-132)
@tanimocchi
5/12/2015 7th #ぞくパタ 2
自己紹介
 Twitter ID: @tanimocchi
(もっちぃ)
 修士(数学)、博士(情報科学)
 所属: Rの付く半導体
 仕事: 車載Security(産業も)
 ビジネスモデル構築・市場開拓、セキュリティ・プロトコル/サーバ・ソ
フト/DBスキーマの仕様設計・開発管理
 プロセッサアーキテクチャ拡張仕様定義もこれから手伝う感じ?
 とはいえ、統計解析とパターン認識・機械学習は必要! だと信じてる。
 統数研公開講座に参加するかもですので、ご一緒の際は宜しくお願いします。
 バイタル・センサシングでのある種の推定モデル開発にも従事
5/12/2015 7th #ぞくパタ 3
7.1 マルコフ性とマルコフモデル
目的
・試行の独立性が成り立たず、過去の試行に
影響される場合を扱う
5/12/2015 7th #ぞくパタ 4
仮想的なサイコロ投げ [1/3]
 サイコロと聞くと“独立試行”と条件反射する前に……
 現実に存在するサイコロは、その出る目の確率が等確率で
はない(そんなサイコロは作れない)
 限りなく重心が中心にあるサイコロ:販売価格 ¥47,500 (税抜)
 http://www.iriso-seimitsu.co.jp/tech/showcase3
6つの四角錘を組み合わせたとき、
設計理論上中心から各底面までの
距離の一致度は99.99999999%
5/12/2015 7th #ぞくパタ 5
仮想的なサイコロ投げ [2/3]
 独立試行が成り立たない例
 出る目の確率が均等でないサイコロがc種類存在し、全体でc個
 全サイコロの目の数はm個
 c個のサイコロの中かから復元抽出に従い選択し、n回振る
 ここで、t回目に取り出したサイコロは、(t-1)回目に取り出したサイコロに
依存して決定される
   
   
 nt
ts
tvvvx
ct
mt
,,2,1
:,,,
:,,,
21
21






 ここで、 
取り出したサイコロでの状態時点
サイコロの目での観測結果時点

5/12/2015 7th #ぞくパタ 6
仮想的なサイコロ投げ [3/3]
 (t-1)回目のサイコロから、t回目のサイコロが選択される確率
 t回目のサイコロの出る目の確率
        
   
   が成り立つ。  また、 
ここで、
  
cia
sPssP
cjissPaant
c
j
ij
jij
itjtjiij
,,2,11
,,2,1,,,,,2,1
1
101
1









i
1
2
j
c
(t-1)回目
t回目
起
り
得
る
全
事
象
……
        
   が成り立つ。  また、 
  
cjb
cjisvxPvbbnt
m
k
jk
jtktkjjk
,,2,11
,,2,1,,,,,2,1
1






j
1v
2v
kv
mv
t回目に選択
したサイコロ
そのサイコロの目
起
り
得
る
全
事
象
……
前状態が現状態を決定
現状態が出力を決定
valuesymbolicsx tt :,
1ia
2ia
ija
ica
1jb
2jb
jkb
jmb
valueconcretev jk :,
5/12/2015 7th #ぞくパタ 7
マルコフモデル
 これまで述べた構造は、確率的な状態遷移と確率的な出力
機能を備えたマルコフモデル(Markov Model)を表す
 マルコフ性(Markov property)
 現在の状態が一時点前の状態に依存して確率的に決まる特性
 マルコフ過程(Markov process)
 そのような特性を満たす過程
 j重マルコフ過程(j-th order Markov process)
 現在の状態が直前のj時点の状態に依存して確率的に決まるマルコフ過程
 j=1のとき、単純マルコフ過程(simple Markov process) ← 以下これのみ扱う
 マルコフ連鎖(Markov chain)
 マルコフ過程の結果得られる状態の系列(確率的に状態が遷移していく過程)
次状態関数
(遷移確率)
状
態
出力関数
(出力確率)
出力記号
statetransition probability output probability
output symbol
入力を伴わない特殊なムーア型ステートマシーン
(次状態関数=遷移確率、出力関数=出力確率)
特殊な確率I/Oオートマトンとして定義する事も可能
5/12/2015 7th #ぞくパタ 8
マルコフモデルの振る舞い
 試行の独立性が成り立たない
 出力は現状態にのみ依存して決定
次状態関数
(遷移確率)
状
態
出力関数
(出力確率)
出力記号
statetransition probability output probability
output symbol
         
         
         
         nnnn
nnnn
nn
nn
sxPsxPsxPsssxxxPP
xsPxsPxsPxxxsssPP
sPsPsPsssPP
xPxPxPxxxPP
,,,,,,,,,,,
,,,,,,
,,,
,,,
22112121
22112121
2121
2121








sx
xs
s
x
         nnnn sxPsxPsxPsssxxxPP  22112121 ,,,,,, sx
ts
tx
1s
2s
ts
ns


1x
2x
tx
nx


Graphical Model
1s
2s
ts
ns


1x
2x
tx
nx


1s
2s
ts
ns


1x
2x
tx
nx


5/12/2015 7th #ぞくパタ 9
遷移確率と出力確率の行列表現 [1/3]
 遷移確率と出力確率の行列表現
次状態関数
(遷移確率)
aij
状
態
出力関数
(出力確率)
bjk
出力記号
state
output symbol
 ccMaij ,














A  mcMbjk ,














B
transition probability output probability
   mjkijc vvvba 






 2121 





















5/12/2015 7th #ぞくパタ 10
遷移確率と出力確率の行列表現 [2/3]
 c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例






















7.03.0
4.06.0
2.08.0
,
6.01.03.0
7.01.02.0
5.04.01.0
BA  










6.01.03.0
7.01.02.0
5.04.01.0
3
2
1
321



  










7.03.0
4.06.0
2.08.0
3
2
1
21



vv  
t回目のサイコロ(t
-
1
)回
目
の
サ
イ
コ
ロ
t
回
目
の
サ
イ
コ
ロ
t回目の奇数・偶数
マルコフモデルの状態遷移図
ω1
ω2 ω3
0.1
0.1
0.4
0.2 0.5
0.3
0.6
0.1
0.7
5/12/2015 7th #ぞくパタ 11
遷移確率と出力確率の行列表現 [3/3]
 c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例
   53.047.0
7.03.0
4.06.0
2.08.0
5.04.01.0
5.0
4.0
1.0
5.0
4.0
1.0
0
0
1
6.07.05.0
1.01.04.0
3.02.01.0
0
0
1
0
0
1
























































































B
AA  
次状態関数
(遷移確率)
aij
状
態
出力関数
(出力確率)
bjk
出力記号
output symbol
   mjkijc vvvba 






 2121 





















ω1
ω2 ω3
0.1
0.1
0.4
0.2 0.5
0.3
0.6
0.1
0.7
statetransition probability output probability
5/12/2015 7th #ぞくパタ 12
7.2 マルコフモデルのパラメータ推定
目的
・観測結果からの遷移確率行列A、出力確率行列B、
及び初期状態確率ベクトルρ、の最尤推定
5/12/2015 7th #ぞくパタ 13
マルコフモデルを表現するための記号
 
 
 
 
   
    
 
 
 
      
 
 
  次元ベクトルを成分としてもつ:
の行列成分として持つを:
の行列成分として持つを:
を満たすである確率が状態:初期状態
を出力する確率で:状態
への遷移確率から状態:状態
出力記号系列:観測記号系列
:状態系列
回目に出た目出力記号での観測結果:時点
コロ回目に取り出したサイでの状態:時点
番目の目サイコロの番目の出力記号:
番目のサイコロ番目の状態:
サイコロの目の数:出力記号の数
サイコロの種類数:状態数
:観測回数
ラメータ。はマルコフモデルのパ とする。特に、 以下、
c
mckjb
ccjia
tsP
vvbb
aa
xxx
sss
ttvvvx
tts
kkv
ii
m
c
n
mkcji
ic
jk
ij
c
i iiii
kjkjjk
jijiij
n
n
mt
ct
k
i






,,,
,
,
11
,,
,,
,,,
,,,
,,,
,,,
,,,2,1,,2,1,
21
11
21
21
21
21
















ρ
B
A
x
s
ρBA
5/12/2015 7th #ぞくパタ 14
パラメータ最尤推定の問題設定
 例題7.1
 箱の中にc種のサイコロω1,ω2,…ωcがあり、その何れかを取り出し、サ
イコロの種類を確認した上でそのサイコロを投げ、出た目を観測した
後、サイコロを元の箱に戻すという操作をn回繰り返す。ここで、
1. 最初にサイコロωiを取り出す確率はρiである
2. サイコロωiを取り出した後にサイコロωjを取り出す確率はaijである
3. サイコロωjを投げて出た目がvkとなる確率はbjkである
とする。但し、i,j=1,2,…,c, k=1,2,…,mである。その結果、サイコロの
目の系列としてx=x1x2…xt…xnが得られ、サイコロの種類の系列とし
てs=s1ss2…st…snが得られた。このとき、観測結果から、A,B,ρを最尤
推定により推定せよ。
 本例題は、xだけでなく、sの情報も得られており、完全データ
を扱った教師付き学習
 例題5.2に対して、マルコフ性を取り入れた例題
5/12/2015 7th #ぞくパタ 15
尤度関数としての同時確率P(x,s)の算出
 P(x,s)= P(s)P(x|s)
 P(x|s)の算出
 P(s)の算出
 P(x,s)の算出
         
      tttttt
n
t
nnnn
sxPxsbxsb
sxPsxPsxPsssxxxPP



,,
,,,,,,
1
22112121


  
sx
           
      としたここで、   ,,
,,,,,,
1101
1
13221121
sPssassa
ssassassasPsssPP
tt
n
t
nnn






s
         tttt
n
t
xsbssaPPP ,,, 1
1


 sxssx
5/12/2015 7th #ぞくパタ 16
対数尤度関数logP(x,s)
 logP(x,s)の算出と最尤推定に向けた記号の導入
 上式のLρ、La、Lbは、それぞれパラメータρi、aij、bjkのみを含むので、logP(x,s)を最
大化するにはLρ、La、Lbを、それらのパラメータに関してそれぞれ独立に最大化すれ
ばよい。
           
          
 
 
 


































n
t
tt
def
b
n
t
tt
def
a
def
ba
n
l
ll
n
t
tt
ll
n
l
tt
n
t
tttt
n
t
xsbL
ssaL
sPL
sPssaLLLxsbssasP
xsbssassaxsbssaP
1
1
1
1
1
110
1
1
1
11
1
1
1
1
101
1
,
,log
log
,,,loglog
,,,log,,log,log
  
  
  
ここで、
  

 
sx
5/12/2015 7th #ぞくパタ 17
定理5.1(p.82)再掲
 定理5.1
 
 
 nix
x
xxxxf
x
xxxxn
n
n
k
kii
i
n
i
iin
n
i
i
in
n
,,2,1
log,,
1
10,,
,,
1
1
21
1
21
21














   
は次式で与えられる。を最大にする
  
する。このときを満たしているものと
  
が拘束条件個の変数
がある。ここで、個の正の定数いま、



5/12/2015 7th #ぞくパタ 18
Laの最大化
 ni:サイコロωiを取り出した回数
 mij:サイコロをωi,ωjと連続して取り出した回数
i
1
c
(t+1)回目
……………………
t回目
 回11 ii ma
 回22 ii ma
 回ijij ma
 回icic ma
回in
ts 1ts
 1, tt ssa
2
j
11 log ii am
22 log ii am
ijij am log
icic am log
Concrete state transition
Symbolic state transition
 



1
1
1,log
n
t
tta ssaL
     


 








c
i
c
j
ijij
n
t
tta amssaL
1 1
1
1
1 log,log
1
1

c
j
ija
i
c
j
ij nm 1
最大化対象の関数
拘束条件
自明な条件
i
ij
c
h
ih
ij
ij
n
m
m
m
a


1
ˆ
定理5.1
各遷移が、ni回中mij回発生
5/12/2015 7th #ぞくパタ 19
Lbの最大化
 nj:サイコロωjを取り出した回数
 njk:サイコロωjを投げて出た目がvkであった回数
j
1v
mv
…………………… 回1j1 nbj
 回22 jj nb
 回jkjk nb
 回jmjm nb
回jn
ts tx
 tt xsb ,
2v
kv
11 log jj bn
22 log jj bn
jkjk bn log
jmjm bn log
Concrete output function
Symbolic output function
 

n
t
ttb xsbL
1
,log
     







c
j
m
k
jkjk
n
t
ttb bnxsbL
1 11
log,log
1
1

m
k
jkb
j
m
k
jk nn 1
最大化対象の関数
拘束条件
自明な条件
j
jk
m
l
jl
jk
jk
n
n
n
n
b


1
ˆ
定理5.1
t回目に選択
したサイコロ
そのサイコロの目
各出力が、nj回中njk回発生
5/12/2015 7th #ぞくパタ 20
Lρの最大化
 本例題で扱う観測データは完全データであるので、s1が
ω1,ω2,…ωcのいずれかであるかは既知。
 そこで、 s1=ωiであったと仮定する。
 すると下記が得られる。
 推定値は上式を最大にするパラメータρであり、下記を得る
  iisPL  loglog 1 
 




ijj
i
 0ˆ
1ˆ








010 


i
初期状態確率ベクトル
5/12/2015 7th #ぞくパタ 21
Thanks a lot!

Contenu connexe

Tendances

最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙Deep Learning JP
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景Masato Nakai
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズムHiroshi Nakagawa
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
独立成分分析とPerfume
独立成分分析とPerfume独立成分分析とPerfume
独立成分分析とPerfumeYurie Oka
 
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化Akiyoshi Hara
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向Naoki Matsunaga
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
BERT分類ワークショップ.pptx
BERT分類ワークショップ.pptxBERT分類ワークショップ.pptx
BERT分類ワークショップ.pptxKouta Nakayama
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative ModelingDeep Learning JP
 

Tendances (20)

coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
強化学習1章
強化学習1章強化学習1章
強化学習1章
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
独立成分分析とPerfume
独立成分分析とPerfume独立成分分析とPerfume
独立成分分析とPerfume
 
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
BERT分類ワークショップ.pptx
BERT分類ワークショップ.pptxBERT分類ワークショップ.pptx
BERT分類ワークショップ.pptx
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 

Similaire à 続・わかりやすいパターン認識 第7章「マルコフモデル」

アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングYosuke Mizutani
 
Hadoopカンファレンス20140707
Hadoopカンファレンス20140707Hadoopカンファレンス20140707
Hadoopカンファレンス20140707Recruit Technologies
 
DB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data PlatformDB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data PlatformDaiyu Hatakeyama
 
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019Yuji Kanemoto
 
Shared Questionnaire System Development Project
Shared Questionnaire System Development ProjectShared Questionnaire System Development Project
Shared Questionnaire System Development Projecthiroya
 
Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」Masayuki Isobe
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Yasutomo Kawanishi
 
オープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリオープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリ陽平 山口
 
統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発Mitsuki Ogasahara
 
統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.scalaconfjp
 
学習モデルの検証
学習モデルの検証学習モデルの検証
学習モデルの検証Ruketa
 
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介Ryohei Ueda
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」Hatena::Engineering
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)cvpaper. challenge
 
Bee Style:vol.018
Bee Style:vol.018Bee Style:vol.018
Bee Style:vol.018spicepark
 
運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうか運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうかMasahito Zembutsu
 

Similaire à 続・わかりやすいパターン認識 第7章「マルコフモデル」 (20)

アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
 
Hadoopカンファレンス20140707
Hadoopカンファレンス20140707Hadoopカンファレンス20140707
Hadoopカンファレンス20140707
 
DB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data PlatformDB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data Platform
 
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
 
Shared Questionnaire System Development Project
Shared Questionnaire System Development ProjectShared Questionnaire System Development Project
Shared Questionnaire System Development Project
 
Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」
 
Bee Style:vol.041
Bee Style:vol.041Bee Style:vol.041
Bee Style:vol.041
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
 
オープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリオープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリ
 
青本勉強会2章
青本勉強会2章青本勉強会2章
青本勉強会2章
 
統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発
 
統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.
 
Introduction of Python
Introduction of PythonIntroduction of Python
Introduction of Python
 
学習モデルの検証
学習モデルの検証学習モデルの検証
学習モデルの検証
 
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」
 
分類分析 (taxometric analysis)
分類分析 (taxometric analysis)分類分析 (taxometric analysis)
分類分析 (taxometric analysis)
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
 
Bee Style:vol.018
Bee Style:vol.018Bee Style:vol.018
Bee Style:vol.018
 
運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうか運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうか
 

Plus de T T

A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...T T
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...T T
 
第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」T T
 
第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編T T
 
がうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんがうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんT T
 
Optimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire AnalysisOptimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire AnalysisT T
 
Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明T T
 
はじパタ6章前半
はじパタ6章前半はじパタ6章前半
はじパタ6章前半T T
 
相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性も相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性もT T
 
サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量T T
 

Plus de T T (10)

A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
 
第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」
 
第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編
 
がうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんがうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへん
 
Optimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire AnalysisOptimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire Analysis
 
Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明
 
はじパタ6章前半
はじパタ6章前半はじパタ6章前半
はじパタ6章前半
 
相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性も相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性も
 
サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量
 

続・わかりやすいパターン認識 第7章「マルコフモデル」

  • 1. 5/12/2015 7th #ぞくパタ 1 続・わかりやすいパターン認識 第7章 マルコフモデル(pp.123-132) @tanimocchi
  • 2. 5/12/2015 7th #ぞくパタ 2 自己紹介  Twitter ID: @tanimocchi (もっちぃ)  修士(数学)、博士(情報科学)  所属: Rの付く半導体  仕事: 車載Security(産業も)  ビジネスモデル構築・市場開拓、セキュリティ・プロトコル/サーバ・ソ フト/DBスキーマの仕様設計・開発管理  プロセッサアーキテクチャ拡張仕様定義もこれから手伝う感じ?  とはいえ、統計解析とパターン認識・機械学習は必要! だと信じてる。  統数研公開講座に参加するかもですので、ご一緒の際は宜しくお願いします。  バイタル・センサシングでのある種の推定モデル開発にも従事
  • 3. 5/12/2015 7th #ぞくパタ 3 7.1 マルコフ性とマルコフモデル 目的 ・試行の独立性が成り立たず、過去の試行に 影響される場合を扱う
  • 4. 5/12/2015 7th #ぞくパタ 4 仮想的なサイコロ投げ [1/3]  サイコロと聞くと“独立試行”と条件反射する前に……  現実に存在するサイコロは、その出る目の確率が等確率で はない(そんなサイコロは作れない)  限りなく重心が中心にあるサイコロ:販売価格 ¥47,500 (税抜)  http://www.iriso-seimitsu.co.jp/tech/showcase3 6つの四角錘を組み合わせたとき、 設計理論上中心から各底面までの 距離の一致度は99.99999999%
  • 5. 5/12/2015 7th #ぞくパタ 5 仮想的なサイコロ投げ [2/3]  独立試行が成り立たない例  出る目の確率が均等でないサイコロがc種類存在し、全体でc個  全サイコロの目の数はm個  c個のサイコロの中かから復元抽出に従い選択し、n回振る  ここで、t回目に取り出したサイコロは、(t-1)回目に取り出したサイコロに 依存して決定される          nt ts tvvvx ct mt ,,2,1 :,,, :,,, 21 21        ここで、  取り出したサイコロでの状態時点 サイコロの目での観測結果時点 
  • 6. 5/12/2015 7th #ぞくパタ 6 仮想的なサイコロ投げ [3/3]  (t-1)回目のサイコロから、t回目のサイコロが選択される確率  t回目のサイコロの出る目の確率                 が成り立つ。  また、  ここで、    cia sPssP cjissPaant c j ij jij itjtjiij ,,2,11 ,,2,1,,,,,2,1 1 101 1          i 1 2 j c (t-1)回目 t回目 起 り 得 る 全 事 象 ……             が成り立つ。  また、     cjb cjisvxPvbbnt m k jk jtktkjjk ,,2,11 ,,2,1,,,,,2,1 1       j 1v 2v kv mv t回目に選択 したサイコロ そのサイコロの目 起 り 得 る 全 事 象 …… 前状態が現状態を決定 現状態が出力を決定 valuesymbolicsx tt :, 1ia 2ia ija ica 1jb 2jb jkb jmb valueconcretev jk :,
  • 7. 5/12/2015 7th #ぞくパタ 7 マルコフモデル  これまで述べた構造は、確率的な状態遷移と確率的な出力 機能を備えたマルコフモデル(Markov Model)を表す  マルコフ性(Markov property)  現在の状態が一時点前の状態に依存して確率的に決まる特性  マルコフ過程(Markov process)  そのような特性を満たす過程  j重マルコフ過程(j-th order Markov process)  現在の状態が直前のj時点の状態に依存して確率的に決まるマルコフ過程  j=1のとき、単純マルコフ過程(simple Markov process) ← 以下これのみ扱う  マルコフ連鎖(Markov chain)  マルコフ過程の結果得られる状態の系列(確率的に状態が遷移していく過程) 次状態関数 (遷移確率) 状 態 出力関数 (出力確率) 出力記号 statetransition probability output probability output symbol 入力を伴わない特殊なムーア型ステートマシーン (次状態関数=遷移確率、出力関数=出力確率) 特殊な確率I/Oオートマトンとして定義する事も可能
  • 8. 5/12/2015 7th #ぞくパタ 8 マルコフモデルの振る舞い  試行の独立性が成り立たない  出力は現状態にのみ依存して決定 次状態関数 (遷移確率) 状 態 出力関数 (出力確率) 出力記号 statetransition probability output probability output symbol                                        nnnn nnnn nn nn sxPsxPsxPsssxxxPP xsPxsPxsPxxxsssPP sPsPsPsssPP xPxPxPxxxPP ,,,,,,,,,,, ,,,,,, ,,, ,,, 22112121 22112121 2121 2121         sx xs s x          nnnn sxPsxPsxPsssxxxPP  22112121 ,,,,,, sx ts tx 1s 2s ts ns   1x 2x tx nx   Graphical Model 1s 2s ts ns   1x 2x tx nx   1s 2s ts ns   1x 2x tx nx  
  • 9. 5/12/2015 7th #ぞくパタ 9 遷移確率と出力確率の行列表現 [1/3]  遷移確率と出力確率の行列表現 次状態関数 (遷移確率) aij 状 態 出力関数 (出力確率) bjk 出力記号 state output symbol  ccMaij ,               A  mcMbjk ,               B transition probability output probability    mjkijc vvvba         2121                      
  • 10. 5/12/2015 7th #ぞくパタ 10 遷移確率と出力確率の行列表現 [2/3]  c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例                       7.03.0 4.06.0 2.08.0 , 6.01.03.0 7.01.02.0 5.04.01.0 BA             6.01.03.0 7.01.02.0 5.04.01.0 3 2 1 321                 7.03.0 4.06.0 2.08.0 3 2 1 21    vv   t回目のサイコロ(t - 1 )回 目 の サ イ コ ロ t 回 目 の サ イ コ ロ t回目の奇数・偶数 マルコフモデルの状態遷移図 ω1 ω2 ω3 0.1 0.1 0.4 0.2 0.5 0.3 0.6 0.1 0.7
  • 11. 5/12/2015 7th #ぞくパタ 11 遷移確率と出力確率の行列表現 [3/3]  c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例    53.047.0 7.03.0 4.06.0 2.08.0 5.04.01.0 5.0 4.0 1.0 5.0 4.0 1.0 0 0 1 6.07.05.0 1.01.04.0 3.02.01.0 0 0 1 0 0 1                                                                                         B AA   次状態関数 (遷移確率) aij 状 態 出力関数 (出力確率) bjk 出力記号 output symbol    mjkijc vvvba         2121                       ω1 ω2 ω3 0.1 0.1 0.4 0.2 0.5 0.3 0.6 0.1 0.7 statetransition probability output probability
  • 12. 5/12/2015 7th #ぞくパタ 12 7.2 マルコフモデルのパラメータ推定 目的 ・観測結果からの遷移確率行列A、出力確率行列B、 及び初期状態確率ベクトルρ、の最尤推定
  • 13. 5/12/2015 7th #ぞくパタ 13 マルコフモデルを表現するための記号                                     次元ベクトルを成分としてもつ: の行列成分として持つを: の行列成分として持つを: を満たすである確率が状態:初期状態 を出力する確率で:状態 への遷移確率から状態:状態 出力記号系列:観測記号系列 :状態系列 回目に出た目出力記号での観測結果:時点 コロ回目に取り出したサイでの状態:時点 番目の目サイコロの番目の出力記号: 番目のサイコロ番目の状態: サイコロの目の数:出力記号の数 サイコロの種類数:状態数 :観測回数 ラメータ。はマルコフモデルのパ とする。特に、 以下、 c mckjb ccjia tsP vvbb aa xxx sss ttvvvx tts kkv ii m c n mkcji ic jk ij c i iiii kjkjjk jijiij n n mt ct k i       ,,, , , 11 ,, ,, ,,, ,,, ,,, ,,, ,,,2,1,,2,1, 21 11 21 21 21 21                 ρ B A x s ρBA
  • 14. 5/12/2015 7th #ぞくパタ 14 パラメータ最尤推定の問題設定  例題7.1  箱の中にc種のサイコロω1,ω2,…ωcがあり、その何れかを取り出し、サ イコロの種類を確認した上でそのサイコロを投げ、出た目を観測した 後、サイコロを元の箱に戻すという操作をn回繰り返す。ここで、 1. 最初にサイコロωiを取り出す確率はρiである 2. サイコロωiを取り出した後にサイコロωjを取り出す確率はaijである 3. サイコロωjを投げて出た目がvkとなる確率はbjkである とする。但し、i,j=1,2,…,c, k=1,2,…,mである。その結果、サイコロの 目の系列としてx=x1x2…xt…xnが得られ、サイコロの種類の系列とし てs=s1ss2…st…snが得られた。このとき、観測結果から、A,B,ρを最尤 推定により推定せよ。  本例題は、xだけでなく、sの情報も得られており、完全データ を扱った教師付き学習  例題5.2に対して、マルコフ性を取り入れた例題
  • 15. 5/12/2015 7th #ぞくパタ 15 尤度関数としての同時確率P(x,s)の算出  P(x,s)= P(s)P(x|s)  P(x|s)の算出  P(s)の算出  P(x,s)の算出                 tttttt n t nnnn sxPxsbxsb sxPsxPsxPsssxxxPP    ,, ,,,,,, 1 22112121      sx                   としたここで、   ,, ,,,,,, 1101 1 13221121 sPssassa ssassassasPsssPP tt n t nnn       s          tttt n t xsbssaPPP ,,, 1 1    sxssx
  • 16. 5/12/2015 7th #ぞくパタ 16 対数尤度関数logP(x,s)  logP(x,s)の算出と最尤推定に向けた記号の導入  上式のLρ、La、Lbは、それぞれパラメータρi、aij、bjkのみを含むので、logP(x,s)を最 大化するにはLρ、La、Lbを、それらのパラメータに関してそれぞれ独立に最大化すれ ばよい。                                                                n t tt def b n t tt def a def ba n l ll n t tt ll n l tt n t tttt n t xsbL ssaL sPL sPssaLLLxsbssasP xsbssassaxsbssaP 1 1 1 1 1 110 1 1 1 11 1 1 1 1 101 1 , ,log log ,,,loglog ,,,log,,log,log          ここで、       sx
  • 17. 5/12/2015 7th #ぞくパタ 17 定理5.1(p.82)再掲  定理5.1      nix x xxxxf x xxxxn n n k kii i n i iin n i i in n ,,2,1 log,, 1 10,, ,, 1 1 21 1 21 21                   は次式で与えられる。を最大にする    する。このときを満たしているものと    が拘束条件個の変数 がある。ここで、個の正の定数いま、   
  • 18. 5/12/2015 7th #ぞくパタ 18 Laの最大化  ni:サイコロωiを取り出した回数  mij:サイコロをωi,ωjと連続して取り出した回数 i 1 c (t+1)回目 …………………… t回目  回11 ii ma  回22 ii ma  回ijij ma  回icic ma 回in ts 1ts  1, tt ssa 2 j 11 log ii am 22 log ii am ijij am log icic am log Concrete state transition Symbolic state transition      1 1 1,log n t tta ssaL                   c i c j ijij n t tta amssaL 1 1 1 1 1 log,log 1 1  c j ija i c j ij nm 1 最大化対象の関数 拘束条件 自明な条件 i ij c h ih ij ij n m m m a   1 ˆ 定理5.1 各遷移が、ni回中mij回発生
  • 19. 5/12/2015 7th #ぞくパタ 19 Lbの最大化  nj:サイコロωjを取り出した回数  njk:サイコロωjを投げて出た目がvkであった回数 j 1v mv …………………… 回1j1 nbj  回22 jj nb  回jkjk nb  回jmjm nb 回jn ts tx  tt xsb , 2v kv 11 log jj bn 22 log jj bn jkjk bn log jmjm bn log Concrete output function Symbolic output function    n t ttb xsbL 1 ,log              c j m k jkjk n t ttb bnxsbL 1 11 log,log 1 1  m k jkb j m k jk nn 1 最大化対象の関数 拘束条件 自明な条件 j jk m l jl jk jk n n n n b   1 ˆ 定理5.1 t回目に選択 したサイコロ そのサイコロの目 各出力が、nj回中njk回発生
  • 20. 5/12/2015 7th #ぞくパタ 20 Lρの最大化  本例題で扱う観測データは完全データであるので、s1が ω1,ω2,…ωcのいずれかであるかは既知。  そこで、 s1=ωiであったと仮定する。  すると下記が得られる。  推定値は上式を最大にするパラメータρであり、下記を得る   iisPL  loglog 1        ijj i  0ˆ 1ˆ         010    i 初期状態確率ベクトル
  • 21. 5/12/2015 7th #ぞくパタ 21 Thanks a lot!