SlideShare une entreprise Scribd logo
1  sur  26
Télécharger pour lire hors ligne
続・わかりやすい
パターン認識識
2015/2/10  続パタ
脇⼭山  宗也
l twitterID:wwacky
n 間違いを発⾒見見したらこちらへ!
l ルンバ買いました
n 1週間運⽤用したら、結構ゴミがたまってて感動しました
n みんな買うと幸せになれるよ
l 最近はテンソル分解の勉強をしてます
n Kronecker積、Khatri-Rao積、Hadamard積のジェットストリー
ムアタックで瞬殺されています
お前誰よ
l 未知パラメータをベイズ推定する時に、観測回数がどの
程度度影響するのか確認してみる
l その前に、ちょっと前回の復復習
n コインを投げた時の表が出る確率率率θを知りたい
n 無情報として、θは[0,1]の⼀一様分布と仮定
n コインを振るとベイズ更更新でθの分布(事後確率率率)が変わる
観測回数の効果
コインを複数回投げる試⾏行行は、⼆二項分布に従う
事前分布が⼀一様分布だと、事後分布はベータ分布になる
p(θ|x(n))=Be(r+1, n-r+1)
n:試⾏行行回数、r:表の出た回数
観測回数の効果
0試⾏行行、表0回  Be(1,1)
1試⾏行行、表1回 Be(2,1)
2試⾏行行、表2回 Be(3,1)
観測結果はθ=0.8の2項分布から作っているが、
θが0.8付近で収束しようとしているのが分かる
次の結果が観測されたとする  表表表表裏裏表表裏裏
3試⾏行行、表3回  Be(4,1)
4試⾏行行、表4回 Be(5,1)
5試⾏行行、表4回 Be(5,2)
6試⾏行行、表5回  Be(6,2)
7試⾏行行、表6回 Be(7,2)
8試⾏行行、表6回 Be(7,3)
観測回数を増やすと、分布は真の値(θ=0.8)にピークが
でき、θの範囲は狭まっていく
⇒観測回数を増やすことで、初期の事前分布の影響は
  ⼩小さくなる
観測回数の効果
100試⾏行行で
表が88回
1000試⾏行行で
表が805回
10試⾏行行で
表が7回
表が出にくいと想定して、事前分布にBe(3, 9)を設定した
上で(10試⾏行行で表が2回)、先ほどの観測データで更更新し
てみる
試⾏行行回数が少ない時は事前分布に引っ張られるが、
試⾏行行回数が増えると真の値付近にピークができる
事前分布の影響
100試⾏行行で
表が88回
1000試⾏行行で
表が805回
10試⾏行行で表が7回
事前分布の影響が⼤大きい事前分布
Be(3, 9)
l 最尤推定
n パラメータ:未知  →  ⼈人間の直感とは独⽴立立に存在する定数
u 推定で得られるのはθそのものの推定値
n 実際に観測データが得られた時、そのようなデータが得られる確率率率
を最⼤大にするパラメータを最良良の推定値とする
l ベイズ推定
n パラメータ:既知の事前分布をもつ確率率率変数(分布)として捉える
u なので事前分布も必要
u 推定で得られるのも確率率率分布
u 推定値そのものは得られないので、利利⽤用時は決める必要がある。⼀一般的
には平均値か最頻値
n 観測結果を得ると、事前分布は事後分布に変化。パラメータに対す
る確信度度が修正される
最尤推定とベイズ推定って何が違う?
l 事前分布が分からない(無情報事前分布=⼀一様分布)場
合、最尤推定とベイズ推定は⼀一緒!
最尤推定とベイズ推定って何が違う?
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )
ˆθ = argmax
θ
p θ | x
n( )
( ){ }
= argmax
θ
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )
"
#
$
%$
&
'
$
($
= argmax
θ
P x
n( )
|θ( )⋅ p θ( ){ }
= argmax
θ
P x
n( )
|θ( ){ }
←事後確率率率最⼤大化の式
ベイズの定理理
P(x(n)|θ)はx依存で定数扱い
←p(θ)=⼀一様分布なら削除可
→最尤推定の式
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )
ベイズの定理理
P(x(n)|θ)はx依存で定数扱い
l 事前分布が分からない(無情報事前分布=⼀一様分布)場
合、最尤推定とベイズ推定は⼀一緒!
最尤推定とベイズ推定って何が違う?
ˆθ = argmax
θ
p θ | x
n( )
( ){ }
= argmax
θ
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )
"
#
$
%$
&
'
$
($
= argmax
θ
P x
n( )
|θ( )⋅ p θ( ){ }
= argmax
θ
P x
n( )
|θ( ){ }
←事後確率率率最⼤大化の式
←p(θ)=⼀一様分布なら削除可
→最尤推定の式
事前分布が⼀一様分布
じゃないと省省略略できず、
最尤推定の式と⼀一致し
ない!
ここで唐突にディリクレ分布
このタイミングでディリクレ分布が出てきたのが
4章⼀一番の謎
ディリクレ分布
ディリクレ分布とは?
⼆二項分布
コインを投げた時の
表裏裏の分布
ベータ分布
コインの表裏裏それぞれが
出る確率率率の分布
多項分布
K⾯面のサイコロの出る⽬目
の分布
ディリクレ分布
K⾯面サイコロの各⽬目の
⽣生起確率率率の分布
共役
共役
⼀一般化 特殊形 ⼀一般化 特殊形
正規確率率率が分かっている時の
観測データが得られる確率率率
観測データが与えられた時の
⽣生起確率率率の尤度度分布
多項分布とディリクレ分布の関係
P n;θ( )=
n!
n1!!nm !
θ1
n1
!θm
nm
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )=
p θ( )
P x
n( )
( )
⋅θ1
n1
!θ1
nm
多項分布
x(n)が観測される確率率率 P x
n( )
|θ( )=θ1
n1
!θm
nm x(n)は観測順も含まれるので
組み合わせは不不要
多項分布の事後分布
多項分布とディリクレ分布の関係
P n;θ( )=
n!
n1!!nm !
θ1
n1
!θm
nm
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )=
p θ( )
P x
n( )
( )
⋅θ1
n1
!θ1
nm
多項分布
x(n)が観測される確率率率 P x
n( )
|θ( )=θ1
n1
!θm
nm x(n)は観測順も含まれるので
組み合わせは不不要
多項分布の事後分布
理理由不不⼗十分の原理理から
⼀一様分布とする(=定数)
θに依存しないので、
定数とみなせる
多項分布とディリクレ分布の関係
P n;θ( )=
n!
n1!!nm !
θ1
n1
!θm
nm
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )=
p θ( )
P x
n( )
( )
⋅θ1
n1
!θ1
nm
多項分布
x(n)が観測される確率率率 P x
n( )
|θ( )=θ1
n1
!θm
nm x(n)は観測順も含まれるので
組み合わせは不不要
理理由不不⼗十分の原理理から
⼀一様分布とする(=定数)
θに依存しないので、
定数とみなせる
1つの定数
とみなせる
多項分布の事後分布
多項分布とディリクレ分布の関係
P n;θ( )=
n!
n1!!nm !
θ1
n1
!θm
nm
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )=
p θ( )
P x
n( )
( )
⋅θ1
n1
!θ1
nm
多項分布
x(n)が観測される確率率率 P x
n( )
|θ( )=θ1
n1
!θm
nm x(n)は観測順も含まれるので
組み合わせは不不要
とりあえず
1/Z2と置きます
θは                                0≦θk≦1  の制約を持つので、
P(θ|x(n))を積分すると1になる  ⇒定数部分は正規化項になる
θk
k=1
m
∑ =1
多項分布の事後分布
多項分布とディリクレ分布の関係
P n;θ( )=
n!
n1!!nm !
θ1
n1
!θm
nm
多項分布
x(n)が観測される確率率率 P x
n( )
|θ( )=θ1
n1
!θm
nm x(n)は観測順も含まれるので
組み合わせは不不要
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )=
p θ( )
P x
n( )
( )
⋅θ1
n1
!θ1
nm
=
1
Z2
⋅θ1
n1
!θ1
nm
θは                                0≦θk≦1  の制約を持つので、
P(θ|x(n))を積分すると1になる  ⇒定数部分は正規化項になる
θk
k=1
m
∑ =1
だったら、積分して1になる
ので制約満たすでしょ
Z2 = θ1
n1
!θ1
nm
d
Dm
∫ θ
多項分布の事後分布
多項分布とディリクレ分布の関係
p θ | x
n( )
( )=
1
Z2
⋅θ1
n1
!θ1
nm
多項分布の事後分布
θ1
α1−1
!θ1
αm−1
d
Dm
∫ θ =
Γ α1( )!Γ αm( )
Γ α1,!,αm( )
なので、αk = nk+1とすると
p θ | x
n( )
( )=
Γ n + m( )
Γ n1 +1( )!Γ nm +1( )
⋅θ1
n1
!θ1
nm
ak = n + m
k=1
m
∑
証明はこちらを参考にどうぞ
http://www.cis.nagasaki-u.ac.jp/~masada/DirDistNorm.pdf
多項分布とディリクレ分布の関係
p θ | x
n( )
( )=
1
Z2
⋅θ1
n1
!θ1
nm
多項分布の事後分布
θ1
α1−1
!θ1
αm−1
d
Dm
∫ θ =
Γ α1( )!Γ αm( )
Γ α1,!,αm( )
なので、αk = nk+1とすると
p θ | x
n( )
( )=
Γ n + m( )
Γ n1 +1( )!Γ nm +1( )
⋅θ1
n1
!θ1
nm
ak = n + m
k=1
m
∑
ディリクレ分布
事前分布を⼀一様分布とした場合、多項分布の事後分布は、αk = nk+1の
ディリクレ分布であることが分かる
⇒  多項分布とディリクレ分布は共役
証明はこちらを参考にどうぞ
http://www.cis.nagasaki-u.ac.jp/~masada/DirDistNorm.pdf
Dir α1,!,αm( )=
Γ α( )
Γ α1( )!Γ αm( )
⋅θ1
α1−1
!θ1
αm−1
多項分布とディリクレ分布の関係
p θ | x
n( )
( )=
1
Z2
⋅θ1
n1
!θ1
nm
多項分布の事後分布
θ1
α1−1
!θ1
αm−1
d
Dm
∫ θ =
Γ α1( )!Γ αm( )
Γ α1,!,αm( )
なので、αk = nk+1とすると
p θ | x
n( )
( )=
Γ n + m( )
Γ n1 +1( )!Γ nm +1( )
⋅θ1
n1
!θ1
nm
ak = n + m
k=1
m
∑
ディリクレ分布 Dir α1,!,αm( )=
Γ α( )
Γ α1( )!Γ αm( )
⋅θ1
α1−1
!θ1
αm−1
事前分布を⼀一様分布とした場合、多項分布の事後分布は、αk = nk+1の
ディリクレ分布であることが分かる
⇒  多項分布とディリクレ分布は共役
証明はこちらを参考にどうぞ
http://www.cis.nagasaki-u.ac.jp/~masada/DirDistNorm.pdf
ちなみにm=2だったら
ベータ分布になる
多項分布のパラメータをベイズ推定する時、事後分布とし
て使える(さっきの導出から当たり前だけど)
ディリクレ分布はどう使える?
3種の⽬目がでるサイコロを考えるサイコロの
それぞれの⽬目の出易易さを考える。
サイコロの⽬目をv1, v2, v3とする。
以下の状況を仮定する
  事前分布:⼀一様分布
  尤度度:多項分布
⇒事後分布:ディリクレ分布
サイコロの裏裏⾯面も
1,4,5だったら
3種しか出ない?
Dir α1,!,αm( )=
Γ α( )
Γ α1( )!Γ αm( )
⋅θ1
α1−1
!θ1
αm−1 αk = nk+1とする。
nkはvkの⽬目が出た回数
観測回数9回
n1=1, n2=3, n3=7の時
観測回数9回
n1=7, n2=1, n3=1の時
ディリクレ分布はどう使える?
図は続・わかりやすいパターン認識識より抜粋
観測回数0回の時 観測回数9回
n1=3, n2=3, n3=3の時
x(n)を複数回観測するとこんな感じになる
l 多項分布に対して事前分布が⼀一様分布だと事後分布は
ディリクレ分布
l 同様に、事前分布がディリクレ分布の場合も事後分布は
ディリクレ分布になる
事前共役分布
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )
ディリクレ分布多項分布
ディリクレ分布になる
導出
事前共役分布
p θ | x
n( )
( )=
P x
n( )
|θ( )
P x
n( )
( )
⋅ p θ( )
=
θ1
n1
!θ1
nm
P x
n( )
( )
⋅
Γ α( )
Γ α1( )!Γ αm( )
⋅θ1
α1−1
!θ1
αm−1
=
1
P x
n( )
( )
⋅
Γ α( )
Γ α1( )!Γ αm( )
⋅θ1
α1+n1−1
!θ1
αm+nm−1
=
1
Z3
⋅θ1
α1+n1−1
!θ1
αm+nm−1
= Dir α1 + n1,!,αm + nm( )
事後分布はディリクレ分布になっている!
定数で置き直す
正規化項だと思えば良良い
尤度度=多項分布、事前分布=ディリクレ分布の時、
事後分布と事前分布が同じ分布になる
⇒事前共役分布という
他にも⾊色々あるけど聞いたことあるよね?
事前共役分布
事前分布 データの分布 事後分布
ディリクレ分布 多項分布 ディリクレ分布
ベータ分布 ⼆二項分布 ベータ分布
ガンマ分布 指数分布 ガンマ分布
ガンマ分布 ポアソン分布 ガンマ分布
事前共役分布がある場合は、その分布を使うと
事後分布が簡単に求められるので便便利利
l ディリクレ分布の期待値、分散、モードは以下の通り
期待値、分散、モード
E θ[ ]=
α1
α
,!,
αk
α
,!,
αm
α
!
"
#
$
%
&
V θ[ ]=
α1 α −α1( )
α2
α +1( )
,!,
αk α −αk( )
α2
α +1( )
,!,
αm α −αm( )
α2
α +1( )
!
"
##
$
%
&&
M θ[ ]=
α1 −1
α − m
,!,
αk −1
α − m
,!,
αm −1
α − m
!
"
#
$
%
&
期待値
分散
モード
導出は断念念しました。すみません。
あらびきさんのブログに期待値と分散は導出が有りました。
http://d.hatena.ne.jp/a_bicky/20100402/1270139105
おわり

Contenu connexe

Tendances

PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability DistributionsDeep Learning JP
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析Kunihiro Hisatsune
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
 
Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定Nagi Teramo
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 

Tendances (20)

PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 

En vedette

Repeat buyer prediction for e commerce, KDD2016
Repeat buyer prediction for e commerce, KDD2016Repeat buyer prediction for e commerce, KDD2016
Repeat buyer prediction for e commerce, KDD2016Motoya Wakiyama
 
データ解析のための統計モデリング入門9章後半
データ解析のための統計モデリング入門9章後半データ解析のための統計モデリング入門9章後半
データ解析のための統計モデリング入門9章後半Motoya Wakiyama
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンMotoya Wakiyama
 
[Rec sys2013勉強会]orthogonal query recommendation
[Rec sys2013勉強会]orthogonal query recommendation[Rec sys2013勉強会]orthogonal query recommendation
[Rec sys2013勉強会]orthogonal query recommendationMotoya Wakiyama
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習Motoya Wakiyama
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)Motoya Wakiyama
 

En vedette (6)

Repeat buyer prediction for e commerce, KDD2016
Repeat buyer prediction for e commerce, KDD2016Repeat buyer prediction for e commerce, KDD2016
Repeat buyer prediction for e commerce, KDD2016
 
データ解析のための統計モデリング入門9章後半
データ解析のための統計モデリング入門9章後半データ解析のための統計モデリング入門9章後半
データ解析のための統計モデリング入門9章後半
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
 
[Rec sys2013勉強会]orthogonal query recommendation
[Rec sys2013勉強会]orthogonal query recommendation[Rec sys2013勉強会]orthogonal query recommendation
[Rec sys2013勉強会]orthogonal query recommendation
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
 

Similaire à 続分かりやすいパターン認識 4章後半(4.7以降)

wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会Zansa
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
Distributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMCDistributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMCKaede Hayashi
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率Masaki Asano
 
異常検知と変化検知の1~3章をまとめてみた
異常検知と変化検知の1~3章をまとめてみた異常検知と変化検知の1~3章をまとめてみた
異常検知と変化検知の1~3章をまとめてみたTakahiro Yoshizawa
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...Deep Learning JP
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 

Similaire à 続分かりやすいパターン認識 4章後半(4.7以降) (20)

wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
積分と漸化式
積分と漸化式積分と漸化式
積分と漸化式
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
Distributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMCDistributed Stochastic Gradient MCMC
Distributed Stochastic Gradient MCMC
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率
 
異常検知と変化検知の1~3章をまとめてみた
異常検知と変化検知の1~3章をまとめてみた異常検知と変化検知の1~3章をまとめてみた
異常検知と変化検知の1~3章をまとめてみた
 
Chainerで流体計算
Chainerで流体計算Chainerで流体計算
Chainerで流体計算
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
001 z test
001 z test001 z test
001 z test
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 

続分かりやすいパターン認識 4章後半(4.7以降)