SlideShare une entreprise Scribd logo
1  sur  29
Télécharger pour lire hors ligne
5. Kernel methods for vector data (II)


         Akisato Kimura (Twitter ID: @_akisato)
初めての方もいらっしゃるので。。。
       Social mediaでの自己紹介




       これまでに関わった研究業界を国内研究会名で書くと
           本業的: IEICE-PRMU, IEICE-IT, SITA, IEICE-IBISML
           副業的: IEICE-DE, ASJ, VSJ, IPSJ-SIGMUS
           これから?: NLP, IPSJ-SIGDIAL

    2                              CV勉強会 2011.2.19
Contents
1.       Kernel PCA
         多くのページがここに割かれています
2.       FDA / CCA / Subspace methods
3.       Manifold learning
         ここまで手が回らなかったので、勘弁して下さい。


【注意】
教科書と全然違うストーリーで説明しています。
記号は合わせてありますが、ご注意下さい。

                             Cf. 赤穂 “カーネル多変量解析”、岩波書店
 3                             CV勉強会 2011.2.19
5.1 Kernel PCA
PCAって何?
       多次元ベクトルとして表現される多数のサンプルから、
        それらの分散が大きくなる正規直交軸を見つける手法。




           サンプルが多次元ガウス分布に従うときは非常に有効
           そうでないときも、サンプル表現に寄与しない成分を捨てる
            目的で使用されることが多い。

    5                    CV勉強会 2011.2.19
Kernel PCA って何?
       主成分分析 (PCA) にカーネルトリックを利用することで、
        非線形次元削減を実現する方法。




         Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf
    6                                          CV勉強会 2011.2.19
PCAの定式化 1
       多次元ベクトルのサンプルが与えられているとする。
           簡単のため、以降はサンプル平均=0であることを仮定します。
                            要注意 (教科書に合わせています)


       射影後のサンプルの分散が最大になる基底                を求める




    7                    CV勉強会 2011.2.19
PCAの定式化 2
       各基底が単位ベクトルとなるように正規化


       Lagrange 未定定数法を用いて、問題を書き直す。


       基底での微分=0 とすると、




           共分散行列の固有値問題を解けば良い!

    8                    CV勉強会 2011.2.19
PCAにおける基底の選択
       PCAの目的関数に固有値問題の解を導入すると


           固有値=射影後のサンプルの分散
            → 固有値が大きい順に対応する固有ベクトルを基底とする

       寄与率・累積寄与率
           寄与率: 所定の基底が表現できるサンプルの分散
                        (第    i       番目の基底の寄与率)




                         (第       i   番目までの基底の累積寄与率)

    9                    CV勉強会 2011.2.19
PCAによる次元削減
    新しいサンプル    を、選択された基底群で決まる
     部分空間に(直交)射影する。
        要するに、サンプルと各基底との内積を取れば良い。




        寄与率を考慮した射影を考える場合もある。




    10                CV勉強会 2011.2.19
PCA to Kernel PCA
    見かけ上は、非常に簡単に移行できます。
     1.   グラム行列を構成し、その固有値問題を解く。




     2.   新しいサンプルと得られた固有ベクトルとの
          (カーネルで規定される空間上で)内積を取る。




    …ですが、何でそうなるのか?
         ということについて、これから説明します。

    11                  CV勉強会 2011.2.19
Kernel PCAの定式化 1
    まず、サンプルを非線形変換する
        言うまでもないですが、実際には計算できない変換です。
        ここでも同様に、(変換後)サンプル平均=0を仮定します。



    射影後のサンプルの分散が最大になる基底                 を求める




    12                 CV勉強会 2011.2.19
Kernel PCAの定式化 2
    各基底が単位ベクトルとなるように正規化


    Lagrange 未定定数法を用いて、問題を書き直す。


    基底での微分を取ると


                       共分散行列を計算できない!
        共分散行列の固有値問題を…というわけにはいかない。


    13                CV勉強会 2011.2.19
Kernel PCAの定式化 3
    もう少し詳しく見てみよう




    ゆえに、新しいサンプルの部分空間への射影は



                       グラム行列で計算できる!


    14              CV勉強会 2011.2.19
Kernel PCAの定式化 4
    あとは係数 v をどう求めるか? が課題。
        もう一度、射影後のサンプルの分散を計算してみる。




    15                CV勉強会 2011.2.19
Kernel PCAの定式化 5
    各基底が単位ベクトルとなるように正規化


    Lagrange 未定定数法を用いて、問題を書き直す。


    基底での微分を取ると、



        (グラム行列が正則であれば)
         グラム行列の固有値問題を解けば、基底が求まる!

    16               CV勉強会 2011.2.19
Kernel PCAを行った例 1
    多項式カーネル(次数=3)を用いた場合




    17            CV勉強会 2011.2.19
Kernel PCAを行った例 2
    ガウスカーネル(σ=40)を用いた場合




    18             CV勉強会 2011.2.19
Kernel PCAを行った例 3




     Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf
19                                         CV勉強会 2011.2.19
Kernel PCAの問題点
    結果はカーネルの選び方に大きく依存する。
        どんな種類のカーネルを使うか?パラメータは?

    しかし、カーネルの選び方に確固たる方法論はない。
        どのような目的・応用に用いられるか? で異なる。
        つまりは、その目的・応用で良い結果が得られるかどうか?
         が、カーネルを選択するための現時点で最良の方法




    20                CV勉強会 2011.2.19
5.2 FDA / CCA / Subspace methods
多変量解析の全体像

多次元変量を       正準相関分析                       多次元変量の
 2組に拡張                                     制約を排除



     主成分分析                         判別分析



              目的変量yを
             多次元変量に拡張
              重回帰分析




22               CV勉強会 2011.2.19
正準相関分析 (CCA)
    2組の多次元ベクトル群が与えられているとする。

                                        ※ 簡単のため平均0を仮定します。

    このベクトル群を個別に射影するための基底を求めたい。
        基準: 射影後のサンプル群の正規化相関が最大になる基底




             Cf. @_akisato “正準相関分析” http://www.slideshare.net/akisatokimura/090608-cca
    23                                  CV勉強会 2011.2.19
CCAの定式化 1
   各変換を以下のようにして正規化

       正規化の意味: 変換先の変量を標準正規化する


   Lagrange未定定数法を用いて、問題を書き直す。




   各変換で微分すると・・・



                        Page 24   Topic Lecture 2009.6.8
CCAの定式化 2
   共分散行列が正則であるとすると、
    下記の一般化固有値問題に変形可能


                                     4

   共分散行列のCholesky分解を用いることで、
    通常の固有値問題に変形可能
                                               2

                                               1

                                               3

                      Page 25   Topic Lecture 2009.6.8
CCA まとめ
    ということで、PCAとほぼ同様の手順を踏めばOKです。
    これを特殊化することで、以下のような問題も解けます。
        Fisher 線形判別分析
        線形回帰分析 (重回帰分析)




    26                CV勉強会 2011.2.19
Kernel CCA
    Kernel CCAの導出も、PCAとほぼ同様にでき…たはず。
        結果的に、共分散行列をグラム行列で置換すればOK。




    ただし、正則化が事実上必須。
        グラム行列が非正則になりやすいため




               Cf. Max Welling “Kernel canonical correlation analysis”, http://ow.ly/3ZtZ3

    27                                CV勉強会 2011.2.19
5.3 Manifold learning

(ごめんなさい、今回パスさせて下さい。。。)
おしまい




29     CV勉強会 2011.2.19

Contenu connexe

Tendances

データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用Hirotaka Hachiya
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半Akifumi Eguchi
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析logics-of-blue
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定Katsuya Ito
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう Junpei Tsuji
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Yohei Sato
 

Tendances (20)

データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
 

En vedette

AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出Kai Sasaki
 
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data SetsMethods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data SetsRyan B Harvey, CSDP, CSM
 
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...wl820609
 
Manifold learning with application to object recognition
Manifold learning with application to object recognitionManifold learning with application to object recognition
Manifold learning with application to object recognitionzukun
 
The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)James McMurray
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...Shuyo Nakatani
 
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender SystemsWSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender SystemsKotaro Tanahashi
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNETomoki Hayashi
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較YumaMatsuoka
 
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2ndMika Yoshimura
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算sleepy_yoshi
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先Taketo Sano
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺についてKeisuke Hosaka
 

En vedette (17)

AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
 
LDA入門
LDA入門LDA入門
LDA入門
 
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data SetsMethods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
 
Topic Models
Topic ModelsTopic Models
Topic Models
 
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
 
Manifold learning with application to object recognition
Manifold learning with application to object recognitionManifold learning with application to object recognition
Manifold learning with application to object recognition
 
The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)
 
Self-organizing map
Self-organizing mapSelf-organizing map
Self-organizing map
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
 
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender SystemsWSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較
 
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 

Similaire à 関東CV勉強会 Kernel PCA (2011.2.19)

関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCAAkisato Kimura
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Yusuke Uchida
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
A closer look at few shot classification
A closer look at few shot classificationA closer look at few shot classification
A closer look at few shot classificationKazuki Fujikawa
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classificationDeep Learning JP
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析Akisato Kimura
 
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーPFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーMatlantis
 
MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアルShunsuke Ono
 
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Shuntaro Ohno
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知hagino 3000
 

Similaire à 関東CV勉強会 Kernel PCA (2011.2.19) (20)

関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
A closer look at few shot classification
A closer look at few shot classificationA closer look at few shot classification
A closer look at few shot classification
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
Rokko チュートリアル
Rokko チュートリアルRokko チュートリアル
Rokko チュートリアル
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
 
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーPFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
 
MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアル
 
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
 
MIRU2018 tutorial
MIRU2018 tutorialMIRU2018 tutorial
MIRU2018 tutorial
 

Plus de Akisato Kimura

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化Akisato Kimura
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてAkisato Kimura
 
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationNIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationAkisato Kimura
 
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"Akisato Kimura
 
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)Akisato Kimura
 
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesComputational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesAkisato Kimura
 
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeNIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeAkisato Kimura
 
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...Akisato Kimura
 
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationAkisato Kimura
 
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...Akisato Kimura
 
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsIJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsAkisato Kimura
 
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28Akisato Kimura
 
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29Akisato Kimura
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)Akisato Kimura
 
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14Akisato Kimura
 
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -Akisato Kimura
 
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明Akisato Kimura
 

Plus de Akisato Kimura (20)

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
 
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationNIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
 
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
 
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
 
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesComputational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
 
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeNIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
 
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
 
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
 
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
 
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsIJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
 
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
 
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
 
ICWSM12 Brief Review
ICWSM12 Brief ReviewICWSM12 Brief Review
ICWSM12 Brief Review
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
 
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
 
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
 
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
 

関東CV勉強会 Kernel PCA (2011.2.19)

  • 1. 5. Kernel methods for vector data (II) Akisato Kimura (Twitter ID: @_akisato)
  • 2. 初めての方もいらっしゃるので。。。  Social mediaでの自己紹介  これまでに関わった研究業界を国内研究会名で書くと  本業的: IEICE-PRMU, IEICE-IT, SITA, IEICE-IBISML  副業的: IEICE-DE, ASJ, VSJ, IPSJ-SIGMUS  これから?: NLP, IPSJ-SIGDIAL 2 CV勉強会 2011.2.19
  • 3. Contents 1. Kernel PCA  多くのページがここに割かれています 2. FDA / CCA / Subspace methods 3. Manifold learning  ここまで手が回らなかったので、勘弁して下さい。 【注意】 教科書と全然違うストーリーで説明しています。 記号は合わせてありますが、ご注意下さい。 Cf. 赤穂 “カーネル多変量解析”、岩波書店 3 CV勉強会 2011.2.19
  • 5. PCAって何?  多次元ベクトルとして表現される多数のサンプルから、 それらの分散が大きくなる正規直交軸を見つける手法。  サンプルが多次元ガウス分布に従うときは非常に有効  そうでないときも、サンプル表現に寄与しない成分を捨てる 目的で使用されることが多い。 5 CV勉強会 2011.2.19
  • 6. Kernel PCA って何?  主成分分析 (PCA) にカーネルトリックを利用することで、 非線形次元削減を実現する方法。 Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf 6 CV勉強会 2011.2.19
  • 7. PCAの定式化 1  多次元ベクトルのサンプルが与えられているとする。  簡単のため、以降はサンプル平均=0であることを仮定します。 要注意 (教科書に合わせています)  射影後のサンプルの分散が最大になる基底 を求める 7 CV勉強会 2011.2.19
  • 8. PCAの定式化 2  各基底が単位ベクトルとなるように正規化  Lagrange 未定定数法を用いて、問題を書き直す。  基底での微分=0 とすると、  共分散行列の固有値問題を解けば良い! 8 CV勉強会 2011.2.19
  • 9. PCAにおける基底の選択  PCAの目的関数に固有値問題の解を導入すると  固有値=射影後のサンプルの分散 → 固有値が大きい順に対応する固有ベクトルを基底とする  寄与率・累積寄与率  寄与率: 所定の基底が表現できるサンプルの分散 (第 i 番目の基底の寄与率) (第 i 番目までの基底の累積寄与率) 9 CV勉強会 2011.2.19
  • 10. PCAによる次元削減  新しいサンプル を、選択された基底群で決まる 部分空間に(直交)射影する。  要するに、サンプルと各基底との内積を取れば良い。  寄与率を考慮した射影を考える場合もある。 10 CV勉強会 2011.2.19
  • 11. PCA to Kernel PCA  見かけ上は、非常に簡単に移行できます。 1. グラム行列を構成し、その固有値問題を解く。 2. 新しいサンプルと得られた固有ベクトルとの (カーネルで規定される空間上で)内積を取る。  …ですが、何でそうなるのか?  ということについて、これから説明します。 11 CV勉強会 2011.2.19
  • 12. Kernel PCAの定式化 1  まず、サンプルを非線形変換する  言うまでもないですが、実際には計算できない変換です。  ここでも同様に、(変換後)サンプル平均=0を仮定します。  射影後のサンプルの分散が最大になる基底 を求める 12 CV勉強会 2011.2.19
  • 13. Kernel PCAの定式化 2  各基底が単位ベクトルとなるように正規化  Lagrange 未定定数法を用いて、問題を書き直す。  基底での微分を取ると 共分散行列を計算できない!  共分散行列の固有値問題を…というわけにはいかない。 13 CV勉強会 2011.2.19
  • 14. Kernel PCAの定式化 3  もう少し詳しく見てみよう  ゆえに、新しいサンプルの部分空間への射影は グラム行列で計算できる! 14 CV勉強会 2011.2.19
  • 15. Kernel PCAの定式化 4  あとは係数 v をどう求めるか? が課題。  もう一度、射影後のサンプルの分散を計算してみる。 15 CV勉強会 2011.2.19
  • 16. Kernel PCAの定式化 5  各基底が単位ベクトルとなるように正規化  Lagrange 未定定数法を用いて、問題を書き直す。  基底での微分を取ると、  (グラム行列が正則であれば) グラム行列の固有値問題を解けば、基底が求まる! 16 CV勉強会 2011.2.19
  • 17. Kernel PCAを行った例 1  多項式カーネル(次数=3)を用いた場合 17 CV勉強会 2011.2.19
  • 18. Kernel PCAを行った例 2  ガウスカーネル(σ=40)を用いた場合 18 CV勉強会 2011.2.19
  • 19. Kernel PCAを行った例 3 Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf 19 CV勉強会 2011.2.19
  • 20. Kernel PCAの問題点  結果はカーネルの選び方に大きく依存する。  どんな種類のカーネルを使うか?パラメータは?  しかし、カーネルの選び方に確固たる方法論はない。  どのような目的・応用に用いられるか? で異なる。  つまりは、その目的・応用で良い結果が得られるかどうか? が、カーネルを選択するための現時点で最良の方法 20 CV勉強会 2011.2.19
  • 21. 5.2 FDA / CCA / Subspace methods
  • 22. 多変量解析の全体像 多次元変量を 正準相関分析 多次元変量の 2組に拡張 制約を排除 主成分分析 判別分析 目的変量yを 多次元変量に拡張 重回帰分析 22 CV勉強会 2011.2.19
  • 23. 正準相関分析 (CCA)  2組の多次元ベクトル群が与えられているとする。 ※ 簡単のため平均0を仮定します。  このベクトル群を個別に射影するための基底を求めたい。  基準: 射影後のサンプル群の正規化相関が最大になる基底 Cf. @_akisato “正準相関分析” http://www.slideshare.net/akisatokimura/090608-cca 23 CV勉強会 2011.2.19
  • 24. CCAの定式化 1  各変換を以下のようにして正規化  正規化の意味: 変換先の変量を標準正規化する  Lagrange未定定数法を用いて、問題を書き直す。  各変換で微分すると・・・ Page 24 Topic Lecture 2009.6.8
  • 25. CCAの定式化 2  共分散行列が正則であるとすると、 下記の一般化固有値問題に変形可能 4  共分散行列のCholesky分解を用いることで、 通常の固有値問題に変形可能 2 1 3 Page 25 Topic Lecture 2009.6.8
  • 26. CCA まとめ  ということで、PCAとほぼ同様の手順を踏めばOKです。  これを特殊化することで、以下のような問題も解けます。  Fisher 線形判別分析  線形回帰分析 (重回帰分析) 26 CV勉強会 2011.2.19
  • 27. Kernel CCA  Kernel CCAの導出も、PCAとほぼ同様にでき…たはず。  結果的に、共分散行列をグラム行列で置換すればOK。  ただし、正則化が事実上必須。  グラム行列が非正則になりやすいため Cf. Max Welling “Kernel canonical correlation analysis”, http://ow.ly/3ZtZ3 27 CV勉強会 2011.2.19
  • 29. おしまい 29 CV勉強会 2011.2.19