SlideShare une entreprise Scribd logo
1  sur  27
Télécharger pour lire hors ligne
NIPS2011読み会発表資料
Why The Brain Separates Face Recognition
                From Object Recognition

                         Takuya Minagawa
概要
   “Why The Brain Separates Face Recognition From
    Object Recognition”
       J.Z.Leibo, J.Mutch and T.Poggio (@MIT)
   「なぜ、脳は顔認識と物体認識の回路を分けたの
    か?」
       脳には顔に対して選択的に反応する領域がある。それは
        なぜか。
       解剖学的な観点ではなく、計算モデルの観点から、説明を
        試みる
    結論:
    視点の変化や照明の変化にロバストな認識を行うために、回
    路を分ける必要があった。
概要
   脳の視覚皮質の画像処理プロセス
   顔に選択的に反応する領域
   視覚皮質の計算モデル(HMAXモデル)
   視点/照明変化のためのHMAXモデルの拡張
   拡張HMAXモデルによる顔/物体認識実験
   結論:なぜ顔認識を分けたのか?
視覚皮質の画像処理プロセス

           背側経路(dorsal stream)
           腕を伸ばして何かを掴むな
           どの際に利用される、行動
           に関わる経路。”Where”経
           路


           腹側経路(ventral stream)
           それが犬か、猫か、などを
           認識する、知覚に関わる経
           路。”What”経路
“瞬間的な認識”の画像処理モデル
   霊長類は、目や注意の動きが起こらない程度の短い
    時間(100msec)画像を見せただけで、認識すること
    ができる。
   瞬間的な認識(Rapid Categorization)では腹側経路の
    フィードフォワードパスのみ使用される
       画像が十分な時間提示された場合、「注意」が働きフィー
        ドバックパスが活性化される。
   色情報は瞬間的な認識においては重要ではない。
腹側経路のフィードフォワードパス
腹側経路の階層構造
腹側経路の階層構造
   階層が上位に位置するほど、複雑な刺激に対して選択
    性を持つようになる。
   階層が上位になるほど、位置、サイズなどに対する普遍
    性が上がる。
       カバーする受容野の大きさも同時に広くなる。
   上位の階層ほど可塑性が高い。
       学習に対して早く柔軟に対応する。
顔に選択的に反応する脳の領域
  マカクザルの脳




個人の顔に選択的に反応   顔の向きに選択的に反応
向きの違いには反応せず
視覚皮質の計算モデル
Hubel & Wieselの階層モデル:
   単純型細胞(Simple Cell)
       ある形状に対して選択的に反応


   複雑型細胞(Complex Cell)
       単純細胞からの出力を受け取る。
       位置とスケールの選択性を除去する。


   単純型細胞と複雑型細胞で交互に処理される。
単純型細胞

   ある特定の信号(位置、大きさ、
    形状)に対して最も強く反応する。
       テンプレートマッチング
   信号の形が変わると、それに
    伴って反応も減っていく。
       ガウス関数で近似。


V1において反応する形状の例
複雑型細胞
   ある領域内、あるスケール範囲内にある、同一の形状に
    対する選択性を持つ単純型細胞からの信号受け取る。
       そのうち最大の入力を選択する




              位置とサイズに対する普遍性実現の例
視覚皮質の計算モデル(HMAXモデル)
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning


                           C2
                                   S1, S2: 単純型細胞
                 Max               C1,C2: 複雑型細胞
                           S2      S1 & C1≒ V1 & V2
               Tuning
                                   S2 ≒ PIT
                           C1      C2 ≒ PIT & AIT
                     Max
                                   Machine Learning ≒ AIT
                           S1
                                    & PFC

              Tuning
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                S1:
                           C2   入力画像に対し、様々な方向/スケールの
                 Max
                                ガボールフィルタをかける

                           S2


               Tuning

                           C1

                     Max


                           S1


              Tuning
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                C1:
                           C2   近傍位置/スケールのS1から入力を受け取
                 Max
                                り、最大値を出力

                           S2


               Tuning
                                                C1
                           C1

                     Max
                                      Max
                           S1                   S1


              Tuning
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                S2:
                           C2   C1からの入力と、事前に取得したN個の形
                 Max
                                状パッチとの類似度を出力する。

                                                                    Shape patch
                           S2
                                                                        Pi



                                                               
               Tuning

                                       r  exp   X  Pi
                                                            2
                           C1

                     Max
                                C1 Output
                                   X
                           S1


              Tuning
                                形状パッチは事前に学習画像からランダムに
                                取得しておく。
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                C2:
                           C2   S2から入力を受け取り、各形状毎に全ての
                 Max
                                位置/スケールで最大の信号を出力する

                           S2
                                                 C2

                                  Max   Max
               Tuning

                           C1
                                                 S2
                     Max


                           S1
                                Machine Learning:
                                C2の出力ベクトル(各形状の最大類似度)
              Tuning            から機械学習を用いてカテゴリを学習。
物体の変形への耐性
   以下の変形は、どの物体のカテゴリにも共通




     位置の変化     スケールの変化    回転(画像平面上)

   以下の変形は、物体のカテゴリ毎に見えが違う




       向きの変化             照明の変化
HMAXモデルの拡張
             視点に変化に頑健なHMAXモデル
             • S3/C3層を追加
             • S3層は様々な顔の向きのテンプレー
               トを持つ
             • C3層では、すべての顔の向きを統合


              S/Cユニットの出力モデル

                                                              
                                          w           xj 
                                         n
             rw ( x)  max  exp   1                      2
                                                                
                        t        2           t, j            
                                       j 1                   

             応答          テンプレート                 Sユニットへの
                         (位置t)                  入力
実験
        視点変化および照明変化につい
         て実験
        視点変化:
            S2パッチx2000
            S3パッチx10人x71視点
            C3ユニットx10
        照明変化:
            S2パッチx80
            S3パッチx80人x15照明
            C3ユニットx80
        パッチ作成に使用した画像と学
         習/試験画像は別
        学習画像数:1枚
            (1-shot learning)
        試験画像を入力し、学習画像と
         の類似度を算出
視点変化に対する実験(試験/学習画像例)
視点変化に対する実験結果
照明変化に対する実験(試験/学習画像例)




   木     金属     ガラス
照明変化に対する実験
結論
   視覚皮質の腹側経路における生理学の知見に基づいた
    モデルを用いて、視点や照明に頑健な認識を行うために
    は、そのカテゴリ専用のモジュール(回路)を構築してや
    る必要がある。
   マカクザルのML/MF、およびAM領域は拡張HMAXモデ
    ルのC2, S3, C3ユニットに対応する。
   顔のような3次元的構造を持つものは、視点の変化に
    よって見え方が大きく変わるため、独自のモジュールを
    持つ必要がある。
       顔認識は、専用のリソースを与える必要があるほど重要
       人体認識のモジュールも見つかっているが、同様の理由と推
        察できる。
Any Questions?

Contenu connexe

Tendances

Tendances (20)

【DL輪読会】Segment Anything
【DL輪読会】Segment Anything【DL輪読会】Segment Anything
【DL輪読会】Segment Anything
 
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
 [DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima... [DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
 
[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
[DL輪読会]Pyramid Stereo Matching Network
[DL輪読会]Pyramid Stereo Matching Network[DL輪読会]Pyramid Stereo Matching Network
[DL輪読会]Pyramid Stereo Matching Network
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17
 
Teslaにおけるコンピュータビジョン技術の調査
Teslaにおけるコンピュータビジョン技術の調査Teslaにおけるコンピュータビジョン技術の調査
Teslaにおけるコンピュータビジョン技術の調査
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
Point net
Point netPoint net
Point net
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition
 
MLflowで学ぶMLOpsことはじめ
MLflowで学ぶMLOpsことはじめMLflowで学ぶMLOpsことはじめ
MLflowで学ぶMLOpsことはじめ
 

En vedette

全脳関西編(松尾)
全脳関西編(松尾)全脳関西編(松尾)
全脳関西編(松尾)
Yutaka Matsuo
 

En vedette (8)

自然な知覚を支える脳情報表現の定量理解
自然な知覚を支える脳情報表現の定量理解自然な知覚を支える脳情報表現の定量理解
自然な知覚を支える脳情報表現の定量理解
 
ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
 
全脳関西編(松尾)
全脳関西編(松尾)全脳関西編(松尾)
全脳関西編(松尾)
 
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
 
201205016 deformablemodelfitting
201205016 deformablemodelfitting201205016 deformablemodelfitting
201205016 deformablemodelfitting
 
スパースモデリング入門
スパースモデリング入門スパースモデリング入門
スパースモデリング入門
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーDeep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
 

Plus de Takuya Minagawa

Plus de Takuya Minagawa (20)

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
 
20190825 vins mono
20190825 vins mono20190825 vins mono
20190825 vins mono
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
 
Visual slam
Visual slamVisual slam
Visual slam
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
 
object detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: surveyobject detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: survey
 

20120408発表資料

  • 1. NIPS2011読み会発表資料 Why The Brain Separates Face Recognition From Object Recognition Takuya Minagawa
  • 2. 概要  “Why The Brain Separates Face Recognition From Object Recognition”  J.Z.Leibo, J.Mutch and T.Poggio (@MIT)  「なぜ、脳は顔認識と物体認識の回路を分けたの か?」  脳には顔に対して選択的に反応する領域がある。それは なぜか。  解剖学的な観点ではなく、計算モデルの観点から、説明を 試みる 結論: 視点の変化や照明の変化にロバストな認識を行うために、回 路を分ける必要があった。
  • 3. 概要  脳の視覚皮質の画像処理プロセス  顔に選択的に反応する領域  視覚皮質の計算モデル(HMAXモデル)  視点/照明変化のためのHMAXモデルの拡張  拡張HMAXモデルによる顔/物体認識実験  結論:なぜ顔認識を分けたのか?
  • 4. 視覚皮質の画像処理プロセス 背側経路(dorsal stream) 腕を伸ばして何かを掴むな どの際に利用される、行動 に関わる経路。”Where”経 路 腹側経路(ventral stream) それが犬か、猫か、などを 認識する、知覚に関わる経 路。”What”経路
  • 5. “瞬間的な認識”の画像処理モデル  霊長類は、目や注意の動きが起こらない程度の短い 時間(100msec)画像を見せただけで、認識すること ができる。  瞬間的な認識(Rapid Categorization)では腹側経路の フィードフォワードパスのみ使用される  画像が十分な時間提示された場合、「注意」が働きフィー ドバックパスが活性化される。  色情報は瞬間的な認識においては重要ではない。
  • 8. 腹側経路の階層構造  階層が上位に位置するほど、複雑な刺激に対して選択 性を持つようになる。  階層が上位になるほど、位置、サイズなどに対する普遍 性が上がる。  カバーする受容野の大きさも同時に広くなる。  上位の階層ほど可塑性が高い。  学習に対して早く柔軟に対応する。
  • 9. 顔に選択的に反応する脳の領域 マカクザルの脳 個人の顔に選択的に反応 顔の向きに選択的に反応 向きの違いには反応せず
  • 10. 視覚皮質の計算モデル Hubel & Wieselの階層モデル:  単純型細胞(Simple Cell)  ある形状に対して選択的に反応  複雑型細胞(Complex Cell)  単純細胞からの出力を受け取る。  位置とスケールの選択性を除去する。  単純型細胞と複雑型細胞で交互に処理される。
  • 11. 単純型細胞  ある特定の信号(位置、大きさ、 形状)に対して最も強く反応する。  テンプレートマッチング  信号の形が変わると、それに 伴って反応も減っていく。  ガウス関数で近似。 V1において反応する形状の例
  • 12. 複雑型細胞  ある領域内、あるスケール範囲内にある、同一の形状に 対する選択性を持つ単純型細胞からの信号受け取る。  そのうち最大の入力を選択する 位置とサイズに対する普遍性実現の例
  • 14. 視覚皮質の計算モデル(HMAXモデル) Machine Learning C2  S1, S2: 単純型細胞 Max  C1,C2: 複雑型細胞 S2  S1 & C1≒ V1 & V2 Tuning  S2 ≒ PIT C1  C2 ≒ PIT & AIT Max  Machine Learning ≒ AIT S1 & PFC Tuning
  • 15. 視覚皮質の計算モデル(HMAXモデル) Machine Learning S1: C2 入力画像に対し、様々な方向/スケールの Max ガボールフィルタをかける S2 Tuning C1 Max S1 Tuning
  • 16. 視覚皮質の計算モデル(HMAXモデル) Machine Learning C1: C2 近傍位置/スケールのS1から入力を受け取 Max り、最大値を出力 S2 Tuning C1 C1 Max Max S1 S1 Tuning
  • 17. 視覚皮質の計算モデル(HMAXモデル) Machine Learning S2: C2 C1からの入力と、事前に取得したN個の形 Max 状パッチとの類似度を出力する。 Shape patch S2 Pi   Tuning r  exp   X  Pi 2 C1 Max C1 Output X S1 Tuning 形状パッチは事前に学習画像からランダムに 取得しておく。
  • 18. 視覚皮質の計算モデル(HMAXモデル) Machine Learning C2: C2 S2から入力を受け取り、各形状毎に全ての Max 位置/スケールで最大の信号を出力する S2 C2 Max Max Tuning C1 S2 Max S1 Machine Learning: C2の出力ベクトル(各形状の最大類似度) Tuning から機械学習を用いてカテゴリを学習。
  • 19. 物体の変形への耐性  以下の変形は、どの物体のカテゴリにも共通 位置の変化 スケールの変化 回転(画像平面上)  以下の変形は、物体のカテゴリ毎に見えが違う 向きの変化 照明の変化
  • 20. HMAXモデルの拡張 視点に変化に頑健なHMAXモデル • S3/C3層を追加 • S3層は様々な顔の向きのテンプレー トを持つ • C3層では、すべての顔の向きを統合 S/Cユニットの出力モデル     w  xj  n rw ( x)  max  exp   1 2  t   2 t, j    j 1  応答 テンプレート Sユニットへの (位置t) 入力
  • 21. 実験  視点変化および照明変化につい て実験  視点変化:  S2パッチx2000  S3パッチx10人x71視点  C3ユニットx10  照明変化:  S2パッチx80  S3パッチx80人x15照明  C3ユニットx80  パッチ作成に使用した画像と学 習/試験画像は別  学習画像数:1枚  (1-shot learning)  試験画像を入力し、学習画像と の類似度を算出
  • 26. 結論  視覚皮質の腹側経路における生理学の知見に基づいた モデルを用いて、視点や照明に頑健な認識を行うために は、そのカテゴリ専用のモジュール(回路)を構築してや る必要がある。  マカクザルのML/MF、およびAM領域は拡張HMAXモデ ルのC2, S3, C3ユニットに対応する。  顔のような3次元的構造を持つものは、視点の変化に よって見え方が大きく変わるため、独自のモジュールを 持つ必要がある。  顔認識は、専用のリソースを与える必要があるほど重要  人体認識のモジュールも見つかっているが、同様の理由と推 察できる。