SlideShare une entreprise Scribd logo
1  sur  85
Télécharger pour lire hors ligne
第17回CV勉強会@関東 発表資料
 大規模確率場と確率的画像処理
        3,4節
        2011/11/06
    Presented by takmin
おさらい
• 加法定理と乗法定理
   加法定理
     p( X )   p( X , Y )
               Y
   乗法定理
     p( X , Y )  p(Y | X ) p( X )
おさらい
• 加法定理と乗法定理
おさらい
• 最尤推定
             N
  p(x | θ)   p( xn | θ)
  尤度        n 1
                 観測データ   パラメータ
                 サンプル

データが観測されたとき,そのデータが発生する確
率(尤度)を最大化するパラメータを求めること
おさらい
• ベイズ推論
            p(x | θ) p(θ)
 p(θ | x) 
               p ( x)
 事後分布
                                N
          p(x | θ) p(θ)  p(θ) p( xn | θ)
                               n 1
              尤度    事前分布

データが観測されたとき,パラメータがとる確率分布
を求める
ノイズ生成モデル
• 観測された画像yは元々の画像xに加法的白
  色ガウスノイズnが加わったものとみなす。

    Y  Xn               (27)
   観測画像   元画像   ノイズ
   X                  Y



           n
ノイズ生成モデル
• 観測された画像yは元々の画像xに加法的白
  色ガウスノイズnが加わったものとみなす。

                観測画像 Y


                     ノイズ


                 元画像 X
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。
                     Q 1
       E ( X i | Y)   xi Pr( X i  xi | Y)
                     xi 0
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。
 – 各画素iの周辺分布 Pr( X i | Y) を求める。
       Pr( X i | Y)   Pr(X | Y)
                 X1   X i1 X i1   X | |
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。
 – 各画素iの周辺分布 Pr( X i | Y) を求める。
 – Yが与えられた時のXの事後分布 Pr(X | Y) を求め
   る。
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。
 – 各画素iの周辺分布 Pr( X i | Y) を求める。
 – Yが与えられた時のXの事後分布 Pr(X | Y) を求め
   る。
元画像Xの事後分布
• 観測画像Yが与えられた時の元画像Xの事
  後分布 Pr(X | Y) を推定したい。
 ベイズの公式:
                Pr(Y | X)Pr(X)
    Pr(X | Y) 
                    Pr(Y)

 Pr(Y)は定数なので、 Pr(Y | X)と Pr(X) を求める
ノイズ生成モデル
• 観測された画像yは元々の画像xに加法的白
  色ガウスノイズnが加わったものとみなす。

                観測画像 Y


                     ノイズ


                 元画像 X
元画像Xの事前分布
• 元画像Xは、隣り合う画素同士の影響を受け
  る。
                                 1           2
 Pr(X)  Pr(X |  )   exp    ( xi  x j )  (1)
                     {i , j }  2            
 i        j




                                        元画像 X
元画像Xの尤度
• 観測された画像Yの各画素は元々の画像X
  の対応する画素にのみ影響を受ける。
                                   1              2
Pr(Y | X)  Pr(Y | X,  )   exp   2 ( yi  xi )  (28)
                            i    2              
                                           観測画像 Y
                 i


                                            元画像 X
                 i
元画像Xの事後分布
 • 観測画像Yが与えられた時の元画像Xの事
   後分布 Pr(X | Y) を推定したい。
    ベイズの公式:
                        Pr(Y | X)Pr(X)
            Pr(X | Y) 
                            Pr(Y) 定数

                   1                                             1                  
Pr(Y | X)   exp   2 ( yi  xi ) 2    Pr(X)       2   exp    ( xi  x j ) 2 
            i    2                             {i , j }                          
                                  (28)                                             (1)
元画像Xの事後分布
 • 観測画像Yが与えられた時の元画像Xの事
   後分布 Pr(X | Y) を推定したい。
    ベイズの公式:

Pr(X | Y)  Pr(X | Y,  ,  )
            1              2           1            2
     exp   2 ( yi  xi )   exp    ( xi  x j ) 
     i    2              {i , j}  2             
                                                  (29)
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。
 – 各画素iの周辺分布 Pr( X i | Y) を求める。
 – Yが与えられた時のXの事後分布 Pr(X | Y) を求め
   る。
各画素の周辺分布の計算
• 確率伝搬法を用いる。
 – 木構造のグラフに対する確率伝搬法(4.1節)
 – 閉路を含むグラフに対する確率伝搬法(4.2節)
• ハイパーパラメータを推定する(4.3節)
木構造のグラフに対する確率伝搬法
木構造のグラフの例

            3   6


     4      1   2   7


            5   8
木構造のグラフに対する確率伝搬法
木構造グラフの各ノードの同時分布を以下で表す。

                           f
                         {i , j }
                                     {i , j }   ( xi , x j )
  Pr(X  x)    Q 1         Q 1                                           (42)
                   f
                x1  0     x| |  0{i , j }
                                                  {i , j }   ( xi , x j )
木構造のグラフに対する確率伝搬法
木構造グラフの各ノードの同時分布を以下で表す。

                                f
                              {i , j }
                                          {i , j }   ( xi , x j )
     Pr(X  x)      Q 1         Q 1                                           (42)
                        f
                     x1  0     x| |  0{i , j }
                                                       {i , j }   ( xi , x j )

例:
                                               1                  
     Pr(X)  Pr(X |  )           2
                                {i , j }
                                          exp    ( xi  x j ) 2 
                                                                   
                                                                                        (1)

      の時、
                                        1                  
           f{i , j} ( xi , x j )  exp    ( xi  x j ) 2 
                                        2                  
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                                  3              6


                    4             1              2            7


                                  5              8

Pr( X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 , X 8 )
  f{1, 2} ( x1 , x2 )  f{1,3} ( x1 , x3 )  f{1, 4} ( x1 , x4 )  f{1,5} ( x1 , x5 ) 
     f{2,6} ( x2 , x6 )  f{2,7} ( x2 , x7 )  f{2,8} ( x2 , x8 )
木構造のグラフに対する確率伝搬法
                            3            6
Pr( X 4 ) を求めたい。


               4            1            2           7


                            5            8

       Pr(X)  f{1, 2} f{1,3} f{1, 4} f{1,5} f{2,6} f{2,7} f{2,8}
木構造のグラフに対する確率伝搬法
                            3      6
Pr( X 4 ) を求めたい。


                4           1      2       7


                            5      8

Pr( X 4 )
    f{1, 2} f{1,3} f{1, 4} f{1,5} f{2,6} f{2,7} f{2,8}
      X1 X 2 X 3 X 5 X 6 X 7 X 8
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
                              3           6
   Pr( X 4 ) を求めたい。


                  4           1           2         7


                              5           8
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
木構造のグラフに対する確率伝搬法
    “メッセージ” を以下のように定義
                              Q 1
            Μ i  j ( x j )   f{i , j} ( xi , x j )     M           k i   ( xi )
                              xi 0                     k i { j }


                                               Μ 14


                                                                        Μ 21
Pr( X 4 )
                                                                        
     f{1, 4}  f{1,3}  f{1,5}   f{1, 2}  f{2, 6}  f{2,7}  f{2,8}  
                                                                         
                                 X2 
    X1         X3       X5                   X6        X7       X8       
                      Μ 31      Μ 51                         Μ 62           Μ 72   Μ 82
木構造のグラフに対する確率伝搬法
“メッセージ” を以下のように定義
                    Q 1
  Μ i  j ( x j )   f{i , j} ( xi , x j )     M           k i   ( xi )
                    xi 0                     k i { j }




                     i                          j
木構造のグラフに対する確率伝搬法
“メッセージ” を以下のように定義
                    Q 1
  Μ i  j ( x j )   f{i , j} ( xi , x j )     M           k i   ( xi )
                    xi 0                     k i { j }




                     i                          j
   Μ k i



            ノードiに入ってきたメッセージの積を取る
木構造のグラフに対する確率伝搬法
“メッセージ” を以下のように定義
                    Q 1
  Μ i  j ( x j )   f{i , j} ( xi , x j )           M           k i   ( xi )
                    xi 0                           k i { j }


                            f{i , j} ( xi , x j )
                     i                                j
   Μ k i



                 2変数関数 f{i , j}をかける
木構造のグラフに対する確率伝搬法
“メッセージ” を以下のように定義
                    Q 1
  Μ i  j ( x j )   f{i , j} ( xi , x j )           M           k i   ( xi )
                    xi 0                           k i { j }


                            f{i , j} ( xi , x j )
                     i                                j
   Μ k i                        Μ i j



                 X i を積分してメッセージを算出
木構造のグラフに対する確率伝搬法
 メッセージ:
                       Q 1
 Μ i  j ( x j )   f{i , j} ( xi , x j )     M           k i   ( xi )
                       xi 0                 k i { j }


 周辺分布:
                  1
 Pr( X i  xi ) 
                  Zi
                                M ji ( xi )
                               j i
                                                                            M j i


        Q 1
                                                                       i
 Z i   M j i ( xi )
        xi  0 j i
確率伝搬法アルゴリズムまとめ
1. 端点から、メッセージを伝搬

                   f{i , j} ( xi , x j )
             i                             j
                        Μ i j


                        Q 1
     Μ i  j ( x j )   f{i , j} ( xi , x j )
                        xi  0


      2変数関数 f{i , j} を xi で積分
確率伝搬法アルゴリズムまとめ
2.端点以外の各ノードでメッセージを伝搬

                           f{i , j} ( xi , x j )
                     i                                j
   Μ k i                       Μ i j



                   Q 1
 Μ i  j ( x j )   f{i , j} ( xi , x j )           M           k i   ( xi )   (45)
                   xi 0                           k i { j }
確率伝搬法アルゴリズムまとめ
3. 根ノードから葉ノードへメッセージを伝搬
確率伝搬法アルゴリズムまとめ
4. 葉ノードへ達したら、根ノードへメッセージを
  逆伝搬
確率伝搬法アルゴリズムまとめ
5. 各ノードの周辺分布を以下の式から計算

                                        M j i

                          i


                     1
    Pr( X i  xi ) 
                     Zi
                              Mj i
                                           j i   ( xi )   (46)


                 Q 1
           Z i   M j i ( xi )                          (48)
                 xi  0 j i
確率伝搬法アルゴリズムまとめ
    6. 各リンクに接続された2変数の同時分布を以
      下の式から計算

                                                  f{i , j}
                                            i                j


                                 1                                                               
Pr( X i  xi , X j  x j )               f{i , j} ( xi , x j )  M k i ( xi ) 
                                                                k { j}
                                                                                    M l j (x j ) 
                                                                                  l {i}
                                                                                                        (47)
                               Z{i , j}                                                             
                                                                i                j               
                   Q 1 Q 1                                                     
         Z{i , j}    f{i , j} ( xi , x j )  M k i ( xi )   M l  j ( x j ) 
                                              k { j}        l {i}                             (49)
                    xi 0 x j 0              i                j                 
閉路を含むグラフ
閉路を含むグラフの例
  画像がこのパターン




確率伝搬法のメッセージがループしてしまう。
閉路を含むグラフ
   各ノードの同時分布
                                        f
                                      {i , j }
                                                  {i , j }   ( xi , x j )
  Pr(X  x | Y  y )        Q 1         Q 1                                           (51)
                                f
                             x1  0     x| |  0{i , j }
                                                               {i , j }   ( xi , x j )          i   j

観測画像がYの時の元画像Xの事後分布:
                           1              2           1            2
Pr(X | Y,  ,  )   exp   2 ( yi  xi )   exp    ( xi  x j )  (29)
                    i    2              {i , j}  2 (1)         


                             1               2      1              2      1                   
f{i , j} ( xi , x j )  exp    ( xi  x j )  exp   2 ( yi  xi )  exp   2 ( y j  x j ) 2 
                             2                  8                    8                      
                                                                                                        (52)
閉路を含むグラフに対する
          確率伝搬法
• 木構造グラフでは、以下の式が成り立つ
 – 木構造グラフにおける周辺確率と同時確率の関
   係

Pr(X  x)
                                 Pr( X i  xi , X j  x j ) 
    Pr( X i  xi )  
                     
                                                                     (50)
    i               {i , j} Pr( X i  xi ) Pr( X j  x j ) 
                                                                  
閉路を含むグラフに対する
           確率伝搬法
• 閉路においても同様の関係が近似的に成り
  立つとする


 P ( X  x)
                                  P i , j} ( X i  xi , X j  x j ) 
     Pi ( X i  xi )                                             
                                       {
                                                                        (70)
     i                {i , j} Pi ( X i  xi ) Pj ( X j  x j ) 

この P(X) と Pr(X | Y)ができるだけ近い分布を取るようにしたい。
閉路を含むグラフに対する
                        確率伝搬法
• P(X)とPr(X|Y)のカルバック・ライブラー情報
  量ができるだけ小さくなるようにしたい。
                                      P( X) 
 K Pr(X | Y) || P( X)   P( X) ln 
                                      Pr(X | Y) 
                                                                                                         (71)
                          X                     


 以下の拘束条件の元、ラグランジュ未定乗数法で解く
 Q 1

  P(X
 xi 0
         i       i    xi )  1               (i  )                        (67)

 Q 1 Q 1

  P
 xi 0 x j 0
                {i , j }   ( X i  xi , X j  x j )  1              ({i, j}   )        (68)
                              Q 1
 Pi ( X i  xi )             P
                              x j 0
                                       {i , j }   ( X i  xi , X j  x j )   (i  ,{i, j}   )   (69)
閉路を含むグラフに対する
                  確率伝搬法
以下が導ける(証明略)
メッセージ                     Q 1

                          f
                         xi  0
                                    {i , j }   ( xi , x j )     M
                                                              k i { j }
                                                                              k i   ( xi )
Μ i j ( x j )        Q 1 Q 1                                                                 (60)
                        f
                       xi  0 x j  0
                                        {i , j }   ( xi , x j )     M
                                                                  k i { j }
                                                                                 k i   ( xi )


                         1
Pr( X i  xi | Y  y ) 
                         Zi
                                                        M
                                                        j i
                                                                       j i   ( xi )             (55)
        Q 1
 Z i   M j i ( xi )                                                                          (57)
        xi  0 j i
閉路を含むグラフに対する
                     確率伝搬法
以下が導ける(証明略)
メッセージ                  Q 1

                       f
                      xi  0
                                 {i , j }   ( xi , x j )     M
                                                           k i { j }
                                                                          k i   ( xi )
Μ i j ( x j )     Q 1 Q 1                                                                 (60)
                     f
                    xi  0 x j  0
                                     {i , j }   ( xi , x j )     M
                                                               k i { j }
                                                                              k i   ( xi )

Pr( X i  xi , X j  x j | Y  y )

         1                                                                 
                 f{i , j} ( xi , x j )  M k i ( xi )   M l  j ( x j ) 
                                        k { j}        l {i}
                                                                                                     (56)
       Z{i , j}                                                               
                                        i                j                 
           Q 1 Q 1                                                    
Z{i , j}    f{i , j} ( xi , x j )  M k i ( xi )   M l  j ( x j ) 
                                     k { j}        l {i}                                    (58)
                                                                           
           xi 0 x j 0              i                j                 
LBPアルゴリズムまとめ
1. 全てのメッセージの初期値を1にする

               Μ 1
LBPアルゴリズムまとめ
2. 以下の式に従いメッセージを更新する




                        Q 1

                        f
                       xi  0
                                  {i , j }   ( xi , x j )     M
                                                            k i { j }
                                                                           k i   ( xi )
  Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                      f
                     xi  0 x j  0
                                      {i , j }   ( xi , x j )     M
                                                                k i { j }
                                                                               k i   ( xi )
LBPアルゴリズムまとめ
2. 以下の式に従いメッセージを更新する




                        Q 1

                        f
                       xi  0
                                  {i , j }   ( xi , x j )     M
                                                            k i { j }
                                                                           k i   ( xi )
  Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                      f
                     xi  0 x j  0
                                      {i , j }   ( xi , x j )     M
                                                                k i { j }
                                                                               k i   ( xi )
LBPアルゴリズムまとめ
2. 以下の式に従いメッセージを更新する




                        Q 1

                        f
                       xi  0
                                  {i , j }   ( xi , x j )     M
                                                            k i { j }
                                                                           k i   ( xi )
  Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                      f
                     xi  0 x j  0
                                      {i , j }   ( xi , x j )     M
                                                                k i { j }
                                                                               k i   ( xi )
LBPアルゴリズムまとめ
2. 以下の式に従いメッセージを更新する




                        Q 1

                        f
                       xi  0
                                  {i , j }   ( xi , x j )     M
                                                            k i { j }
                                                                           k i   ( xi )
  Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                      f
                     xi  0 x j  0
                                      {i , j }   ( xi , x j )     M
                                                                k i { j }
                                                                               k i   ( xi )
LBPアルゴリズムまとめ
2. 以下の式に従いメッセージを更新する




                        Q 1

                        f
                       xi  0
                                  {i , j }   ( xi , x j )     M
                                                            k i { j }
                                                                           k i   ( xi )
  Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                      f
                     xi  0 x j  0
                                      {i , j }   ( xi , x j )     M
                                                                k i { j }
                                                                               k i   ( xi )
LBPアルゴリズムまとめ
3. 収束するまでメッセージの更新を繰り返す




                        Q 1

                        f
                       xi  0
                                  {i , j }   ( xi , x j )     M
                                                            k i { j }
                                                                           k i   ( xi )
  Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                      f
                     xi  0 x j  0
                                      {i , j }   ( xi , x j )     M
                                                                k i { j }
                                                                               k i   ( xi )
LBPアルゴリズムまとめ
4. 以下の式に従い周辺確率を計算する
                          1
 Pr( X i  xi | Y  y ) 
                          Zi
                                      M
                                      j i
                                               j i   ( xi )                (55)
        Q 1
 Z i   M j i ( xi )                                                     (57)
        xi  0 j i


 Pr( X i  xi , X j  x j | Y  y )

          1                                                                 
                  f{i , j} ( xi , x j )  M k i ( xi )   M l  j ( x j ) 
                                         k { j}        l {i}
                                                                                   (56)
        Z{i , j}                                                               
                                         i                j                 
            Q 1 Q 1                                                   
 Z{i , j}    f{i , j} ( xi , x j )  M k i ( xi ) 
                                      k { j}
                                                          M l j ( x j ) 
                                                        l {i}
                                                                                   (58)
                                                                           
            xi 0 x j 0              i                j                
LBPアルゴリズムまとめ
4. 以下の式に従い周辺確率を計算する
                          1
 Pr( X i  xi | Y  y ) 
                          Zi
                                      M
                                      j i
                                               j i   ( xi )                (55)
        Q 1
 Z i   M j i ( xi )                                                     (57)
        xi  0 j i


 Pr( X i  xi , X j  x j | Y  y )

          1                                                                 
                  f{i , j} ( xi , x j )  M k i ( xi )   M l  j ( x j ) 
                                         k { j}        l {i}
                                                                                   (56)
        Z{i , j}                                                               
                                         i                j                 
            Q 1 Q 1                                                   
 Z{i , j}    f{i , j} ( xi , x j )  M k i ( xi ) 
                                      k { j}
                                                          M l j ( x j ) 
                                                        l {i}
                                                                                   (58)
                                                                           
            xi 0 x j 0              i                j                
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。                         求まった?
 – 各画素iの周辺分布 Pr( X i | Y) を求める。
 – Yが与えられた時のXの事後分布 Pr(X | Y) を求め
   る。
元画像Xの推定
                         1
Pr( X i  xi | Y  y ) 
                         Zi
                              M
                              j i
                                      j i   ( xi )   (55)



観測画像Yが与えられた時の、元画像Xの各画
素iにおける周辺確率が求まった!

以下の式で各画素の期待値を計算
                         Q 1
          E ( X i | Y)   xi Pr( X i  xi | Y)
                         xi 0



             まだできない
ハイパーパラメータの推定
                         1
Pr( X i  xi | Y  y ) 
                         Zi
                                                        Mj i
                                                                         j i   ( xi )                  (55)




                                 Q 1

                                 f
                                xi  0
                                           {i , j }   ( xi , x j )     M
                                                                     k i { j }
                                                                                    k i   ( xi )
           Μ i j ( x j )    Q 1 Q 1                                                                 (60)
                               f
                              xi  0 x j  0
                                               {i , j }   ( xi , x j )     M
                                                                         k i { j }
                                                                                        k i   ( xi )

                                                                  こいつらがまだ不明なまま
f{i , j} ( xi , x j )                                              (ハイパーパラメータ)

          1               2      1              2      1                   
    exp    ( xi  x j )  exp   2 ( yi  xi )  exp   2 ( y j  x j ) 2  (52)
          2                      8                    8                  
ハイパーパラメータの推定
  ハイパーパラメータα、σを求めたい。

観測している画像Yが出現する確率が最大になるよう
にパラメータの値を決定する。


最尤推定

  ( ,  )  arg max Pr(Y  y |  ,  )
    ˆ ˆ                                   (73)
              ( , )
ハイパーパラメータの推定
最尤推定を解く

     ( ,  )  arg max Pr(Y  y |  ,  )
       ˆ ˆ                                            (73)
                    ( , )
通常は、
            
              Pr(Y  y |  ,  )  0   (   ,  )
           
または、
       
           ln Pr(Y  y |  ,  )  0 (   ,  )
      
となる、 ( ,  ) を求めるが、、、
ハイパーパラメータの推定
  最尤推定を解く

         ( ,  )  arg max Pr(Y  y |  ,  )
           ˆ ˆ                                                  (73)
                        ( , )



Pr(Y |  ,  )   Pr(X, Y |  ,  )   Pr(Y | X,  ) Pr(X |  )   (72)
                X                     X

                                          (28)式              (1)式

                  1              2           1            2
                                                                 
        exp       ( yi  xi )   exp    ( xi  x j ) 
                 2                {i , j}  2             
                      2
       X  i


                式が複雑で、簡単に極大値を計算できない。
ハイパーパラメータの推定
最尤推定を解く

  ( ,  )  arg max Pr(Y  y |  ,  )
    ˆ ˆ                                   (73)
              ( , )




            EMアルゴリズム
EMアルゴリズム
1. 関数Qを定義
                       定数
Q( ,  |  (t ),  (t ), y )
        Pr(X | Y  y,  (t ),  (t )) ln Pr(X, Y  y |  ,  ) 
          X                                                      (74)
EMアルゴリズム
1. 関数Qを定義
Q( ,  |  (t ),  (t ), y )
        Pr(X | Y  y,  (t ),  (t )) ln Pr(X, Y  y |  ,  ) 
          X                                                      (74)


2. 以下を満たすσ、αを求める
    ( ,  )  arg max Q( ,  |  (t ),  (t ), y )
      ˆ ˆ
                     ( , )


         
           Q( ,  | Y  y,  ,  )  0 (   ,  )
        
                                                       を解く
EMアルゴリズム
1. 関数Qを定義
Q( ,  |  (t ),  (t ), y )
        Pr(X | Y  y,  (t ),  (t )) ln Pr(X, Y  y |  ,  ) 
          X                                                      (74)


2. 以下を満たすσ、αを求める
    ( ,  )  arg max Q( ,  |  (t ),  (t ), y )
      ˆ ˆ
                     ( , )

3. σ(t)、α(t)を更新
               (t  1), (t  1)  ( , )
                                        ˆ ˆ
EMアルゴリズム
1. 関数Qを定義
Q( ,  |  (t ),  (t ), y )
        Pr(X | Y  y,  (t ),  (t )) ln Pr(X, Y  y |  ,  ) 
          X                                                      (74)


2. 以下を満たすσ、αを求める
    ( ,  )  arg max Q( ,  |  (t ),  (t ), y )
      ˆ ˆ
                     ( , )

3. σ(t)、α(t)を更新
               (t  1), (t  1)  ( , ) 収束するまで繰り返す
                                        ˆ ˆ
目的
• 観測画像Yから元画像Xを推定したい。

• 方法
 – Yが与えられた時の各画素iの期待値 E ( X i | Y) を
   求める。
 – 各画素iの周辺分布 Pr( X i | Y) を求める。
 – Yが与えられた時のXの事後分布 Pr(X | Y) を求め
   る。
元画像Xの推定
                         1
Pr( X i  xi | Y  y ) 
                         Zi
                              M
                              j i
                                      j i   ( xi )   (55)



観測画像Yが与えられた時の、元画像Xの各画
素iにおける周辺確率が求まった!

ハイパーパラメータα、σも求まった!

以下の式で各画素の期待値を計算
                         Q 1
          E ( X i | Y)   xi Pr( X i  xi | Y)
                         xi 0
以上!
まとめ
ノイズの乗った観測画像Yから元画像Xを推定した

1. ベイズの公式を使って、観測画像Yと元画像X
   の関係をモデル化
2. 閉路での確率伝搬法(LBP)を用いて、元画像
   の各画素における周辺分布を計算
3. EMアルゴリズムを用いてハイパーパラメータを
   推定
4. 周辺分布を使用して、元画像Xの各画素の期
   待値を計算
ありがとうございました。

Contenu connexe

Tendances

クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 
コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)Masaya Kaneko
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)Shin Asakawa
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料Ken'ichi Matsui
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算sleepy_yoshi
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
サポートベクトルマシン入門
サポートベクトルマシン入門サポートベクトルマシン入門
サポートベクトルマシン入門Wakamatz
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1hirokazutanaka
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 

Tendances (20)

クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 
コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)
 
Prml sec6
Prml sec6Prml sec6
Prml sec6
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
サポートベクトルマシン入門
サポートベクトルマシン入門サポートベクトルマシン入門
サポートベクトルマシン入門
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
Cv 14th
Cv 14thCv 14th
Cv 14th
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 

Similaire à 17th cvsaisentan takmin

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
経験過程
経験過程経験過程
経験過程hoxo_m
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率Masaki Asano
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタToshihisa Tanaka
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングMaruyama Tetsutaro
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Joe Suzuki
 
相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定Joe Suzuki
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計t2tarumi
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)Yoshitake Misaki
 

Similaire à 17th cvsaisentan takmin (20)

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
経験過程
経験過程経験過程
経験過程
 
Chapter9 2
Chapter9 2Chapter9 2
Chapter9 2
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 

Plus de Takuya Minagawa

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureTakuya Minagawa
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイTakuya Minagawa
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsTakuya Minagawa
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfTakuya Minagawa
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事Takuya Minagawa
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)Takuya Minagawa
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)Takuya Minagawa
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representationTakuya Minagawa
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summaryTakuya Minagawa
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation surveyTakuya Minagawa
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentationTakuya Minagawa
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencvTakuya Minagawa
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection surveyTakuya Minagawa
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)Takuya Minagawa
 

Plus de Takuya Minagawa (20)

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
 
20190825 vins mono
20190825 vins mono20190825 vins mono
20190825 vins mono
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
 
Visual slam
Visual slamVisual slam
Visual slam
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
 

Dernier

クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 

Dernier (8)

クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 

17th cvsaisentan takmin