SlideShare une entreprise Scribd logo
1  sur  35
5. ライトフィールドの特性と解析
5.1 エピポーラ画像(EPI)
5.2 ライトフィールドのフーリエ変換
5.3 空間周波数領域におけるレンズのぼけ
2016/06/12
@sumisumith
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
自己紹介
Page 1
これ↓を作った人です(ニコニコ技術部で、最高3位)
動画リンク:http://www.nicovideo.jp/watch/sm23048131
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
目次
 出落ちの自己紹介
 導入
 5. ライトフィールドの特性と解析
 5.1 エピポーラ画像(EPI)
 5.2 ライトフィールドのフーリエ変換
 5.3 空間周波数領域におけるレンズのぼけ
Page 2
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
Computational Photograpy
“Computational photography extends digital photography by providing
the capability to record much more information and by offering the
possibility of processing this information afterward.”
--Oliver Bimber--
- 従来のデジタル写真技術の限界をコンピュータ処理により
補間・拡張する技術分野
- 出力結果は通常の写真、但し従来技術では得られなかったもの
- CG, CV, 応用光学など様々な分野と関連
- 新しい研究分野のため、正確で完全な定義や分類はない
Page 3
参照:IEEE Computer, Vol.39, Issue 8 (2006)
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
Computational Photography とは?
Page 4
 Sheer K. Nayar (Columbia Univ.)による定義
参照:http://www1.cs.columbia.edu/CAVE/projects/what_is/
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
Computational Camera とは?
Page 5
 Sheer K. Nayar (Columbia Univ.)による定義
参照:http://www1.cs.columbia.edu/CAVE/projects/what_is/
CV4本の2章で
語られているのは
ここ
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
目次
 出落ちの自己紹介
 導入
 5. ライトフィールドの特性と解析
 5.1 エピポーラ画像(EPI)
 5.2 ライトフィールドのフーリエ変換
 5.3 空間周波数領域におけるレンズのぼけ
Page 6
ひと言でいうと、、、
エピポーラ情報はやっぱり使える
フーリエ変換はやっぱり使える
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
ライトフィールドの特性と解析
 4節まで、で、ライトフィールドの取り込み方と、
その表現法について紹介
→4D の表現を変えて、
2D として、ライトフィールドを表現できる
Page 7
4D的な表現 2D的表現
u
x
1
2
3
4
5
),,,( yx
),( ux
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
ライトフィールドの特性と解析
 5節では、ライトフィールドの特性と解析を紹介
 全てのライトフィールド情報が必要か?
→否、冗長
 ライトフィールドカメラの幾何特徴を良く内包している
エピポーラ画像(EPI)
を用いることで、冗長性を減らせる
Page 8
EPIのイメージ
平行
移動
参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions
in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
エピポーラ画像(EPI)のイメージ
Page 9
参照論文:Epipolar-Plane Image Analysis An Approach to Determining Structure from Motion, R.C.Bollesら,1987
写真を用いた
分かりやすい
イメージ図
ちょっとずつ
ずれている→
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
エピポーラ画像(EPI) [っぽいLumigraph] のイメージ
Page 10
参照論文:The Lumigraph, S. J. Gortlerら, 1996
写真を用いた
分かりやすい
イメージ図
ちょっと
ずれている→
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
エピポーラ幾何のおさらい
 2つのカメラで同一の物体を撮像したとき、
カメラAの投影中心から物体のある特徴点への光線は、
カメラBでは、直線=エピポーラ線として得られる
Page 11
Camera BCamera A
OA
エピポーラ線
参照:http://www.slideshare.net/sumisumith/20150328-cv-sumisumithv13-46524314
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
エピポーラ画像(EPI)
 サイコロの「1の目」を特徴点として、
エピポーラ線が、水平に全視点でつながっているとする
 ステレオカメラのイメージに近い(平行等位)
Page 12
水平移動する場合のステレオ
ライトフィールドカメラのうち、
一組のステレオカメラセットの
模式図のイメージ
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
 エピポーラ画像は、画像間の対応点を、引き伸ばしたよう
な画像になる
エピポーラ画像(EPI)
Page 13
ステレオ配置の場合の、EPIの考え方
角度変化
位置変化
ステレオカメラが
大量に並んでいると
思えば、理解しやすいかも
※ y は変わらない状況
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
 座標系で表現すると、エピポーラ線が乗った
2次元平面上で直線として表現できる
エピポーラ画像(EPI)
Page 14
ライトフィールドカメラから作られるEPI
ステレオカメラのように、
エピポーラ線がすべて平行であれば
平行線の縞模様状になる
ステレオカメラが
大量に並んでいると
思えば、理解しやすいかも
u
x
ux 
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
エピポーラ画像(EPI)
 平面全体に(エピポーラ)直線の束があるだけ
→周波数成分に変換すれば、表現の簡単化(圧縮)が可能
Page 15
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
ライトフィールドのフーリエ変換
 エピポーラ線の集合として、EPI画像は得られるので、
2次元FFTをかけると、直交方向にスペクトルとして得られる
Page 16
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
ライトフィールドのフーリエ変換
 EPIに、ぼけフィルタをかけて、FFTすると、高周波成分が消される
→ノイズ成分が減る
Page 17
ぼけフィルタ
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
空間周波数領域におけるレンズのぼけ
 EPIにぼけフィルタをかけることは、
フーリエ変換された画像に対しての、ローパスフィルタ効果がある
 窓的にフィルタをかけることで、ノイズ状の高周波成分が消えて、
主要なエピポーラ方向の推定ができる
- 主なエピポーラ方向が決定され、第2位のエピポーラ方向検出もすることで、
オクルージョン部
側面部
などを発見できる
Page 18
② Efficient Fourier-Based Approach for Detecting Orientations and
Occlusions in Epipolar Plane Images for 3D Scene Modeling
① CV4本で紹介されている話
参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions
in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
空間周波数領域におけるレンズのぼけ①
 空間周波数領域では、どのように「ぼけ」が観察されるか?
Page 19
• ピントが合っている場合
• ライトフィールドの空間周波数のうち、 上のみを取り込み
• ピントが合っているので、高周波成分(細かい模様)まで取り込める
x~
注目プレーン
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
 空間周波数領域では、どのように「ぼけ」が観察されるか?
空間周波数領域におけるレンズのぼけ①
Page 20
• ピントがはずれている場合
• 空間周波数成分は、斜め線方向に伸びた分布となる
• 低周波は取れるが、高周波成分が取り込めない
→ローパスフィルタ
注目プレーン
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
空間周波数領域におけるレンズのぼけ②
 車にカメラを付けて移動(たくさんカメラを並べるのと、ほぼ等価)の
状況で撮影されたライトフィールド画像を想定
Page 21
参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions
in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
空間周波数領域におけるレンズのぼけ②
Page 22
EPIが生成される様子
オクルージョン部や側面部で、EPI上で変化が起きる
参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions
in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
空間周波数領域におけるレンズのぼけ②
Page 23
ベタが1番、
破線が2番、
に強い方向成分
参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions
in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
結果が異なるポイント
 ガウシアン(ぼけ)フィルタ後のEPIを、フーリエ変換すると、主方向が取れる例
時間
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
あとは
Page 24
残りの重要な部分は、綺麗に、
@tomoaki_teshima さん
が、まとめてくれます (^ω^)
おまけ
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)商業利用:最近のLytro
 Lytro Cinemaを用いた、映画 Life 2016/04 公開!
(米のみと思われる)
Page 25
参照:http://japanese.engadget.com/2016/04/12/7-40k-lytro-cinema-3d/
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)商業利用?:Raskerらの研究開発
 ハンディに簡単に扱える医療用3Dデバイスの応用
Page 26
参照:http://cameraculture.media.mit.edu/handheld-3d-imager-to-visualize-features-in-the-throat-like-tonsils/
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)今の先端研究:有名な方々
 Sheer K. Nayar
- Columbia Univ., Computer Science Dept.
- Computer Vision Laboratory (CAVE) の偉い人
- Research Interests
- 賢いビジョンセンサ
- 物理ベースのモデルデザイン
- シーン補間アルゴリズム開発
 Ramesh Raskar
- MIT, Media Lab
- 元MERL (Mitsubishi Electric Research Laboratories)
- Research Interests
- Computational Light Transport
- コンピューテショナルフォトグラフィ
- HCIにおける逆問題
Page 27
参照:http://www.cs.columbia.edu/~nayar/
参照: http://web.media.mit.edu/~raskar/
http://cameraculture.media.mit.edu/
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)最新の動向(Nayer)
 Nayerさんの論文
Towards Flexible Sheet Cameras : Deformable Lens Arrays with
Intrinsic Optical Adaptation
Page 28
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)最新の動向(Nayer)
 フレキシブルなマイクロレンズアレイシートを開発
回折限界を超えた画像撮影が可能に
Page 29
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)最新の動向(Rasker)
 検眼、個人の目の特性にあわせたディスプレイのフォーカス位置調整
Page 30
参照:https://www.cgarts.or.jp/report/rep_kr/rep0413-3.html
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)最新の動向(日浦ら)
 Active oneshot scan for wide depth range
using a light-field projector
based on coded aperture, ICCV2015
川崎、日浦ら
 ライトフィールド技術をプロジェクタに応用
アパーチャコードの考えで被写界深度の限界を超えて、パターン符号化を行う
符号化情報をベースに3D計測を試みている
Page 31
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
(おまけ)最新の動向(日浦ら)
 Active oneshot scan for wide depth range
using a light-field projector
based on coded aperture, ICCV2015
川崎、日浦ら
 ライトフィールド技術をプロジェクタに応用
アパーチャコードの考えで被写界深度の限界を超えて、パターン符号化を行う
符号化情報をベースに3D計測を試みている
Page 32
Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2
まとめ
 5. ライトフィールドの特性と解析
 5.1 エピポーラ画像(EPI)
- 画像のステレオ特徴をよく現しているエピポーラ特性を
利用したEPIを利用するのが効率よい
 5.2 ライトフィールドのフーリエ変換
- ライトフィールド画像を、効率よく表現するために、
フーリエ変換が有効
 5.3 空間周波数領域におけるレンズのぼけ
- EPIのぼけは、遮蔽やシーン情報の解析等に役立つキーポイント
 おまけ
- 商業利用も出てきた
- CPの応用技術もよく研究されており、まだまだ発展中
Page 33
Computer Vision and Image Media 5 – Section 2 Page 34
ありがとうございました (^ω^)
@sumisumith

Contenu connexe

Tendances

Cvim saisentan-5-2-tomoaki
Cvim saisentan-5-2-tomoakiCvim saisentan-5-2-tomoaki
Cvim saisentan-5-2-tomoakitomoaki0705
 
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII
 
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)Masaya Kaneko
 
20180929 sfm learner&vid2_depth_print
20180929 sfm learner&vid2_depth_print20180929 sfm learner&vid2_depth_print
20180929 sfm learner&vid2_depth_printKUMIKO Suzuki
 
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAMSLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAMIwami Kazuya
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)kanejaki
 
CNN-SLAMざっくり
CNN-SLAMざっくりCNN-SLAMざっくり
CNN-SLAMざっくりEndoYuuki
 
LSD-SLAM:Large Scale Direct Monocular SLAM
LSD-SLAM:Large Scale Direct Monocular SLAMLSD-SLAM:Large Scale Direct Monocular SLAM
LSD-SLAM:Large Scale Direct Monocular SLAMEndoYuuki
 
静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料keima_12
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)Yusuke Uchida
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Masaya Kaneko
 
論文読み会(DeMoN;CVPR2017)
論文読み会(DeMoN;CVPR2017)論文読み会(DeMoN;CVPR2017)
論文読み会(DeMoN;CVPR2017)Masaya Kaneko
 
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)SSII
 
SSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...Kento Doi
 

Tendances (20)

Cvim saisentan-5-2-tomoaki
Cvim saisentan-5-2-tomoakiCvim saisentan-5-2-tomoaki
Cvim saisentan-5-2-tomoaki
 
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
 
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
 
20180929 sfm learner&vid2_depth_print
20180929 sfm learner&vid2_depth_print20180929 sfm learner&vid2_depth_print
20180929 sfm learner&vid2_depth_print
 
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAMSLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAM
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
 
CNN-SLAMざっくり
CNN-SLAMざっくりCNN-SLAMざっくり
CNN-SLAMざっくり
 
LSD-SLAM:Large Scale Direct Monocular SLAM
LSD-SLAM:Large Scale Direct Monocular SLAMLSD-SLAM:Large Scale Direct Monocular SLAM
LSD-SLAM:Large Scale Direct Monocular SLAM
 
静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
論文読み会(DeMoN;CVPR2017)
論文読み会(DeMoN;CVPR2017)論文読み会(DeMoN;CVPR2017)
論文読み会(DeMoN;CVPR2017)
 
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
 
SSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーション
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
 

Similaire à 20160612 関東cv勉強会 sumisumithパート

Computer Vision Chapter 4 Section 4
Computer Vision Chapter 4 Section 4Computer Vision Chapter 4 Section 4
Computer Vision Chapter 4 Section 4Kei Kawamura
 
コンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィコンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィNorishige Fukushima
 
20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東 20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東 Kyohei Unno
 
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本Atsushi Hashimoto
 
MCMCの光輸送問題への応用
MCMCの光輸送問題への応用MCMCの光輸送問題への応用
MCMCの光輸送問題への応用Genki Takiuchi
 
CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...
CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...
CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...Sho Kagami
 
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...harmonylab
 
コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎Norishige Fukushima
 
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜SSII
 
光源方向推定のための構造色パターンマッチング
光源方向推定のための構造色パターンマッチング光源方向推定のための構造色パターンマッチング
光源方向推定のための構造色パターンマッチングuranishi
 
cvsaisentan20141004 kanezaki
cvsaisentan20141004 kanezakicvsaisentan20141004 kanezaki
cvsaisentan20141004 kanezakikanejaki
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2Hirokatsu Kataoka
 
東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術SOINN Inc.
 
CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座
CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座
CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座Silicon Studio Corporation
 
【2015.08】(4/5)cvpaper.challenge@CVPR2015
【2015.08】(4/5)cvpaper.challenge@CVPR2015【2015.08】(4/5)cvpaper.challenge@CVPR2015
【2015.08】(4/5)cvpaper.challenge@CVPR2015cvpaper. challenge
 
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元Hironobu Fujiyoshi
 
【CVPR 2020 メタサーベイ】Computational Photography
【CVPR 2020 メタサーベイ】Computational Photography【CVPR 2020 メタサーベイ】Computational Photography
【CVPR 2020 メタサーベイ】Computational Photographycvpaper. challenge
 
Bachelor Presentation
Bachelor PresentationBachelor Presentation
Bachelor PresentationDzul Fahmi
 

Similaire à 20160612 関東cv勉強会 sumisumithパート (20)

Computer Vision Chapter 4 Section 4
Computer Vision Chapter 4 Section 4Computer Vision Chapter 4 Section 4
Computer Vision Chapter 4 Section 4
 
コンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィコンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィ
 
20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東 20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東
 
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
春の情報処理祭り 2015 [リクルートx情報処理学会] CVIM 橋本
 
MCMCの光輸送問題への応用
MCMCの光輸送問題への応用MCMCの光輸送問題への応用
MCMCの光輸送問題への応用
 
CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...
CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...
CVPR2019 読み会「Understanding the Limitations of CNN-based Absolute Camera Pose ...
 
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
 
コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎
 
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
 
光源方向推定のための構造色パターンマッチング
光源方向推定のための構造色パターンマッチング光源方向推定のための構造色パターンマッチング
光源方向推定のための構造色パターンマッチング
 
Visual slam
Visual slamVisual slam
Visual slam
 
cvsaisentan20141004 kanezaki
cvsaisentan20141004 kanezakicvsaisentan20141004 kanezaki
cvsaisentan20141004 kanezaki
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
 
東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術
 
CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座
CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座
CEDEC 2007 ゲーム開発者向け最新技術論文の解説・実装講座
 
【2015.08】(4/5)cvpaper.challenge@CVPR2015
【2015.08】(4/5)cvpaper.challenge@CVPR2015【2015.08】(4/5)cvpaper.challenge@CVPR2015
【2015.08】(4/5)cvpaper.challenge@CVPR2015
 
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
 
【CVPR 2020 メタサーベイ】Computational Photography
【CVPR 2020 メタサーベイ】Computational Photography【CVPR 2020 メタサーベイ】Computational Photography
【CVPR 2020 メタサーベイ】Computational Photography
 
Global Illumination
Global IlluminationGlobal Illumination
Global Illumination
 
Bachelor Presentation
Bachelor PresentationBachelor Presentation
Bachelor Presentation
 

20160612 関東cv勉強会 sumisumithパート

  • 1. 5. ライトフィールドの特性と解析 5.1 エピポーラ画像(EPI) 5.2 ライトフィールドのフーリエ変換 5.3 空間周波数領域におけるレンズのぼけ 2016/06/12 @sumisumith
  • 2. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 自己紹介 Page 1 これ↓を作った人です(ニコニコ技術部で、最高3位) 動画リンク:http://www.nicovideo.jp/watch/sm23048131
  • 3. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 目次  出落ちの自己紹介  導入  5. ライトフィールドの特性と解析  5.1 エピポーラ画像(EPI)  5.2 ライトフィールドのフーリエ変換  5.3 空間周波数領域におけるレンズのぼけ Page 2
  • 4. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 Computational Photograpy “Computational photography extends digital photography by providing the capability to record much more information and by offering the possibility of processing this information afterward.” --Oliver Bimber-- - 従来のデジタル写真技術の限界をコンピュータ処理により 補間・拡張する技術分野 - 出力結果は通常の写真、但し従来技術では得られなかったもの - CG, CV, 応用光学など様々な分野と関連 - 新しい研究分野のため、正確で完全な定義や分類はない Page 3 参照:IEEE Computer, Vol.39, Issue 8 (2006)
  • 5. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 Computational Photography とは? Page 4  Sheer K. Nayar (Columbia Univ.)による定義 参照:http://www1.cs.columbia.edu/CAVE/projects/what_is/
  • 6. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 Computational Camera とは? Page 5  Sheer K. Nayar (Columbia Univ.)による定義 参照:http://www1.cs.columbia.edu/CAVE/projects/what_is/ CV4本の2章で 語られているのは ここ
  • 7. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 目次  出落ちの自己紹介  導入  5. ライトフィールドの特性と解析  5.1 エピポーラ画像(EPI)  5.2 ライトフィールドのフーリエ変換  5.3 空間周波数領域におけるレンズのぼけ Page 6 ひと言でいうと、、、 エピポーラ情報はやっぱり使える フーリエ変換はやっぱり使える
  • 8. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 ライトフィールドの特性と解析  4節まで、で、ライトフィールドの取り込み方と、 その表現法について紹介 →4D の表現を変えて、 2D として、ライトフィールドを表現できる Page 7 4D的な表現 2D的表現 u x 1 2 3 4 5 ),,,( yx ),( ux
  • 9. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 ライトフィールドの特性と解析  5節では、ライトフィールドの特性と解析を紹介  全てのライトフィールド情報が必要か? →否、冗長  ライトフィールドカメラの幾何特徴を良く内包している エピポーラ画像(EPI) を用いることで、冗長性を減らせる Page 8 EPIのイメージ 平行 移動 参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
  • 10. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 エピポーラ画像(EPI)のイメージ Page 9 参照論文:Epipolar-Plane Image Analysis An Approach to Determining Structure from Motion, R.C.Bollesら,1987 写真を用いた 分かりやすい イメージ図 ちょっとずつ ずれている→
  • 11. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 エピポーラ画像(EPI) [っぽいLumigraph] のイメージ Page 10 参照論文:The Lumigraph, S. J. Gortlerら, 1996 写真を用いた 分かりやすい イメージ図 ちょっと ずれている→
  • 12. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 エピポーラ幾何のおさらい  2つのカメラで同一の物体を撮像したとき、 カメラAの投影中心から物体のある特徴点への光線は、 カメラBでは、直線=エピポーラ線として得られる Page 11 Camera BCamera A OA エピポーラ線 参照:http://www.slideshare.net/sumisumith/20150328-cv-sumisumithv13-46524314
  • 13. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 エピポーラ画像(EPI)  サイコロの「1の目」を特徴点として、 エピポーラ線が、水平に全視点でつながっているとする  ステレオカメラのイメージに近い(平行等位) Page 12 水平移動する場合のステレオ ライトフィールドカメラのうち、 一組のステレオカメラセットの 模式図のイメージ
  • 14. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2  エピポーラ画像は、画像間の対応点を、引き伸ばしたよう な画像になる エピポーラ画像(EPI) Page 13 ステレオ配置の場合の、EPIの考え方 角度変化 位置変化 ステレオカメラが 大量に並んでいると 思えば、理解しやすいかも ※ y は変わらない状況
  • 15. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2  座標系で表現すると、エピポーラ線が乗った 2次元平面上で直線として表現できる エピポーラ画像(EPI) Page 14 ライトフィールドカメラから作られるEPI ステレオカメラのように、 エピポーラ線がすべて平行であれば 平行線の縞模様状になる ステレオカメラが 大量に並んでいると 思えば、理解しやすいかも u x ux 
  • 16. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 エピポーラ画像(EPI)  平面全体に(エピポーラ)直線の束があるだけ →周波数成分に変換すれば、表現の簡単化(圧縮)が可能 Page 15
  • 17. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 ライトフィールドのフーリエ変換  エピポーラ線の集合として、EPI画像は得られるので、 2次元FFTをかけると、直交方向にスペクトルとして得られる Page 16
  • 18. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 ライトフィールドのフーリエ変換  EPIに、ぼけフィルタをかけて、FFTすると、高周波成分が消される →ノイズ成分が減る Page 17 ぼけフィルタ
  • 19. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 空間周波数領域におけるレンズのぼけ  EPIにぼけフィルタをかけることは、 フーリエ変換された画像に対しての、ローパスフィルタ効果がある  窓的にフィルタをかけることで、ノイズ状の高周波成分が消えて、 主要なエピポーラ方向の推定ができる - 主なエピポーラ方向が決定され、第2位のエピポーラ方向検出もすることで、 オクルージョン部 側面部 などを発見できる Page 18 ② Efficient Fourier-Based Approach for Detecting Orientations and Occlusions in Epipolar Plane Images for 3D Scene Modeling ① CV4本で紹介されている話 参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
  • 20. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 空間周波数領域におけるレンズのぼけ①  空間周波数領域では、どのように「ぼけ」が観察されるか? Page 19 • ピントが合っている場合 • ライトフィールドの空間周波数のうち、 上のみを取り込み • ピントが合っているので、高周波成分(細かい模様)まで取り込める x~ 注目プレーン
  • 21. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2  空間周波数領域では、どのように「ぼけ」が観察されるか? 空間周波数領域におけるレンズのぼけ① Page 20 • ピントがはずれている場合 • 空間周波数成分は、斜め線方向に伸びた分布となる • 低周波は取れるが、高周波成分が取り込めない →ローパスフィルタ 注目プレーン
  • 22. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 空間周波数領域におけるレンズのぼけ②  車にカメラを付けて移動(たくさんカメラを並べるのと、ほぼ等価)の 状況で撮影されたライトフィールド画像を想定 Page 21 参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
  • 23. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 空間周波数領域におけるレンズのぼけ② Page 22 EPIが生成される様子 オクルージョン部や側面部で、EPI上で変化が起きる 参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005
  • 24. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 空間周波数領域におけるレンズのぼけ② Page 23 ベタが1番、 破線が2番、 に強い方向成分 参照論文:Efficient Fourier-Based Approach for Detecting Orientations and Occlusions in Epipolar Plane Images for 3D Scene Modeling, Z. Zhu, 2005 結果が異なるポイント  ガウシアン(ぼけ)フィルタ後のEPIを、フーリエ変換すると、主方向が取れる例 時間
  • 25. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 あとは Page 24 残りの重要な部分は、綺麗に、 @tomoaki_teshima さん が、まとめてくれます (^ω^) おまけ
  • 26. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)商業利用:最近のLytro  Lytro Cinemaを用いた、映画 Life 2016/04 公開! (米のみと思われる) Page 25 参照:http://japanese.engadget.com/2016/04/12/7-40k-lytro-cinema-3d/
  • 27. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)商業利用?:Raskerらの研究開発  ハンディに簡単に扱える医療用3Dデバイスの応用 Page 26 参照:http://cameraculture.media.mit.edu/handheld-3d-imager-to-visualize-features-in-the-throat-like-tonsils/
  • 28. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)今の先端研究:有名な方々  Sheer K. Nayar - Columbia Univ., Computer Science Dept. - Computer Vision Laboratory (CAVE) の偉い人 - Research Interests - 賢いビジョンセンサ - 物理ベースのモデルデザイン - シーン補間アルゴリズム開発  Ramesh Raskar - MIT, Media Lab - 元MERL (Mitsubishi Electric Research Laboratories) - Research Interests - Computational Light Transport - コンピューテショナルフォトグラフィ - HCIにおける逆問題 Page 27 参照:http://www.cs.columbia.edu/~nayar/ 参照: http://web.media.mit.edu/~raskar/ http://cameraculture.media.mit.edu/
  • 29. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)最新の動向(Nayer)  Nayerさんの論文 Towards Flexible Sheet Cameras : Deformable Lens Arrays with Intrinsic Optical Adaptation Page 28
  • 30. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)最新の動向(Nayer)  フレキシブルなマイクロレンズアレイシートを開発 回折限界を超えた画像撮影が可能に Page 29
  • 31. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)最新の動向(Rasker)  検眼、個人の目の特性にあわせたディスプレイのフォーカス位置調整 Page 30 参照:https://www.cgarts.or.jp/report/rep_kr/rep0413-3.html
  • 32. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)最新の動向(日浦ら)  Active oneshot scan for wide depth range using a light-field projector based on coded aperture, ICCV2015 川崎、日浦ら  ライトフィールド技術をプロジェクタに応用 アパーチャコードの考えで被写界深度の限界を超えて、パターン符号化を行う 符号化情報をベースに3D計測を試みている Page 31
  • 33. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 (おまけ)最新の動向(日浦ら)  Active oneshot scan for wide depth range using a light-field projector based on coded aperture, ICCV2015 川崎、日浦ら  ライトフィールド技術をプロジェクタに応用 アパーチャコードの考えで被写界深度の限界を超えて、パターン符号化を行う 符号化情報をベースに3D計測を試みている Page 32
  • 34. Computer Vision and Image Media 5 – Section 2Computer Vision and Image Media 4 – Section 2 まとめ  5. ライトフィールドの特性と解析  5.1 エピポーラ画像(EPI) - 画像のステレオ特徴をよく現しているエピポーラ特性を 利用したEPIを利用するのが効率よい  5.2 ライトフィールドのフーリエ変換 - ライトフィールド画像を、効率よく表現するために、 フーリエ変換が有効  5.3 空間周波数領域におけるレンズのぼけ - EPIのぼけは、遮蔽やシーン情報の解析等に役立つキーポイント  おまけ - 商業利用も出てきた - CPの応用技術もよく研究されており、まだまだ発展中 Page 33
  • 35. Computer Vision and Image Media 5 – Section 2 Page 34 ありがとうございました (^ω^) @sumisumith