Soumettre la recherche
Mettre en ligne
ピンホールカメラモデル
•
Télécharger en tant que PPTX, PDF
•
4 j'aime
•
16,783 vues
Shohei Mori
Suivre
図と式をサイドバイサイドで見て理解するピンホールカメラモデル.
Lire moins
Lire la suite
Ingénierie
Affichage du diaporama
Signaler
Partager
Affichage du diaporama
Signaler
Partager
1 sur 13
Télécharger maintenant
Recommandé
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~ 6/9 (水) 9:45~10:55 講師:内山 英昭 氏 (奈良先端科学技術大学院大学) 概要: Visual SLAMとは、カメラの周辺環境の3次元形状を認識しながら、カメラの動きを算出する技術である。Visual SLAMやIMUを併用したVisual-inertial SLAMの動作原理を理解するためには、カメラの位置姿勢推定や三角測量などのカメラ幾何の基礎や、特徴点マッチングや画像検索といった画像処理の知識が必要となる。本チュートリアルでは、動作原理を理解する上での基礎知識を概説するとともに、動的環境下における精度低下を低減する手法や、近年多くの取り組みがあるディープラーニングを用いた手法を紹介する。
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII
SSII2019 チュートリアル講演 TS3 6月14日(金) 9:00~10:20 (メインホール) カメラの幾何学的キャリブレーションはカメラを使った3次元計測・認識に欠かすことができない基礎技術です。近年では LIDAR や ToF カメラのように深度情報を直接出力するカメラや、全周囲カメラのように透視投影ではないカメラをセンサとして使用することも一般的になりました。本講演ではこれらの幾何学的キャリブレーションについて、実例を交えながら基礎からご紹介します。さらに講演内容に対応した初学者向けのサンプルコードについても紹介します。
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
単眼SLAMの勉強会の初回としてARブームのブレイクスルーのきっかけとなったPTAMに関して調査をしました。
SLAM勉強会(PTAM)
SLAM勉強会(PTAM)
Masaya Kaneko
Qoncept(http://qoncept.jp/)でのInternship成果の一部としてORB-SLAMの手法部分をまとめました。
ORB-SLAMの手法解説
ORB-SLAMの手法解説
Masaya Kaneko
ロボティクス・メカトロニクス 講演会 2020
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
TaroSuzuki15
第6回 3D勉強会@関東 発表スライド https://3dvision.connpass.com/event/156241/
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
miyanegi
玉木徹: 「姿勢推定と回転行列」, 電子情報通信学会 スマートインフォメディアシステム研究会(SIS)信号処理研究会(SIP)オーディオビジュアル複合情報処理研究会(IPSJ-AVM), 電子情報通信学会技術報告 SIP2009-48, SIS2009-23, Vol.109, No.202, pp.59-64, 広島大学, 広島 (2009 09).
20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列
Toru Tamaki
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
Recommandé
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~ 6/9 (水) 9:45~10:55 講師:内山 英昭 氏 (奈良先端科学技術大学院大学) 概要: Visual SLAMとは、カメラの周辺環境の3次元形状を認識しながら、カメラの動きを算出する技術である。Visual SLAMやIMUを併用したVisual-inertial SLAMの動作原理を理解するためには、カメラの位置姿勢推定や三角測量などのカメラ幾何の基礎や、特徴点マッチングや画像検索といった画像処理の知識が必要となる。本チュートリアルでは、動作原理を理解する上での基礎知識を概説するとともに、動的環境下における精度低下を低減する手法や、近年多くの取り組みがあるディープラーニングを用いた手法を紹介する。
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII
SSII2019 チュートリアル講演 TS3 6月14日(金) 9:00~10:20 (メインホール) カメラの幾何学的キャリブレーションはカメラを使った3次元計測・認識に欠かすことができない基礎技術です。近年では LIDAR や ToF カメラのように深度情報を直接出力するカメラや、全周囲カメラのように透視投影ではないカメラをセンサとして使用することも一般的になりました。本講演ではこれらの幾何学的キャリブレーションについて、実例を交えながら基礎からご紹介します。さらに講演内容に対応した初学者向けのサンプルコードについても紹介します。
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
単眼SLAMの勉強会の初回としてARブームのブレイクスルーのきっかけとなったPTAMに関して調査をしました。
SLAM勉強会(PTAM)
SLAM勉強会(PTAM)
Masaya Kaneko
Qoncept(http://qoncept.jp/)でのInternship成果の一部としてORB-SLAMの手法部分をまとめました。
ORB-SLAMの手法解説
ORB-SLAMの手法解説
Masaya Kaneko
ロボティクス・メカトロニクス 講演会 2020
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
TaroSuzuki15
第6回 3D勉強会@関東 発表スライド https://3dvision.connpass.com/event/156241/
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
miyanegi
玉木徹: 「姿勢推定と回転行列」, 電子情報通信学会 スマートインフォメディアシステム研究会(SIS)信号処理研究会(SIP)オーディオビジュアル複合情報処理研究会(IPSJ-AVM), 電子情報通信学会技術報告 SIP2009-48, SIS2009-23, Vol.109, No.202, pp.59-64, 広島大学, 広島 (2009 09).
20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列
Toru Tamaki
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
SSII2019 チュートリアル講演 TS3 6月14日(金) 9:00~10:20 (メインホール) カメラの幾何学的キャリブレーションはカメラを使った3次元計測・認識に欠かすことができない基礎技術です。近年では LIDAR や ToF カメラのように深度情報を直接出力するカメラや、全周囲カメラのように透視投影ではないカメラをセンサとして使用することも一般的になりました。本講演ではこれらの幾何学的キャリブレーションについて、実例を交えながら基礎からご紹介します。さらに講演内容に対応した初学者向けのサンプルコードについても紹介します。
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
MIRU2013のチュートリアル「画像局所特徴量SIFTとそれ以降のアプローチ」 第16回画像の認識・理解シンポジウム MIRU2013 2013年7月29日 http://cvim.ipsj.or.jp/miru2013/tutorial.php#ts4
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
Hironobu Fujiyoshi
2017/06/10開催のコンピュータビジョン勉強会@関東「AR/VRを支える技術」の発表資料です。
ORB-SLAMを動かしてみた
ORB-SLAMを動かしてみた
Takuya Minagawa
第4回3D勉強会@関東(画像を用いた3Dモデリングの基礎から応用まで)で発表した資料です https://3dvision.connpass.com/event/115490/
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Masaya Kaneko
Qoncept(http://qoncept.jp/)でのInternship成果の一部としてDSO(https://vision.in.tum.de/research/vslam/dso)をまとめました。
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
Masaya Kaneko
SSII2019 企画セッション「画像センシング技術の最先端」 6月12日(水) 11:20~12:05 (メインホール) 三次元点群とは、三次元形状をその表面上の各点座標値の集合によって表現するデータ形式です。各点は順不同、かつ点の密度や総数が一定とは限らないという三次元点群の性質から、画像での深層学習の知見を直接応用することは難しいとされてきました。本発表では、PointNet 以降急速に発展した点群深層学習に関する研究の流れをまとめるとともに、実アプリケーションへの応用につながるような研究事例の紹介を行います。
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
SSII2019 企画セッション「画像センシング技術の最先端」 6月12日(水) 11:20~12:05 (メインホール) 画像や LiDAR はロボットや自動車の自動走行を実現するにあたり、最もメジャーなセンサとして利用されている。そのため、多くの手法が日々新たに研究開発されており、その動向を追いかけることは容易でなくなっている。本講演ではロボットや自動運転に関するトップカンファレンスである ICRA、IROS、IV、ITSC において発表された研究報告を基に、近年の画像や LiDAR を用いた自己位置推定や SLAM に関する研究や動向についてまとめる。
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII
第1回3D勉強会@関東「SLAM チュートリアル大会」講演資料 (他の講演との関係で Laser SLAM が中心) https://3dvision.connpass.com/event/86945/
オープンソース SLAM の分類
オープンソース SLAM の分類
Yoshitaka HARA
20180423のSLAM入門輪読会で第2章を説明した資料です
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎
yohei okawa
SSII 2019 OS 講演資料 https://confit.atlas.jp/guide/event/ssii2019/static/organized
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
Yoshitaka HARA
2023/4/14 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
Deep Learning JP
2017.05.27, 3D勉強会@関東 発表資料 論文紹介:ORB-SLAM
SLAMチュートリアル大会資料(ORB-SLAM)
SLAMチュートリアル大会資料(ORB-SLAM)
Masaya Kaneko
Real-time tools for ROS
Rosのリアルタイムツールの紹介
Rosのリアルタイムツールの紹介
gakky1667
第51回コンピュータビジョン勉強会@関東「コンピュータビジョン - 広がる要素技術と応用 - 」読み会 "4.4 未知な環境下におけるカメラの位置姿勢推定"発表資料
Visual slam
Visual slam
Takuya Minagawa
CVIM勉強会#11 1章バンドルアジャストメント 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
sleepy_yoshi
2020/03/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Deep Learning JP
6/8 (水) 09:45~10:55メイン会場 講師:牛久 祥孝 氏 (オムロンサイニックエックス株式会社) 概要: 2017年に機械翻訳を対象として提案されたTransformerは、従来の畳込みや再帰を排して自己注意機構を活用したニューラルネットワークである。2019年頃からコンピュータビジョン分野でも急速に応用が進んでおり、より柔軟かつ高精度なネットワーク構造としての地位を確立しつつある。本チュートリアルでは、Transformerおよびその周辺のネットワーク構造について、コンピュータビジョンへの応用を中心とした最前線を概説する。
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
第三回 全日本コンピュータビジョン勉強会(前編) CVPR'20読み会の資料です https://kantocv.connpass.com/event/178126/ SuperGlue;Learning Feature Matching with Graph Neural Networks の解説
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
Yusuke Uchida
SLAM勉強会をした際の資料です。 ECCV2014のLSD-SLAMを紹介しました。
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAM
Iwami Kazuya
【社内勉強会用】Sift特徴量について ※間違っている部分があるかもしれません
Sift特徴量について
Sift特徴量について
la_flance
This slide explains the relationship between camera pose and view matrix.
カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列
Shohei Mori
エピポーラ幾何の解説.
エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)
Shohei Mori
Contenu connexe
Tendances
SSII2019 チュートリアル講演 TS3 6月14日(金) 9:00~10:20 (メインホール) カメラの幾何学的キャリブレーションはカメラを使った3次元計測・認識に欠かすことができない基礎技術です。近年では LIDAR や ToF カメラのように深度情報を直接出力するカメラや、全周囲カメラのように透視投影ではないカメラをセンサとして使用することも一般的になりました。本講演ではこれらの幾何学的キャリブレーションについて、実例を交えながら基礎からご紹介します。さらに講演内容に対応した初学者向けのサンプルコードについても紹介します。
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
MIRU2013のチュートリアル「画像局所特徴量SIFTとそれ以降のアプローチ」 第16回画像の認識・理解シンポジウム MIRU2013 2013年7月29日 http://cvim.ipsj.or.jp/miru2013/tutorial.php#ts4
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
Hironobu Fujiyoshi
2017/06/10開催のコンピュータビジョン勉強会@関東「AR/VRを支える技術」の発表資料です。
ORB-SLAMを動かしてみた
ORB-SLAMを動かしてみた
Takuya Minagawa
第4回3D勉強会@関東(画像を用いた3Dモデリングの基礎から応用まで)で発表した資料です https://3dvision.connpass.com/event/115490/
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Masaya Kaneko
Qoncept(http://qoncept.jp/)でのInternship成果の一部としてDSO(https://vision.in.tum.de/research/vslam/dso)をまとめました。
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
Masaya Kaneko
SSII2019 企画セッション「画像センシング技術の最先端」 6月12日(水) 11:20~12:05 (メインホール) 三次元点群とは、三次元形状をその表面上の各点座標値の集合によって表現するデータ形式です。各点は順不同、かつ点の密度や総数が一定とは限らないという三次元点群の性質から、画像での深層学習の知見を直接応用することは難しいとされてきました。本発表では、PointNet 以降急速に発展した点群深層学習に関する研究の流れをまとめるとともに、実アプリケーションへの応用につながるような研究事例の紹介を行います。
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
SSII2019 企画セッション「画像センシング技術の最先端」 6月12日(水) 11:20~12:05 (メインホール) 画像や LiDAR はロボットや自動車の自動走行を実現するにあたり、最もメジャーなセンサとして利用されている。そのため、多くの手法が日々新たに研究開発されており、その動向を追いかけることは容易でなくなっている。本講演ではロボットや自動運転に関するトップカンファレンスである ICRA、IROS、IV、ITSC において発表された研究報告を基に、近年の画像や LiDAR を用いた自己位置推定や SLAM に関する研究や動向についてまとめる。
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII
第1回3D勉強会@関東「SLAM チュートリアル大会」講演資料 (他の講演との関係で Laser SLAM が中心) https://3dvision.connpass.com/event/86945/
オープンソース SLAM の分類
オープンソース SLAM の分類
Yoshitaka HARA
20180423のSLAM入門輪読会で第2章を説明した資料です
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎
yohei okawa
SSII 2019 OS 講演資料 https://confit.atlas.jp/guide/event/ssii2019/static/organized
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
Yoshitaka HARA
2023/4/14 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
Deep Learning JP
2017.05.27, 3D勉強会@関東 発表資料 論文紹介:ORB-SLAM
SLAMチュートリアル大会資料(ORB-SLAM)
SLAMチュートリアル大会資料(ORB-SLAM)
Masaya Kaneko
Real-time tools for ROS
Rosのリアルタイムツールの紹介
Rosのリアルタイムツールの紹介
gakky1667
第51回コンピュータビジョン勉強会@関東「コンピュータビジョン - 広がる要素技術と応用 - 」読み会 "4.4 未知な環境下におけるカメラの位置姿勢推定"発表資料
Visual slam
Visual slam
Takuya Minagawa
CVIM勉強会#11 1章バンドルアジャストメント 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
sleepy_yoshi
2020/03/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Deep Learning JP
6/8 (水) 09:45~10:55メイン会場 講師:牛久 祥孝 氏 (オムロンサイニックエックス株式会社) 概要: 2017年に機械翻訳を対象として提案されたTransformerは、従来の畳込みや再帰を排して自己注意機構を活用したニューラルネットワークである。2019年頃からコンピュータビジョン分野でも急速に応用が進んでおり、より柔軟かつ高精度なネットワーク構造としての地位を確立しつつある。本チュートリアルでは、Transformerおよびその周辺のネットワーク構造について、コンピュータビジョンへの応用を中心とした最前線を概説する。
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
第三回 全日本コンピュータビジョン勉強会(前編) CVPR'20読み会の資料です https://kantocv.connpass.com/event/178126/ SuperGlue;Learning Feature Matching with Graph Neural Networks の解説
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
Yusuke Uchida
SLAM勉強会をした際の資料です。 ECCV2014のLSD-SLAMを紹介しました。
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAM
Iwami Kazuya
【社内勉強会用】Sift特徴量について ※間違っている部分があるかもしれません
Sift特徴量について
Sift特徴量について
la_flance
Tendances
(20)
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
ORB-SLAMを動かしてみた
ORB-SLAMを動かしてみた
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
オープンソース SLAM の分類
オープンソース SLAM の分類
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
SLAMチュートリアル大会資料(ORB-SLAM)
SLAMチュートリアル大会資料(ORB-SLAM)
Rosのリアルタイムツールの紹介
Rosのリアルタイムツールの紹介
Visual slam
Visual slam
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAM
Sift特徴量について
Sift特徴量について
En vedette
This slide explains the relationship between camera pose and view matrix.
カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列
Shohei Mori
エピポーラ幾何の解説.
エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)
Shohei Mori
Image-Based Renderingの図解.既存手法のGeometric ProxyやCamera Blending Fieldの違いを直感的に理解することができる.
Image-Based Rendering各手法の直感的理解
Image-Based Rendering各手法の直感的理解
Shohei Mori
ISMAR2016まとめ
ISMAR2016まとめ
ISMAR2016まとめ
Shohei Mori
Meanshift Tracking Presentation
Meanshift Tracking Presentation
sandtouch
Introduction to kernel bayes and kernel Monte Carlo Filter
Kernel Bayes Rule
Kernel Bayes Rule
Yan Xu
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
En vedette
(7)
カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列
エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)
Image-Based Rendering各手法の直感的理解
Image-Based Rendering各手法の直感的理解
ISMAR2016まとめ
ISMAR2016まとめ
Meanshift Tracking Presentation
Meanshift Tracking Presentation
Kernel Bayes Rule
Kernel Bayes Rule
グラフィカルモデル入門
グラフィカルモデル入門
ピンホールカメラモデル
1.
図と式をサイドバイサイドで見て理解する ピンホールカメラモデル 2016年8月15日 森 尚平
2.
2次元空間 撮像素子や フィルム等 被写体 f Z -Y y Z 原点 Y
3.
撮像素子や フィルム等 被写体 f Z -Y y Z 原点 Y 2次元空間
4.
撮像素子や フィルム等 被写体 f Z -Y y Z 原点 Y 2次元空間 緑と青の三角形の相似関係から ⇒ Z Y f y
Z Y fy 同様に .尚,f は焦点距離. Z X fx
5.
2次元空間 図のように原点を中心に反転させても 同様の関係が成り立つので,便宜上こちらを用いる. 被写体 f Z -Y-y Z 原点 Y Z Y fy Z X fx
6.
2次元空間 これを行列で表すと 被写体 f Z -Y-y Z 原点 Y Z Y fy Z X fx Z Y X f f y x 100 00 00 1 ただし,λ=Z
7.
2次元空間 被写体 f Z -Y-y Z 原点 Y さらに, . 1 0 0 0 1 0 0 0 0 0 0 1 Z Y X f f y x 3次元空間 Z Y X 原点 -Y -y 被写体 これを行列で表すと Z Y fy Z X fx Z Y X f f y x 100 00 00 1 ただし,λ=Z
8.
画像座標系 Z Y X 原点 -Y -y 被写体3次元空間 u v 画像中心 光学中心
9.
1 0 0 0 1 0 0 0 0 0 0 1 Z Y X f f y x ここから,画像座標系の原点から光学中心までの オフセットcx,cyを考慮して, 画像座標系 Z Y X 原点 -Y -y 被写体3次元空間 u v 画像中心 光学中心cx cy 1 0 0 0 10 0 0 0 1 Z Y X c c f f y x y x
10.
1 0 0 0 1 0 0 0 0 0 0 1 Z Y X f f y x ここから,画像座標系の原点から光学中心までの オフセットcx,cyを考慮して, (原点を画像平面の中央から画像座標系の原点へ移動) 画像座標系 Z Y X 原点 -Y -y 被写体3次元空間 u v 画像中心 光学中心cx cy 1 0 0 0 10 0 0 0 1 Z Y X c c f f y x y x
11.
1 0 0 0 1 0 0 0 0 0 0 1 Z Y X f f y x ここから,画像座標系の原点から光学中心までの オフセットcx,cyを考慮して, (原点を画像平面の中央から画像座標系の原点へ移動) 画像座標系 Z Y X 原点 -Y -y 被写体3次元空間 u v 画像中心 光学中心cx cy 1 0 0 0 10 0 0 0 1 Z Y X c c f f y x y x さらに,内部変数を考慮して, 1 0 0 0 100 0 1 Z Y X c c f f y x y x ※内部変数の詳細は http://goo.gl/4vRYWX 参照
12.
1 0 0 0 1 0 0 0 0 0 0 1 Z Y X f f y x ここから,画像座標系の原点から光学中心までの オフセットcx,cyを考慮して, (原点を画像平面の中央から画像座標系の原点へ移動) 画像座標系 Z Y X 原点 -Y -y 被写体3次元空間 u v 画像中心 光学中心cx cy 1 0 0 0 10 0 0 0 1 Z Y X c c f f y x y x さらに,内部変数を考慮して, 1 0 0 0 100 0 1 Z Y X c c f f y x y x ※内部変数の詳細は http://goo.gl/4vRYWX 参照 実際,このくらいの 近似で十分な場合も多い
13.
画像座標系 Z Y X 原点 -Y -y 被写体3次元空間 u v 画像中心 光学中心cx cy 1 0 0 0 100 0 1 Z Y X c c f f y x y x .ただし,XKAx ~~ λ T ]1[~
yxx T ]1[ ~ ZYXX 100 0 y x cf cf K 0 0 0 1 0 0 0 1 0 0 0 1 A これを行列で表すと,
Télécharger maintenant