Soumettre la recherche
Mettre en ligne
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
•
2 j'aime
•
839 vues
T
Takashi Yoshinaga
Suivre
Kinectで取得したPoint Cloudを使ったARコンテンツ作成ハンズオンの資料
Lire moins
Lire la suite
Technologie
Signaler
Partager
Signaler
Partager
1 sur 55
Recommandé
ももち浜TECHカフェでのハンズオン資料。 Kinectで取得したPoint CloudをARマーカーの上に表示
KinectでAR空間に入り込もう
KinectでAR空間に入り込もう
Takashi Yoshinaga
2018/6/23に開催したARコンテンツ作成勉強会、ARCore編の資料 https://eventon.jp/12953/
はじめようArcore (修正版)
はじめようArcore (修正版)
Takashi Yoshinaga
講演者:高橋 憲一(Google, 株式会社カブク) こんな人におすすめ ・Android端末でARアプリを開発したい方 ・ARCoreの詳細を知りたい方 ・サンプルを触った後の次の一歩を踏み出したい方 受講者が得られる知見 ・UnityでARCoreを使う方法 ・ARCore for Unity APIの詳細 ・ARCoreで現実を拡張する方法
【Unite 2018 Tokyo】AndroidでAR〜ARCoreの導入から応用、使う上での勘所まで
【Unite 2018 Tokyo】AndroidでAR〜ARCoreの導入から応用、使う上での勘所まで
UnityTechnologiesJapan002
9/15に開催したAR勉強会資料。開発環境は以下の通り。 ARCore SDK 1.11 Unity2018.4.8.f1 ※p.12にARCore SDK 1.7と記載していますが間違いです。
はじめようARCore in 札幌
はじめようARCore in 札幌
Takashi Yoshinaga
2018/7/15に宮崎で開催したAR勉強会の資料
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
Takashi Yoshinaga
2018/6/23に開催したARコンテンツ作成勉強会、ARCore編の資料 https://eventon.jp/12953/
はじめようARCore
はじめようARCore
Takashi Yoshinaga
7/21に開催した勉強会の資料
はじめようARCore: Motion Tracking & Image Tracking編
はじめようARCore: Motion Tracking & Image Tracking編
Takashi Yoshinaga
ARToolKitの紹介
ARToolKitの紹介
yound_
Recommandé
ももち浜TECHカフェでのハンズオン資料。 Kinectで取得したPoint CloudをARマーカーの上に表示
KinectでAR空間に入り込もう
KinectでAR空間に入り込もう
Takashi Yoshinaga
2018/6/23に開催したARコンテンツ作成勉強会、ARCore編の資料 https://eventon.jp/12953/
はじめようArcore (修正版)
はじめようArcore (修正版)
Takashi Yoshinaga
講演者:高橋 憲一(Google, 株式会社カブク) こんな人におすすめ ・Android端末でARアプリを開発したい方 ・ARCoreの詳細を知りたい方 ・サンプルを触った後の次の一歩を踏み出したい方 受講者が得られる知見 ・UnityでARCoreを使う方法 ・ARCore for Unity APIの詳細 ・ARCoreで現実を拡張する方法
【Unite 2018 Tokyo】AndroidでAR〜ARCoreの導入から応用、使う上での勘所まで
【Unite 2018 Tokyo】AndroidでAR〜ARCoreの導入から応用、使う上での勘所まで
UnityTechnologiesJapan002
9/15に開催したAR勉強会資料。開発環境は以下の通り。 ARCore SDK 1.11 Unity2018.4.8.f1 ※p.12にARCore SDK 1.7と記載していますが間違いです。
はじめようARCore in 札幌
はじめようARCore in 札幌
Takashi Yoshinaga
2018/7/15に宮崎で開催したAR勉強会の資料
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
Takashi Yoshinaga
2018/6/23に開催したARコンテンツ作成勉強会、ARCore編の資料 https://eventon.jp/12953/
はじめようARCore
はじめようARCore
Takashi Yoshinaga
7/21に開催した勉強会の資料
はじめようARCore: Motion Tracking & Image Tracking編
はじめようARCore: Motion Tracking & Image Tracking編
Takashi Yoshinaga
ARToolKitの紹介
ARToolKitの紹介
yound_
5/11に開催したARコンテンツ作成勉強会の資料です。
OpenCV/ARCore/Unityで作る塗り絵AR
OpenCV/ARCore/Unityで作る塗り絵AR
Takashi Yoshinaga
全スライドをDocswellで公開中! https://www.docswell.com/s/historia_Inc/KWVNJZ-2018-113797652 ================================= 「出張ヒストリア! ゲーム開発勉強会2018」(https://atnd.org/events/98232)で行ったモーションキャプチャーの概要とPerception Neuronの導入事例です。 講演者: 加藤 由梨枝(3Dアーティスト) 以下、セッション概要より抜粋。 モーションキャプチャーは以前より導入しやすくなっています。 今回はPerception Neuronの実演も取り入れつつ、実際にモーションキャプチャーを使用する場合の工程がどういったものになるのか紹介していきたいと思います。 =================================
【出張ヒストリア2018】モーションキャプチャーを取り入れるには?
【出張ヒストリア2018】モーションキャプチャーを取り入れるには?
historia_Inc
CEDEC2017で登壇したセッション「機械学習向けCGデータの量産手法の検討」のプレゼンテーション資料です。 セッションの内容: 機械学習を活用したサービスの普及に伴い、事前学習用のデータ供給が課題となっています。 シリコンスタジオでは、リアルタイムグラフィックス技術を活用した機械学習向けCG画像データの量産化に取り組んでおり、どういったCGアセットを制作すれば画像認識の精度向上に寄与するのか、検証を行っています。 本セッションでは、CG画像データの量産および品質評価の環境構築と、画像認識を対象とした簡単な事例を紹介いたします。
機械学習向けCGデータの量産手法の検討
機械学習向けCGデータの量産手法の検討
Silicon Studio Corporation
2022年3月12日のOSC 2022 Online/Springのセミナーで発表した資料です。写真現像環境はMacやWindowsという方も多いとは思うんですが、Linuxでも意外とイケてるんですよ、ということを主張させていただきます。
OSC2022 Online / Spring 「Linuxで活用するデジタルカメラと写真撮影術」
OSC2022 Online / Spring 「Linuxで活用するデジタルカメラと写真撮影術」
Masataka Kondo
福岡空港、および築城基地で飛行機を撮りましょう!という関連とそれに関わるカメラ、RAW現像などの話題について話をさせていただきました。最近は動画撮影などいろいろあるので考えるコトも多くて大変です...
OSC福岡 : 航空機写真撮影入門 in FUKUOKA
OSC福岡 : 航空機写真撮影入門 in FUKUOKA
Masataka Kondo
6/28にももち浜TECHカフェで開催したハンズオンの資料
OpenCVで作るスタンプAR
OpenCVで作るスタンプAR
Takashi Yoshinaga
20191128 近未来教育フォーラム2019公開版 “In Real Time” リアルタイムグラフィックスの世界とVTuberが牽引する新たな人類 https://www.dhw.co.jp/forum/ YouTube Live https://www.youtube.com/watch?v=j0yRASXFvlQ FL1NEさんのスライドはこちら https://speakerdeck.com/fl1ne/riarutaimucgfalsejiu-ji-xi-demosin-nituite
20191128 近未来教育フォーラム2019公開版
20191128 近未来教育フォーラム2019公開版
GREE VR Studio Lab
ARにおける光学的整合性、SIGGRAPH2018 Immersive Pavilion、ARx機械学習など
没入度の高いARアプリケーション開発に向けた取り組み
没入度の高いARアプリケーション開発に向けた取り組み
Daiki Taniguchi
映像情報メディア学会 立体映像技術研究会(3DIT) [招待講演]「デプスセンサとその応用」の発表資料です. http://www.ite.or.jp/ken/program/index.php?tgs_regid=a5bacacea82fb086cc4a6ef2b050f2c2f673ff48cd98a1d315bb489a9937779a&tgid=ITE-3DIT&lang=
デプスセンサとその応用
デプスセンサとその応用
Norishige Fukushima
講演者:株式会社スタジオブロス 教育サービス部ディレクター 深野 暁雄 https://bros.studio/ 新しいデザインをすぐ見たい!新機能Pixel Streamingを使いスマホに配信する手順を御紹介
Unreal Studio+建築CADのワークフロー
Unreal Studio+建築CADのワークフロー
エピック・ゲームズ・ジャパン Epic Games Japan
第1回3D勉強会@関東「SLAM チュートリアル大会」講演資料 (他の講演との関係で Laser SLAM が中心) https://3dvision.connpass.com/event/86945/
オープンソース SLAM の分類
オープンソース SLAM の分類
Yoshitaka HARA
2019/03/27 開催の gotanda.unity での発表資料です。
AROW の紹介 〜実践編〜
AROW の紹介 〜実践編〜
Drecom Co., Ltd.
1/12に開催したハンズオンの資料
OpenCVでつくろうARスタンプアプリ in 熊本
OpenCVでつくろうARスタンプアプリ in 熊本
Takashi Yoshinaga
GREE Tech Conference 2020 で発表された資料です。 https://techcon.gree.jp/2020/session/ShortSession-9
VTuber・XRライブエンタメ駆動の研究開発 - GREE VR Studio Laboratory のR2D
VTuber・XRライブエンタメ駆動の研究開発 - GREE VR Studio Laboratory のR2D
gree_tech
2019/03/27 開催の gotanda.unity での発表資料です。
AROW の紹介 〜概要編〜
AROW の紹介 〜概要編〜
Drecom Co., Ltd.
9/21に宮崎で開催した勉強会の資料
OpenCVとARCoreで作るスタンプAR in 宮崎
OpenCVとARCoreで作るスタンプAR in 宮崎
Takashi Yoshinaga
VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ(速公開版) グリー株式会社 GREE VR Studio LabDirector 白井暁彦
#CCSE2019 GREE VR Studio Lab 「VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ」(速公開版)
#CCSE2019 GREE VR Studio Lab 「VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ」(速公開版)
GREE VR Studio Lab
SSII2019 企画セッション「画像センシング技術の最先端」 6月12日(水) 11:20~12:05 (メインホール) 画像や LiDAR はロボットや自動車の自動走行を実現するにあたり、最もメジャーなセンサとして利用されている。そのため、多くの手法が日々新たに研究開発されており、その動向を追いかけることは容易でなくなっている。本講演ではロボットや自動運転に関するトップカンファレンスである ICRA、IROS、IV、ITSC において発表された研究報告を基に、近年の画像や LiDAR を用いた自己位置推定や SLAM に関する研究や動向についてまとめる。
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII
CEDEC2019で発表された資料です https://cedec.cesa.or.jp/2019/session/detail/s5c9df84045dd1
REALITY「なりたい自分で、生きていく」リアルタイムライブでVTuberが活躍する舞台を作る現場の1年
REALITY「なりたい自分で、生きていく」リアルタイムライブでVTuberが活躍する舞台を作る現場の1年
gree_tech
講演者:株式会社スタジオブロス 教育サービス部ディレクター 深野 暁雄 https://bros.studio/ ゲームエンジンで高品質映像制作!4K/8K放送に対応するリアルタイムレンダリングの紹介
Unreal Engine 4 Education 3 シーケンサーでリアルタイム映像作成
Unreal Engine 4 Education 3 シーケンサーでリアルタイム映像作成
エピック・ゲームズ・ジャパン Epic Games Japan
2018/11/03に開催したARコンテンツ作成勉強会資料
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
Takashi Yoshinaga
9/18にエンジニアカフェで開催したハンズオンの資料
ノンプログラミングで始める AR 開発入門
ノンプログラミングで始める AR 開発入門
Takashi Yoshinaga
Contenu connexe
Tendances
5/11に開催したARコンテンツ作成勉強会の資料です。
OpenCV/ARCore/Unityで作る塗り絵AR
OpenCV/ARCore/Unityで作る塗り絵AR
Takashi Yoshinaga
全スライドをDocswellで公開中! https://www.docswell.com/s/historia_Inc/KWVNJZ-2018-113797652 ================================= 「出張ヒストリア! ゲーム開発勉強会2018」(https://atnd.org/events/98232)で行ったモーションキャプチャーの概要とPerception Neuronの導入事例です。 講演者: 加藤 由梨枝(3Dアーティスト) 以下、セッション概要より抜粋。 モーションキャプチャーは以前より導入しやすくなっています。 今回はPerception Neuronの実演も取り入れつつ、実際にモーションキャプチャーを使用する場合の工程がどういったものになるのか紹介していきたいと思います。 =================================
【出張ヒストリア2018】モーションキャプチャーを取り入れるには?
【出張ヒストリア2018】モーションキャプチャーを取り入れるには?
historia_Inc
CEDEC2017で登壇したセッション「機械学習向けCGデータの量産手法の検討」のプレゼンテーション資料です。 セッションの内容: 機械学習を活用したサービスの普及に伴い、事前学習用のデータ供給が課題となっています。 シリコンスタジオでは、リアルタイムグラフィックス技術を活用した機械学習向けCG画像データの量産化に取り組んでおり、どういったCGアセットを制作すれば画像認識の精度向上に寄与するのか、検証を行っています。 本セッションでは、CG画像データの量産および品質評価の環境構築と、画像認識を対象とした簡単な事例を紹介いたします。
機械学習向けCGデータの量産手法の検討
機械学習向けCGデータの量産手法の検討
Silicon Studio Corporation
2022年3月12日のOSC 2022 Online/Springのセミナーで発表した資料です。写真現像環境はMacやWindowsという方も多いとは思うんですが、Linuxでも意外とイケてるんですよ、ということを主張させていただきます。
OSC2022 Online / Spring 「Linuxで活用するデジタルカメラと写真撮影術」
OSC2022 Online / Spring 「Linuxで活用するデジタルカメラと写真撮影術」
Masataka Kondo
福岡空港、および築城基地で飛行機を撮りましょう!という関連とそれに関わるカメラ、RAW現像などの話題について話をさせていただきました。最近は動画撮影などいろいろあるので考えるコトも多くて大変です...
OSC福岡 : 航空機写真撮影入門 in FUKUOKA
OSC福岡 : 航空機写真撮影入門 in FUKUOKA
Masataka Kondo
6/28にももち浜TECHカフェで開催したハンズオンの資料
OpenCVで作るスタンプAR
OpenCVで作るスタンプAR
Takashi Yoshinaga
20191128 近未来教育フォーラム2019公開版 “In Real Time” リアルタイムグラフィックスの世界とVTuberが牽引する新たな人類 https://www.dhw.co.jp/forum/ YouTube Live https://www.youtube.com/watch?v=j0yRASXFvlQ FL1NEさんのスライドはこちら https://speakerdeck.com/fl1ne/riarutaimucgfalsejiu-ji-xi-demosin-nituite
20191128 近未来教育フォーラム2019公開版
20191128 近未来教育フォーラム2019公開版
GREE VR Studio Lab
ARにおける光学的整合性、SIGGRAPH2018 Immersive Pavilion、ARx機械学習など
没入度の高いARアプリケーション開発に向けた取り組み
没入度の高いARアプリケーション開発に向けた取り組み
Daiki Taniguchi
映像情報メディア学会 立体映像技術研究会(3DIT) [招待講演]「デプスセンサとその応用」の発表資料です. http://www.ite.or.jp/ken/program/index.php?tgs_regid=a5bacacea82fb086cc4a6ef2b050f2c2f673ff48cd98a1d315bb489a9937779a&tgid=ITE-3DIT&lang=
デプスセンサとその応用
デプスセンサとその応用
Norishige Fukushima
講演者:株式会社スタジオブロス 教育サービス部ディレクター 深野 暁雄 https://bros.studio/ 新しいデザインをすぐ見たい!新機能Pixel Streamingを使いスマホに配信する手順を御紹介
Unreal Studio+建築CADのワークフロー
Unreal Studio+建築CADのワークフロー
エピック・ゲームズ・ジャパン Epic Games Japan
第1回3D勉強会@関東「SLAM チュートリアル大会」講演資料 (他の講演との関係で Laser SLAM が中心) https://3dvision.connpass.com/event/86945/
オープンソース SLAM の分類
オープンソース SLAM の分類
Yoshitaka HARA
2019/03/27 開催の gotanda.unity での発表資料です。
AROW の紹介 〜実践編〜
AROW の紹介 〜実践編〜
Drecom Co., Ltd.
1/12に開催したハンズオンの資料
OpenCVでつくろうARスタンプアプリ in 熊本
OpenCVでつくろうARスタンプアプリ in 熊本
Takashi Yoshinaga
GREE Tech Conference 2020 で発表された資料です。 https://techcon.gree.jp/2020/session/ShortSession-9
VTuber・XRライブエンタメ駆動の研究開発 - GREE VR Studio Laboratory のR2D
VTuber・XRライブエンタメ駆動の研究開発 - GREE VR Studio Laboratory のR2D
gree_tech
2019/03/27 開催の gotanda.unity での発表資料です。
AROW の紹介 〜概要編〜
AROW の紹介 〜概要編〜
Drecom Co., Ltd.
9/21に宮崎で開催した勉強会の資料
OpenCVとARCoreで作るスタンプAR in 宮崎
OpenCVとARCoreで作るスタンプAR in 宮崎
Takashi Yoshinaga
VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ(速公開版) グリー株式会社 GREE VR Studio LabDirector 白井暁彦
#CCSE2019 GREE VR Studio Lab 「VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ」(速公開版)
#CCSE2019 GREE VR Studio Lab 「VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ」(速公開版)
GREE VR Studio Lab
SSII2019 企画セッション「画像センシング技術の最先端」 6月12日(水) 11:20~12:05 (メインホール) 画像や LiDAR はロボットや自動車の自動走行を実現するにあたり、最もメジャーなセンサとして利用されている。そのため、多くの手法が日々新たに研究開発されており、その動向を追いかけることは容易でなくなっている。本講演ではロボットや自動運転に関するトップカンファレンスである ICRA、IROS、IV、ITSC において発表された研究報告を基に、近年の画像や LiDAR を用いた自己位置推定や SLAM に関する研究や動向についてまとめる。
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII
CEDEC2019で発表された資料です https://cedec.cesa.or.jp/2019/session/detail/s5c9df84045dd1
REALITY「なりたい自分で、生きていく」リアルタイムライブでVTuberが活躍する舞台を作る現場の1年
REALITY「なりたい自分で、生きていく」リアルタイムライブでVTuberが活躍する舞台を作る現場の1年
gree_tech
講演者:株式会社スタジオブロス 教育サービス部ディレクター 深野 暁雄 https://bros.studio/ ゲームエンジンで高品質映像制作!4K/8K放送に対応するリアルタイムレンダリングの紹介
Unreal Engine 4 Education 3 シーケンサーでリアルタイム映像作成
Unreal Engine 4 Education 3 シーケンサーでリアルタイム映像作成
エピック・ゲームズ・ジャパン Epic Games Japan
Tendances
(20)
OpenCV/ARCore/Unityで作る塗り絵AR
OpenCV/ARCore/Unityで作る塗り絵AR
【出張ヒストリア2018】モーションキャプチャーを取り入れるには?
【出張ヒストリア2018】モーションキャプチャーを取り入れるには?
機械学習向けCGデータの量産手法の検討
機械学習向けCGデータの量産手法の検討
OSC2022 Online / Spring 「Linuxで活用するデジタルカメラと写真撮影術」
OSC2022 Online / Spring 「Linuxで活用するデジタルカメラと写真撮影術」
OSC福岡 : 航空機写真撮影入門 in FUKUOKA
OSC福岡 : 航空機写真撮影入門 in FUKUOKA
OpenCVで作るスタンプAR
OpenCVで作るスタンプAR
20191128 近未来教育フォーラム2019公開版
20191128 近未来教育フォーラム2019公開版
没入度の高いARアプリケーション開発に向けた取り組み
没入度の高いARアプリケーション開発に向けた取り組み
デプスセンサとその応用
デプスセンサとその応用
Unreal Studio+建築CADのワークフロー
Unreal Studio+建築CADのワークフロー
オープンソース SLAM の分類
オープンソース SLAM の分類
AROW の紹介 〜実践編〜
AROW の紹介 〜実践編〜
OpenCVでつくろうARスタンプアプリ in 熊本
OpenCVでつくろうARスタンプアプリ in 熊本
VTuber・XRライブエンタメ駆動の研究開発 - GREE VR Studio Laboratory のR2D
VTuber・XRライブエンタメ駆動の研究開発 - GREE VR Studio Laboratory のR2D
AROW の紹介 〜概要編〜
AROW の紹介 〜概要編〜
OpenCVとARCoreで作るスタンプAR in 宮崎
OpenCVとARCoreで作るスタンプAR in 宮崎
#CCSE2019 GREE VR Studio Lab 「VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ」(速公開版)
#CCSE2019 GREE VR Studio Lab 「VTuber向け特殊表情コントローラの可能性と機械学習的アプローチ」(速公開版)
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
REALITY「なりたい自分で、生きていく」リアルタイムライブでVTuberが活躍する舞台を作る現場の1年
REALITY「なりたい自分で、生きていく」リアルタイムライブでVTuberが活躍する舞台を作る現場の1年
Unreal Engine 4 Education 3 シーケンサーでリアルタイム映像作成
Unreal Engine 4 Education 3 シーケンサーでリアルタイム映像作成
Similaire à 第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
2018/11/03に開催したARコンテンツ作成勉強会資料
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
Takashi Yoshinaga
9/18にエンジニアカフェで開催したハンズオンの資料
ノンプログラミングで始める AR 開発入門
ノンプログラミングで始める AR 開発入門
Takashi Yoshinaga
KinectとOpenCVを使った画像処理ハンズオンの資料 [イベントの様子] https://togetter.com/li/1228915
はじめようRGB-Dセンシングと画像処理
はじめようRGB-Dセンシングと画像処理
Takashi Yoshinaga
ももち浜TECHカフェin大分でのハンズオン資料
UnityとVuforiaで始めるAR開発
UnityとVuforiaで始めるAR開発
Takashi Yoshinaga
2021/09/25に開催したハンズオン資料
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
Takashi Yoshinaga
ARコンテンツ作成勉強会の資料
Nreal Lightハンズオン
Nreal Lightハンズオン
Takashi Yoshinaga
UnityやARCore初心者向けのチュートリアル資料。 ※3/9に開催したハンズオン資料の修正版です
はじめようARCore:自己位置推定・平面検出・FaceTracking
はじめようARCore:自己位置推定・平面検出・FaceTracking
Takashi Yoshinaga
XRミーティング 2020/04/15登壇資料。 Azure Remote RenderingがPublic Previewとなったため、昨日調査を実施しその内容を共有。 HoloLens 2実機の代わりにHoloLens 2 Emulator上での動作検証も併せて実施。 https://youtu.be/0925wH0oETE
Azure Remote Renderingを試す
Azure Remote Renderingを試す
Takahiro Miyaura
2020/08/13に開催したMRTKハンズオンの資料
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
Takashi Yoshinaga
Kinectは、カラーカメラ、深度センサー、マイクアレイを備えているセンサー機器です。最も特徴的な機能として、深度センサーから人を認識して「ボーン」とよばれる骨格データを自動生成する機能があります。 入手しやすいこともあり、Natural User Interfaceデバイスとしての標準的なデバイスとなっています。Kinectで得たノウハウは他のNUIデバイスを使うときにも役立つノウハウです。また、今夏発売される新型Kinectでも継承できるものになります。
Kinect技術紹介20140407
Kinect技術紹介20140407
fukuoka-t
第24回 Unity勉強会 at 2014.8.29 にてお話しさせていただいた際の資料です。 デモ http://calmbooks.com/UnitySamples/GruGruEffect コード https://github.com/calmbooks/UnityGruGruEffect
Unityのポストエフェクトで遊ぶ!
Unityのポストエフェクトで遊ぶ!
Yamato Honda
DevSumi23-10C1-AI神絵師はITエンジニアの未来をどう変えるのか #GREEVRStudioLab #DevSumi DevelopersSummit2023 10-C-1 2023/2/10 10:00 ~ 10:40 AI神絵師はITエンジニアの未来をどう変えるのか?~メタバースR&DからみたAI画像生成のトレンド~ AI神絵師はITエンジニアの未来をどう変えるのか?メタバース開発、VRエンタテインメントシステム、メディアアート研究、写真工学、画像工学を専門に30年近い経験を持つ博士(工学)であるフルスタックエンジニア系研究者が、世界1000万ダウンロードを達成したスマホ向けメタバース「REALITY」を開発運営するREALITY株式会社の研究開発部門「GREE VR Studio Laboratory」のR&Dマネジメント業務やデジタルハリウッド大学の教授を行いながら業務外で話題のAI画像生成「Stable Diffusion」のリリースから2ヵ月で2冊の技術書「AIとコラボして神絵師になる」を執筆した経験と未来観測について凝縮してお伝えします。今後のAI関係やメタバース業界トレンドを先取りしつつ、エンジニアの長いキャリアの中でモチベーションの上がる話になるはずです。 https://event.shoeisha.jp/devsumi/20230209/session/4191/
AI神絵師はITエンジニアの未来をどう変えるのか
AI神絵師はITエンジニアの未来をどう変えるのか
GREE VR Studio Lab
2021/06/04開催のハンズオン資料
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
Takashi Yoshinaga
Mozilla Hubsが拓く新世代WebVRのススメ 2020/5/13 XR Tech Nagoyaにて講演 日本で初めての大規模なHubs特集ミートアップの概要編 https://vrm-nagoya.connpass.com/event/175544/
Mozilla Hubsが拓く新世代WebVRのススメ #HubsScrum
Mozilla Hubsが拓く新世代WebVRのススメ #HubsScrum
GREE VR Studio Lab
SSII2020 OS3: 3Dセンシングと3D認識の最先端 https://confit.atlas.jp/guide/event/ssii2020/static/organized
3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization
Hajime Taira
第2回ふくおかAI・IoT祭り内でのハンズオン資料
HTMLを書くだけで誰でも簡単!A-FrameではじめるWeb AR/VR
HTMLを書くだけで誰でも簡単!A-FrameではじめるWeb AR/VR
Takashi Yoshinaga
Visual SLAM研究について、カメラだけでなく、RGB-DやIMUを用いた手法について、個人的に重要と思われる研究に絞って紹介しました。
20190307 visualslam summary
20190307 visualslam summary
Takuya Minagawa
LiDARとカメラの情報<両方>を使用した物体検出技術について調査しました。
object detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: survey
Takuya Minagawa
GREE VR Studio Laboratory - UXDev R&D Summary 2022 REALITY株式会社 Director 白井 暁彦 REALITY株式会社 Intern 堀部貴紀 中野友介 加藤琢磨 Alexandre Berthault https://techcon.gree.jp/2022 2022/10/25
GREE Tech Conf 2022 GREE VR Studio Laboratory - UXDev R&D Summary 2022 #GREETC
GREE Tech Conf 2022 GREE VR Studio Laboratory - UXDev R&D Summary 2022 #GREETC
GREE VR Studio Lab
2019/02/22に開催したハンズオンの資料。
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
Takashi Yoshinaga
Similaire à 第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
(20)
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
ノンプログラミングで始める AR 開発入門
ノンプログラミングで始める AR 開発入門
はじめようRGB-Dセンシングと画像処理
はじめようRGB-Dセンシングと画像処理
UnityとVuforiaで始めるAR開発
UnityとVuforiaで始めるAR開発
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
Nreal Lightハンズオン
Nreal Lightハンズオン
はじめようARCore:自己位置推定・平面検出・FaceTracking
はじめようARCore:自己位置推定・平面検出・FaceTracking
Azure Remote Renderingを試す
Azure Remote Renderingを試す
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
Kinect技術紹介20140407
Kinect技術紹介20140407
Unityのポストエフェクトで遊ぶ!
Unityのポストエフェクトで遊ぶ!
AI神絵師はITエンジニアの未来をどう変えるのか
AI神絵師はITエンジニアの未来をどう変えるのか
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
Mozilla Hubsが拓く新世代WebVRのススメ #HubsScrum
Mozilla Hubsが拓く新世代WebVRのススメ #HubsScrum
3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization
HTMLを書くだけで誰でも簡単!A-FrameではじめるWeb AR/VR
HTMLを書くだけで誰でも簡単!A-FrameではじめるWeb AR/VR
20190307 visualslam summary
20190307 visualslam summary
object detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: survey
GREE Tech Conf 2022 GREE VR Studio Laboratory - UXDev R&D Summary 2022 #GREETC
GREE Tech Conf 2022 GREE VR Studio Laboratory - UXDev R&D Summary 2022 #GREETC
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
Plus de Takashi Yoshinaga
2021/11/20開催のハンズオン資料
HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXR
Takashi Yoshinaga
2021/11/17に開催したハンズオン資料
【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発
Takashi Yoshinaga
DevRel/Japan CONFERENCE 2021の登壇資料
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
Takashi Yoshinaga
2021/10/30に開催したAR勉強会の資料
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
Takashi Yoshinaga
2021年10月22日に開催されたLT会での発表資料
iPad LiDARでエンジニアカフェを3Dスキャン
iPad LiDARでエンジニアカフェを3Dスキャン
Takashi Yoshinaga
xTech ゆるっとLT: Fukuoka.php and AR_FukuokaでのLT資料
Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発
Takashi Yoshinaga
AR Fukuokaの暑気払いLT会の資料
MRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみた
Takashi Yoshinaga
HoloLens 2/Oculus Quest対応WebXRハンズオンの準備編の資料
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
Takashi Yoshinaga
2021/05/14に開催したハンズオン資料。 事前準備資料はこちら! http://arfukuoka.lolipop.jp/HoloSDK/preparation.pdf
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Takashi Yoshinaga
FUKUOKA Engineers Day 2021 発表資料
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
Takashi Yoshinaga
3/19に開催したLT会で発表資料
Voxon Photonics VX1で遊んでみた
Voxon Photonics VX1で遊んでみた
Takashi Yoshinaga
AR-Frame x AR.js入門
AR-Frame x AR.js入門
AR-Frame x AR.js入門
Takashi Yoshinaga
1/27に開催したAR勉強会の資料
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
Takashi Yoshinaga
新春赤煉瓦ライトニングトークオンライン2021(Akarenga.LT)での発表資料
コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動
Takashi Yoshinaga
xTechゆるっとLTでの登壇資料
Project HoloBox
Project HoloBox
Takashi Yoshinaga
AR Fukuokaの紹介スライド(2020ver.)
AR Fukuoka紹介2020
AR Fukuoka紹介2020
Takashi Yoshinaga
忘年会でのLT
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
Takashi Yoshinaga
2020年12月5日に織りなすラボ(Panasonic)で開催したワークショップ資料
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
Takashi Yoshinaga
OSC2020 Fukuokaで使用したハンズオン資料 https://ospn.connpass.com/event/183864/
OSC2020 Fukuoka: インストールいらず、WebAR入門
OSC2020 Fukuoka: インストールいらず、WebAR入門
Takashi Yoshinaga
11/20に開催したOculusQuestハンズオンの資料 YouTubeはこちら。 https://youtu.be/7GXleKMSDe4
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Takashi Yoshinaga
Plus de Takashi Yoshinaga
(20)
HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXR
【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
iPad LiDARでエンジニアカフェを3Dスキャン
iPad LiDARでエンジニアカフェを3Dスキャン
Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発
MRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみた
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
Voxon Photonics VX1で遊んでみた
Voxon Photonics VX1で遊んでみた
AR-Frame x AR.js入門
AR-Frame x AR.js入門
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動
Project HoloBox
Project HoloBox
AR Fukuoka紹介2020
AR Fukuoka紹介2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
OSC2020 Fukuoka: インストールいらず、WebAR入門
OSC2020 Fukuoka: インストールいらず、WebAR入門
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Dernier
This presentation introduces a paper about offline reinforcement learning.
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
atsushi061452
公開URL:https://arxiv.org/pdf/2404.19174 出典:Guilherme Potje, Felipe Cadar, Andre Araujo, Renato Martins, Erickson R. ascimento: XFeat: Accelerated Features for Lightweight Image Matching, Proceedings of the 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2023) 概要:リソース効率に優れた特徴点マッチングのための軽量なアーキテクチャ「XFeat(Accelerated Features)」を提案します。手法は、局所的な特徴点の検出、抽出、マッチングのための畳み込みニューラルネットワークの基本的な設計を再検討します。特に、リソースが限られたデバイス向けに迅速かつ堅牢なアルゴリズムが必要とされるため、解像度を可能な限り高く保ちながら、ネットワークのチャネル数を制限します。さらに、スパース下でのマッチングを選択できる設計となっており、ナビゲーションやARなどのアプリケーションに適しています。XFeatは、高速かつ同等以上の精度を実現し、一般的なラップトップのCPU上でリアルタイムで動作します。
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
2024/05/25 serverless Meetup osaka
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
ssuserbefd24
YouTube nnabla channelの次の動画で利用したスライドです。 【AI論文解説】Consistency ModelとRectified Flow https://youtu.be/3IKCrAPe55k Consistency ModelとRectified Flowに関連する以下の論文を紹介しています。 Consistency models(解説編Part1で紹介) - “Consistency Models,” ICML 2023. - “Improved Techniques for Training Consistency Models,” ICLR 2024. - “Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion,” ICLR 2024. Rectified flow(解説編Part2で紹介) - “Flow Straight and Fast: Learning to Generate and Transfer Data with Rectified Flow,” ICLR 2023. - “InstaFlow: One Step is Enough for High-Quality Diffusion-Based Text-to-Image Generation,” ICLR 2024.
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料) 2024年4月24日(水) 株式会社NTTデータグループ 技術開発本部 笠原 辰仁
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
This presentation introduces a paper about offline reinforcement learning.
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
サイバーエージェントAI事業部の新卒研修で利用したスライドを公開します。
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
FIDO Alliance Osaka Seminar
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
FIDO Alliance Osaka Seminar
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
FIDO Alliance Osaka Seminar
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
FIDO Alliance Osaka Seminar
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
FIDO Alliance Osaka Seminar
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
Dernier
(14)
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
1.
第19回SOIL水曜セミナー RGB-DカメラでAR空間に入り込もう
2.
自己紹介 氏名:吉永崇(Takashi Yoshinaga) 所属:九州先端科学技術研究所(ISIT) 専門:AR/VRを用いた情報可視化と各種計測 コミュニティ:ARコンテンツ作成勉強会 主催
3.
ARコンテンツ作成勉強会の紹介 2013年5月に勉強会をスタート ARコンテンツの作り方をハンズオン形式で学ぶ
人数は5~10名程度の少人数で実施 参加条件はAR/VRに興味がある人(知識不要) 各地で開催 (福岡、熊本、宮崎、長崎、大分、 鹿児島、山口、広島、関東)
4.
Twitterと勉強会ページで情報を発信しています #AR_Fukuoka Googleで「AR勉強会」で検索
5.
SRP Open Innovation
Lab主催 SOIL水曜セミナー 今回のイベントについて 登録よろしく! https://soil.connpass.com/
6.
セットアップ • Kinect for
Windows SDK v1.8 https://www.microsoft.com/en-us/download/details.aspx?id=40278 • Processing 2.2.1 https://processing.org/download/ Processingを起動後、下記を解凍したフォルダを Processingのlibrariesフォルダに配置 (Windowsの場合:C:¥Users¥YOU¥Documents¥Processing¥ libraries) • SimpleOpenNI 1.96 https://code.google.com/archive/p/simple-openni/downloads • NyARToolKit (nyar4psg.zip) https://github.com/nyatla/NyARToolkit-for-Processing/releases 下記を解凍してデスクトップ等のわかりやすいところに配置 https://drive.google.com/file/d/1ahzAzp_s5gqg5WbfJkF5JSv5v87qm KZv/view?usp=sharing
7.
本日作成するコンテンツ Kinectで取得した点群データ(Point Cloud)をリアルタイムにAR表示 https://youtu.be/WeorvV9vZh8
8.
Kinectとは Kinect(キネクト)とはMicrosoft社のゲーム機、XBOX360 専用のジェスチャー入力コントローラとして発売された機器 カラー画像・深度(Depth)情報・身体の認識等が可能 深度センサ(赤外線プロジェクタ+赤外線カメラ) カラーカメラ
9.
Kinectを用いたコンテンツ開発 ↑ カラー画像+距離画像+3D計測 人体認識 → とC#
or C++を使えば開発可能 結構敷居が高い を使うと比較的簡単に開発可能
10.
processingとは processingとは、電子アートとビジュアルデザインのための プログラミング言語であり、統合開発環境 視覚的な表示を簡単に行えるため初心者のプログラミング 学習にも向いている。文法はJavaとほぼ同じ。
11.
ARToolKit、NyARToolKit ARが一般に認知されるきっかけとなったライブラリ カメラと正方形のマーカーを使用してCGを重畳
もともとはC/C++向けに開発 processing対応の派生版ライブラリNyARToolKit 画像の取得 ・ 二値化等の画像処理 ・ マーカの検出 位置・姿勢計算 CGを重畳 (引用元: http://www.youtube.com/watch?v=TqGAqAFlGg0) (D.Wagner et al. Computer Vision Winter Workshop, 2007)
12.
準備 KinectとPCを接続しておきましょう
13.
processingを起動 実行 テキストエディタ ここにソースコードを記述 保存 【起動】 processing のアイコンを クリック 【保存】 保存ボタンを クリック
Sample1と して保存
14.
processingでウィンドウを表示させよう //setup関数内で初期設定 void setup(){ size(256,256); //ウィンドウ内部のサイズ background(200,200,200);
//ウィンドウ内部の色 } デフォルトでは色をRGBで表現(それぞれ0~255)
15.
基本図形を描画しよう void setup(){ /*省略(前ページ参照)*/ } //描画のための関数 void draw(){ //枠線の色 stroke(255,0,0); //枠線の太さ(pixel) strokeWeight(10); //塗りつぶしの色 fill(0,255,255); //四角形(rectangle)を描画 //rect(x座標,y座標,横幅,縦幅) rect(10,10,50,50); } (x,y)=(10,10) 枠線の色:(255,0,0)=赤 枠線の太さ:10px 塗り色: (0,255,255)=シアン
16.
他の図形も描いてみよう void draw(){ //枠線の色 stroke(255,0,0); //枠線の太さ(pixel) strokeWeight(10); //塗りつぶしの色 fill(0,255,255); //四角形(rectangle)を描画 //rect(x座標,y座標,横幅,縦幅) rect(10,10,50,50); } 塗りつぶした円を描画 自由な多角形(三角形)を描画
17.
頂点を指定して図形を描画 【三角形】 strokeWeight(2); //枠線の幅 beginShape(TRIANGLES); vertex(70, 10); vertex(70,
60); vertex(150, 60); endShape(); (70,10) (70,60) (150,60) 【点(塗りつぶし円)】 strokeWeight(60); //点の幅(=円の直径) beginShape(POINTS); vertex(35,100); //点の中心位置(x,y) endShape(); 60 60 (35,100) 詳細 https://processing.org/reference/beginShape_.html
18.
次のプロジェクトの作成 保存新規作成 【新規作成】 新規ボタンをクリック
Sample1の内容を コピー&ペースト draw関数内を消す 【保存】 保存ボタンをクリック Sample2として保存
19.
void draw(){ stroke(255,0,0); //赤で塗りつぶし strokeWeight(30);
//直径をセット beginShape(POINTS); for(int x=0; x<5; x+=1){ vertex(40*x, 0); //円 } endShape(); } for文を用いた繰り返し処理 (1/2) x=0 x=1 x=2 x=3 x=4 40 (=40*1) 80 (=40*2)
20.
for文を用いた繰り返し処理 (2/2) void draw(){ stroke(255,0,0);
//赤で塗りつぶし strokeWeight(30); //直径をセット beginShape(POINTS); for(int y=0; y<5; y+=1){ for(int x=0; x<5; x+=1){ vertex(40*x, 0); //円 } } endShape(); } vertex(40*x, 40*y); y → 0 y → 1 y → 2 y → 3 y → 4
21.
描画位置をずらそう void draw(){ translate(20,20); //全体をx,y方向に20ずつ移動 stroke(255,0,0); strokeWeight(30); beginShape(POINTS); for(int
y=0; y<5; y+=1){ for(int x=0; x<5; x+=1){ vertex(40*x, 40*y); } } endShape(); }
22.
void draw(){ translate(20,20); //全体をx,y方向に20ずつ移動 stroke(255,0,0); strokeWeight(30); beginShape(POINTS); for(int
y=0; y<5; y+=1){ for(int x=0; x<5; x+=1){ vertex(40*x, 40*y); } } endShape(); } 1個おきに描画しよう for(int y=0; y<5; y+=1){ for(int x=0; x<5; x+=2){ vertex(40*x, 40*y); } } for(int y=0; y<5; y+=2){ for(int x=0; x<5; x+=2){ vertex(40*x, 40*y); } }
23.
次のプロジェクトの作成 保存新規作成 【新規作成】 新規ボタンをクリック
Sample2の内容を コピー&ペースト setup関数とdraw関数 の内側のコードを消す 【保存】 保存ボタンをクリック Sample3として保存
24.
Kinectを起動させよう import SimpleOpenNI.*; //SimpleOpenNIを読み込む SimpleOpenNI
kinect; //Kinectを扱うための変数 void setup(){ //OpenNIおよびKinectを初期化 kinect = new SimpleOpenNI(this); if(kinect.isInit() == false){ exit(); return; } }
25.
確認 赤外線の照射が始まる場合も エラーが出なければOK
26.
NyARToolKitを使う準備 事前にDLしたSampleフォルダ内のcamera_para.dat, patt.sample1をSample3フォルダにコピー&ペースト 【NyARToolKit】 【Sample3】
27.
ARToolKitで画像を表示する準備 import SimpleOpenNI.*; import jp.nyatla.nyar4psg.*;
//ライブラリのインポート SimpleOpenNI kinect; MultiMarker ar; //ARToolKitの機能を使うための変数 void setup(){ size(640,480,P3D); /*OpenNIおよびKinectを初期化(省略)*/ ar = new MultiMarker( this, width, height, "camera_para.dat" ,NyAR4PsgConfig.CONFIG_PSG_PV221); } 640×480の領域に 3Dの描画を行う カメラの画角に関する情報画像サイズ
28.
ARToolKitでカメラ画像を表示する void draw(){ //Kinectの取得情報を更新 kinect.update(); //カラー画像を取得 PImage rgbImage
= kinect.rgbImage(); //ARToolKit提供の機能で画像を描画する ar.drawBackground(rgbImage); } void setup(){ /*OpenNIおよびKinectを初期化(省略)*/ ar = new MultiMarker(this, width, /*以下省略*/); kinect.enableRGB(); //カラー画像の取得をON }
29.
ARToolKitでマーカーを認識しよう (1/2) void setup(){ /*OpenNIおよびKinectを初期化(省略)*/ ar
= new MultiMarker(this, width, /*以下省略*/); //マーカーのデータを読み込む(サイズは80mm) ar.addARMarker("patt.sample1", 80); kinect.enableRGB(); } 【ARToolKitマーカーの基礎知識】 正方形の枠と内側のパターン 回転対称パターンはNG ARToolKit(本家)をダウンロード すれば数種類のマーカが利用可能 マーカーデータの自作も可能
30.
ARToolKitでマーカーを認識しよう (2/2) void draw(){ kinect.update(); PImage
rgbImage = kinect.rgbImage(); ar.drawBackground(rgbImage); } ar.detect(rgbImage); //マーカーを検出 if(!ar.isExistMarker(0)){ return; //マーカーが存在しなければ戻る } ar.beginTransform(0); //マーカ0を原点にして描画 fill(0,0,255); box(40); //縦横高さが40mmの立方体 ar.endTransform();
31.
動作確認 マーカーに乗って いる感じがしない
32.
CGの位置を調整しよう ar.beginTransform(0); translate(0,0,20); fill(0,0,255); box(40); ar.endTransform(); boxを上に半分ずらす x Y Z (0,0,0) (0,0,20) 40mm
33.
距離(Depth)画像を取得しよう void setup(){ /*省略(Kinectの初期設定など)*/ kinect.enableRGB(); kinect.enableDepth(); //距離画像の利用をON } void
draw(){ kinect.update(); //PImage rgbImage = kinect.rgbImage(); PImage rgbImage = kinect.depthImage(); ar.drawBackground(rgbImage); /*以下省略*/ }
34.
動作確認 次はこれを3次元化する Kinectからの距離に 応じた濃淡
35.
その前に・・・ void setup(){ /*省略(Kinectの初期設定など)*/ kinect.enableRGB(); kinect.enableDepth(); //距離画像の利用をON } void
draw(){ kinect.update(); PImage rgbImage = kinect.rgbImage(); //PImage rgbImage = kinect.depthImage(); ar.drawBackground(rgbImage); /*以下省略*/ } 表示やマーカー認識に使用する画像をカラーに戻す このコードに戻す 削除
36.
距離画像を3次元情報に変換 void draw(){ kinect.update(); PImage rgbImage
= kinect.rgbImage(); //縦横(pixel)とDepthの組をx,y,z座標(mm)に変換 //PVectorの一次元配列に全データを記録 PVector[] realWorld = kinect.depthMapRealWorld(); /*以下省略*/ pixelと濃淡 変換 実空間
37.
距離画像とrealWorldとの対応付け P00 (x,y,z) P01 (x,y,z) P02 (x,y,z) P10 (x,y,z) P11 (x,y,z) P12 (x,y,z) P20 (x,y,z) P21 (x,y,z) P23 (x,y,z) 【ポイント】 3次元座標は一次 元配列realWorld に格納されている 任意のu,vピクセル のx,y,zを知るには 計算が必要 P00
P01 P02 P10 P11 P12 P20 P21 P22 ・・・ 0 1 2 v 0 1 2 u realWorld [0] [1] [2] [3] [4] [5] [6] [7] [8] ・・・ v = 0 段目 v = 1 段目 v = 2 段目 ピクセルu,vでの3次元座標 → realWorld[v*画像の横幅 + u] 【距離画像】
38.
3Dデータを点で描画しよう (1/2) void draw(){ /*Kinectの画像取得や変数の宣言(省略)*/ /*マーカーの認識
(省略)*/ ar.beginTransform(0); // translate(0,0,20); fill(0,0,255); box(40); ar.endTransform(); } beginShape(POINTS); //ここで描画する点の3次元座標を指定 (次頁) endShape(); translate(0,0,20); fill(0,0,255); box(40);
39.
3Dデータを描画しよう (2/2) beginShape(POINTS); endShape(); //v:縦, u:横、それぞれ4pixelおきに3次元座標を取得 for(int
v=0; v<kinect.depthHeight(); v+=4){ for(int u=0; u<kinect.depthWidth(); u+=4){ int index = u + v * kinect.depthWidth(); PVector point = realWorld[index]; stroke(255,255,0); //描画色(黄色) if(point.z>0) { vertex(point.x, point.y, point.z); } } } X Y Z 黒画素(z=0)は 描画したくない
40.
動作確認 何も表示されない? 後ろに離れてマーカー を撮影すると黄色い点
41.
現状を把握しよう Kinectから数100mm先に計測対象がいる Kinectで計測した点を配置 (原点はマーカー) 【現プログラムのの問題点】 マーカーから大きく離れた 位置の点描をカメラ(Kinect)に 向けると画像面から近すぎる 点描の位置をマーカー原点 周辺にずらす必要がある 描画
42.
3Dデータを原点付近に移動させよう translate(0,0,-600); //600mm後ろに戻す (場合による) beginShape(POINTS); for(int
v=0; v<kinect.depthHeight(); v+=4){ for(int u=0; u<kinect.depthWidth(); u+=4){ int index = u + v * kinect.depthWidth(); PVector point = realWorld[index]; stroke(255,255,0); //描画色 if(point.z>0) { vertex(point.x, point.y, point.z); } } } endShape(); X Y Z
43.
動作確認 点の密度が少し高くなる マーカーの辺りに実寸大の自分が描画される(らしい)
44.
3Dデータを手乗りサイズにしよう scale(0.3); //サイズを3/10にする translate(0,0,-600); beginShape(POINTS); for(int v=0;
v<kinect.depthHeight(); v+=4){ for(int u=0; u<kinect.depthWidth(); u+=4){ int index = u + v * kinect.depthWidth(); PVector point = realWorld[index]; // stroke(255,255,0); //描画色 if(point.z>0) { vertex(point.x, point.y, point.z); } } }
45.
描画する点の大きさを整える strokeWeight(2); //描画サイズを2pixelにする scale(0.3); translate(0,0,-600); beginShape(POINTS); for(int v=0;
v<kinect.depthHeight(); v+=4){ /*以下描画の処理(省略)*/
46.
マーカーの上に立たせよう strokeWeight(2); scale(0.3); //x軸(1,0,0)を中心に90度(=π/2)回転 rotate(PI/2, 1, 0,
0); translate(0,0,-600); beginShape(POINTS); 回転
47.
背景のデータを除去:描画範囲の限定 beginShape(POINTS); for(int v=0; v<kinect.depthHeight();
v+=4){ for(int u=0; u<kinect.depthWidth(); u+=4){ int index = u + v * kinect.depthWidth(); PVector point = realWorld[index]; // stroke(255,255,0); if(point.z>0) { vertex(point.x, point.y, point.z); } } } endShape(); if(point.z>0 && point.z<1500) { vertex(point.x, point.y, point.z); } 除去 1500mm未満なら描画
48.
描画位置を上にずらす 移動 strokeWeight(2); scale(0.3); rotate(PI/2, 1, 0,
0); translate(0,0,-600); //600mm後ろに戻す (場合による) beginShape(POINTS); for(int v=0; v<kinect.depthHeight(); v+=4){ /*以下描画の処理(省略)*/ translate(0,300,-600); //300mm上に移動 (場合による)
49.
点描にカメラ画像の色を割り当てよう beginShape(POINTS); for(int v=0; v<kinect.depthHeight();
v+=4){ for(int u=0; u<kinect.depthWidth(); u+=4){ int index = u + v * kinect.depthWidth(); PVector point = realWorld[index]; // color pixelColor = rgbImage.pixels[index]; stroke(255,255,0); if(point.z>0) { vertex(point.x, point.y, point.z); } } } endShape(); stroke(pixelColor); //各ピクセルの色を指定
50.
動作確認 ちょっとズレる
51.
ずれが生じる理由:Kinect利用の注意点 Color Depth カラー用のカメラと奥行用の カメラは位置も画角も異なる →
各画像のピクセル座標 は一致しない
52.
カラー画像と距離画像のずれの補正 void setup(){ size(640, 480,
P3D); kinect = new SimpleOpenNI(this); if(kinect.isInit() == false){ exit(); return; } ar = new MultiMarker( this, width, height, "camera_para.dat"); ar.addARMarker("patt.sample1", 80); kinect.enableRGB(); kinect.enableDepth(); kinect.alternativeViewPointDepthToImage(); } これを追加するだけ
53.
完成
54.
【参考】 • processingリファレンス https://processing.org/reference/ • SimpleOpneNI公式サイト https://code.google.com/p/simple-openni/ •
NyARToolKit公式サイト http://nyatla.jp/nyartoolkit/wp/ • ARToolKit公式サイト(最新) http://artoolkit.org/