SlideShare une entreprise Scribd logo
1  sur  192
Télécharger pour lire hors ligne
pump-probe方式で,アブレーション等による表面の変化を
動的に観測するシステム
動的に観測するシステムはこれまでなかった
pump-probe方式で,delayさせたレーザーを当てながら動的
に観測する
実際に撮像し,一定時間後の形状と比較して本当にとれてい
るか確認した
動的にとれるとどれくらい嬉しいのだろうか
Direct femtosecond laser surface nano/microstructuring and
its applications
Direct visualization of the complete evolution of femtosecond laser-induced surface structural dynamics of metals
(Light: Science Applications 2017, Fang, Ranran and Vorobyev, Anatoliy and Guo, Chunlei)
201713119 山本健太 #2 (鬼コース)
直接フェムトを当てて加工する論文に関するReview論文
- 表面にナノ/マイクロ構造を直接加工
- 金属に対する周期的なレーザー加工構造
- 単体のナノホールやアレイ状のナノ/マイクロホール
- ナノ構造テクスチャが施されたマイクロ構造
- フェムトレーザーによる消去や研磨
- アプリケーション
Controlled nanostructrures formation by ultra fast laser
pulses for color marking
Direct femtosecond laser surface nano/microstructuring and its applications
(Laser Photonics Reviews 2013: Vorobyev, Anatoliy Y and Guo, Chunlei)
201713119 山本健太 #2 (鬼コース)
色を彫刻するためのナノ構造を金属表面にフェムトレーザー
で
2010なので,コントロールされたナノ構造を金属表面に
レーザーで構築していく手法の新しさ
ナノ構造を制御するためのレーザー入射角度などの設計
実際に作ってSEM撮像の確認+実物のカラー確認
なぜ多くの場合,2軸に分けた後CCDに入れる光路を作るの
か?
Laser-induced periodic surface structures̶a scientific
evergreen
Controlled nanostructrures formation by ultra fast laser pulses for color marking
(Optics express 2010, Dusser, Benjamin and Sagan, Z and Soder, Herv{'e} and Faure, Nicolas and Colombier, Jean-Philippe and Jourlin, Michel and Audouard, Eric)
201713119 山本健太 #2 (鬼コース)
Laser-Indecude Periodic Surface Structures (LIPSS)に関する
Review論文
- LSFLとHSFLの2種類のメカニズムがある
- 制御にはsingle-pulse sequence, double-pulse sequence,時
間分割回折がある
- アプリケーションとしては,構造色・疎水性・細胞増殖・
トライボロジー(潤滑・摩擦など)などが挙げられる
Generation of bioinspired structural colors via two-photon
polymerization
Laser-induced periodic surface structures—a scientific evergreen
(IEEE Journal of Selected Topics in Quantum Electronics 2017: Bonse, J{"o}rn and H{"o}hm, Sandra and Kirner, Sabrina V and Rosenfeld, Arkadi and Kr{"u}ger, J{”o}rg)
201713119 山本健太 #2 (鬼コース)
モルフォ蝶の構造のようなものを2-photon polymerization
(2PP)で作成する
ポリマー使ってるから,複雑な手順なしに3次元的に構造が
作れる
3次元的に作るためにポリマー使用するのと,レーザー加工
の手法
実際に作ったもののSEMと色検証
ポリマー使って3次元の問題解決はどれくらい嬉しいのかよ
くわかんない
Electrically and electrohydrodynamically driven phase
transition and structural color switching of oligomer
tethered 2D colloid
Generation of bioinspired structural colors via two-photon polymerization
(Scientific reports 2017, Zyla, Gordon and Kovalev, Alexander and Grafen, Markus and Gurevich, Evgeny L and Esen, Cemal and Ostendorf, Andreas and Gorb, Stanislav)
201713119 山本健太 #2 (鬼コース)
電圧などを変えることで,結晶の向きを変えて(液晶的),
構造色のスイッチングを実現
alpha zirconium phosphateを使って綺麗に構造色のスイッチ
ングを実現した点
コロイド状のalpha zirconium phosphateの形状と電荷をどう
かけるかの設計論
実際にかける電圧などを変えたりして,結果を見たり
どれくらい自由度高いのだろうか
Programming Nanoparticles in Multiscale: Optically
Modulated Assembly and Phase Switching of Silicon
Nanoparticle Array
Electrically and electrohydrodynamically driven phase transition and structural color switching of oligomer tethered 2D colloid
(RSC Advances 2018, Masud, Aurangzeb Rashid and Hong, Seung-Ho and Shen, Tian-Zi and Shahzad, Amir and Song, Jang-Kun)
201713119 山本健太 #2 (鬼コース)
ナノパーティクルのパターンを,パルスのエネルギーや変更
などによって調整
ナノパーティクルを正確に調整できて,位相も変えれるとこ
ろ
レーザーのパルスや,2回目加工など(正確にはわかりきっ
てない)
実際に作ってSEM含め計測
静的に?位相変えれるとどう嬉しいのか
Laser-Induced Graphene by Multiple Lasing: Toward
Electronics on Cloth, Paper, and Food
Programming Nanoparticles in Multiscale: Optically Modulated Assembly and Phase Switching of Silicon Nanoparticle Array
(ACS nano 2018, Wang, Letian and Rho, Yoonsoo and Shou, Wan and Hong, Sukjoon and Kato, Kimihiko and Eliceiri, Matthew and Shi, Meng and Grigoropoulos, Costas P and Pan, Heng and Carraro, Carlo and others)
201713119 山本健太 #2 (鬼コース)
グラフェンをCO2レーザーによって衣服や紙,食べ物に刻印
する
シングル光路でdefocusメソッドを使うことで実現した点
defocusにすると物体への当たり方が変わるので,それを用
いることで1つの光路でのレーザー加工を実現した
実際に作成し,SEMと実物の確認
グラフェンを食べ物に刻めると何が嬉しいのか
食べ物の制約はどれくらいあるのか
Holographic Resonant Laser Printing of metasurfaces using
plasmonic template
Laser-Induced Graphene by Multiple Lasing: Toward Electronics on Cloth, Paper, and Food
(ACS nano 2018, Chyan, Yieu and Ye, Ruquan and Li, Yilun and Singh, Swatantra Pratap and Arnusch, Christopher J and Tour, James M)
201713119 山本健太 #2 (鬼コース)
プラズモンのテンプレにレーザーでメタ表面を作ること
ホロパターンをうってるっぽい?(Fresnel Zone Plateとの比較がよく出てき
た)
SLMまで使って結構光学のセットアップが重い
SLM使って簡単に?回折レンズ?を作っている点?
実際に作ったものの撮影
これができると何が嬉しいのかよくわからなかった
Light-Induced Tuning and Reconfiguration of Nanophotonic
Structures
Holographic Resonant Laser Printing of metasurfaces using plasmonic template
(ACS Photonics 2018, Schultz Carstensen, Marcus and Zhu, Xiaolong and Esther Iyore, Oseze and Mortensen, N Asger and Levy, Uriel and Kristensen, Anders)
201713119 山本健太 #2 (鬼コース)
ナノフォトニック構造へのレーザー加工系のReview論文
1. 可逆性のある変化を弱レーザー加工で生成
2. 可逆性のない変化をレーザー加工で生成
可逆性のある加工を施すことができることに驚き
Hydrodynamic rotating motion of micromotors from
femtosecond laser microfabrication
Light-Induced Tuning and Reconfiguration of Nanophotonic Structures
(Laser Photonics Reviews 2017: Makarov, Sergey V and Zalogina, Anastasia S and Tajik, Mohammad and Zuev, Dmitry A and Rybin, Mikhail V and Kuchmizhak, Aleksandr A and Juodkazis, Saulius and Kivshar, Yuri)
201713119 山本健太 #2 (鬼コース)
レーザー加工でマイクロタービンを生成
チルトの角度やブレードの長さ・数を生成時に調整すること
ができる
ダイレクトフェムトレーザー加工でタービンを直接作れる
しかも生成のパラメータも持てる
実際に作って,撮像して,流体に流れを発生させて回ること
の検証
3次元形状をこんなに正確に作るための具体的な手法は?(説
明は少なかった)
Complex dewetting scenarios of ultrathin silicon films for
large-scale nanoarchitectures
Hydrodynamic rotating motion of micromotors from femtosecond laser microfabrication
(Sensors and Actuators B: Chemical 2018, Guan, Wei and Lv, Chao and Xu, Yi-Shi and Yu, Yan-Hao and Xia, Hong and Niu, Li-Gang and Liu, Sen and Wang, Gong and Wang, Ying-Shuai and Sun, Hong-Bo)
201713119 山本健太 #2 (鬼コース)
単結晶の薄いフィルムの複雑なdewettingを完全にコント
ロールする
めちゃ薄いシリコンフィルムのdewettingを完全にコントロール
して,単結晶のナノ構造をいろんなパターンでdewettingさせた
(理解できませんでした)
実際に作ったものの撮像及び変化の計測
もっともよくわからなかった(読む論文ミスった)
Optical Field Enhancement in Au Nanoparticle-Decorated
Nanorod Arrays Prepared by Femtosecond Laser and Their
Tunable SERS
Complex dewetting scenarios of ultrathin silicon films for large-scale nanoarchitectures
(Science advances 2017, Naffouti, Meher and Backofen, Rainer and Salvalaglio, Marco and Bottein, Thomas and Lodari, Mario and Voigt, Axel and David, Thomas and Benkouider, Abdelmalek and Fraj, Ibtissem and
Favre, Luc and others)
201713119 山本健太 #2 (鬼コース)
金のナノパーティクルのdecorationを,フェムトレーザー加工で準備したナノ
ロッドアレイに施した(金ナノロッドの生成)
そして表面増強ラマン散乱を可変なものにした
フェムト加工でナノロッドを作っといてそこに金を焼きなま
しで付着させる
空気中でシリコンに加工→水中でまた加工,でナノロッドを
作り,そこに金のナノパーティクルをつけていく
実際に製造プロセスを通して,SEM撮像検証
金ナノロッドのアプリケーションの広さは
Superhydrophobic and colorful copper surfaces fabricated
by picosecond laser induced periodic nanostructures
Optical Field Enhancement in Au Nanoparticle-Decorated Nanorod Arrays Prepared by Femtosecond Laser and Their Tunable SERS
Applications
(ACS applied materials interfaces 2017, Cao, Wei and Jiang, Lan and Hu, Jie and Wang, Andong and Li, Xiaowei and Lu, Yongfeng)
201713119 山本健太 #2 (鬼コース)
FaceShop: Deep Sketch-based Face
Image Editing
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
GAN.スケッチベースでユーザーが直感的に画像
を編集することができるような顔画像編集のため
の新規システム
ニューラルネットワークを画像補完と画像変換の
二つの同時タスクで訓練
インタラクティブな画像編集のためのフレームワー
クで↑を最初にやった
インプット画像にマスクをかけてユーザーの入力
情報が不完全であったときの再現をしても生成に
成功した 自動構築と画像補完がどちらも高品質
将来的にはより高解像度かつ多様なデータセット
で訓練を行いたい
Siggraph’18
Ftma18


どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
ディープニューラルネットワークを使用して入力
安静からそれに同期したスピーチアニメーション
を生成
音素ラベルの入力シーケンスから口の動きまでの
任意の非線形マッピングを学習するスライディン
グウィンドウ予測子を使用
新たに入力された音声に対応することが可能
既存の手法との互換性がある
テスト済みのスピーカーについての定量評価と全
く新しいスピーカーに対する主観評価(ユーザー
スタディ)
細やかな感情を表現するにははるかに大きなスケー
ルのニューラルネットワークを訓練しなければな
らず費用対効果の高い包括的なデータセット必要
Siggraph’17
Ftma18
A Deep Learning Approach for Generalized
Speech Animation


どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
リアルタイム顔面モーションキャプチャとアイト
ラッキングを用いてVRでビデオ会議を可能にす
る画像ベースの手法
単眼画像からリアルタイムで顔のアニメーション
を再構成
アニメがリアル
実際のビデオと合成された出力との間の色差の定
量評価(顔面下部)と、専門家18人のユーザー
スタディ
アニメーションにおける頭部の動きが固定される
ので、髪の毛を含むアクターの背景の再合成の研
究が必要
次のスライドの論文(この著者の今年の
SIGGRAPH)のやつが読みたかったけどアブスト
しか見つからなかった、動画はあった
Ftma18
Siggraph’17
FaceVR: Real-Time Gaze-Aware Facial
Reenactment in Virtual Reality


どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
胴体、頭部、表情、視線のリアルタイム再現が可
能な肖像画ビデオの生成
ソースアクターの頭部の動きと胴体の動きをロバ
ストに追跡.ソースアクターの動きをターゲットア
クターにフォトリアスティックにマッピング
フルペーパー読む えて
Siggraph’18
Ftma18
HeadOn: Real-time Reenactment of
Human Portrait Videos


どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
静止画から自動的にアニメーションを生成する技
術 ビデオの顔の動きを静止画に対して適用し感
情表現を可能にする
素材となるビデオの動きを模倣する2Dワープを
利用して肖像画をアニメート.加えてこれだけで
得られないシワや口内などの情報追加.
ターゲットの画像は一枚だけでおk
インターネット上の肖像画を使用してアニメーショ
ンを作成 ユーザースタディ
頭部の動きは制限される.トラッカーの性能に左
右される.目を閉じた状態は再現しきれない,まあ
瞬きは高速なので問題ないとも言える.
Ftma18
Bringing Portraits to Life


どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
従来の顔認識技術が抱えていた横顔への弱さを解
消するための横顔トレーニングセット拡張アプロー
チ
従来は正面顔と横顔の訓練量が違いすぎていたの
で、特徴空間において等価なマッピングを実行し
てズレを解消
実装が簡単かつ軽量な、横顔へと対処アプローチ
をとっている点
横顔から特徴をマッピングして正面顔を再構成す
ることに成功した
Pose-Robust Face Recognition via Deep
Residual Equivariant Mapping
Ftma18


Fast Deep Matting for Portrait Animation on
Mobile Phone
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
モバイル機器のためのリアルタイム自動ディープ
画像マッティイングとそれに基づくアニメーショ
ン生成
DNNが画像セグメンテーションを行うブロック
と予測された粗いバイナリマスクを精緻に直すフェ
ザリングブロックで構成
高速ディープ画像マッティングネットワークがモ
バイルで実装可能
CPUおよびGPUで動作させ処理速度を計測
この手法では入力画像をダウンサンプリングして
いるため髪の毛などの細かい部分に関しては無理
どうやって有効だと証明した?
#FTMA18


芸術表現のテクスチャを保持しながら元となるビ
デオと位置合成しポートレイトアニメを生成する
ニューラルネットワークベースのスタイル転送
フォトスタイルのペアが与えられると自動的にテ
クスチャ合成のフレームワークへの入力として使
用できるガイディングチャンネルを自動生成
選択された芸術的メディアの細かいテクスチャを
保全できる
先行研究との比較を行いこの手法が以前の手法の
欠点を改善したいることを証明する
額のシワや口髭など重要な意味を持つ線形情報を
うまく分離して扱いしきれない
Example-Based Synthesis of
Stylized Facial Animations
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
SIGGRAPH 2017
#FTMA18


非単眼単数映像(インターネット映像など)を用
いて顔の演出を自動的に採取し再構成するシステ
ム
顔を直接キャプチャーするのは困難なのでビデオ
ベースでキャプチャーし再構成
顔の特徴と影の情報の双方を再構成に利用
顔の再構成の正確性が大幅に向上した
インターネット上の動画でシステムをテストした
ところ制御されていない照明下でも個人間の形状
差は克服できた 先行研究との結果比較
髪の毛、メガネ、手や他のファクタによって阻ま
れると区別できない
Automatic Acquisition of High-fidelity
Facial Performances Using Monocular
Videos
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18


人間の動作の4D(3Dplus時間)スキャニング
データセットの作成 
http://dfaust.is.tue.mpg.de. ここで使えるよ
短距離レンジと長距離レンジの組み合わせ
テクスチャ情報を利用してジオメトリベースの手
法を拡張
シンプルかつ正確かつポータブル
実物のスキャンとその内部の真実を同時に提供す
るデータセットはこれが初
表面から1mm以上の幾何学的なエラー,客観的な
本物と比較した時のイメージのエラー,動きの一
致性を定量評価としてラベル付け
Dynamic FAUST: Registering Human
Bodies in Motion
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18
CVPR 17
各衣服を自動的に分割し、身体の最低限のモデル
を生成し、時間経過ごとの服の変形を追跡
動く洋服の高解像度3Dスキャン
服のシュミレーションから衣服の取り込みへ考え
をシフト.3Dスキャンに適合する新規のマルチメッ
シュ表現を導入.衣服のセグメンテーション
衣類のセグメンテーションとモデルの体型に焦点
を当てたターゲット変更→仮装試着が可能
多様な衣服の分析、ターゲット変更、体型変更、
キャプチャしたドレスのデータセットを利用、一
枚の画像から衣服を生成 以上を実行した
ボタンや襟などに特徴がある複雑な衣服、スカー
トやネクタイなど体の動きと必ずしも一致しない
もの、体と部分的にしか接しない服など課題
ClothCap: Seamless 4D Clothing
Capture and Retargeting
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18
SIGGRAPH 2017


The Noh mask effect: vertical viewpoint
dependence of facial expression
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?能の伝統に熟達した俳優が装着するフルフェイス
マスクは頭の動きが変化すると様々な表現効果を
誘発することが出来る
日本とイギリスの視聴者に対してユーザースタディ
を行いこの効果を検証した
ユーザースタディの結果からこの効果は文化によっ
て調整されていることがわかった
レーザーでの解析に文化的な意味はない
異なる文化に属する集団に対して調査を行った
3Dレーザースキャンを用いて能面の内部の表情
を解析し分析に役立てようとした
#FTMA18
どんなもの? 技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
3種類の能面を用いて陰影がもたらす表情認知へ
の影響を調査
増, 中將, 深井の三種類の能面を正面、横、
上、下の4方向から100w電球で照射し撮影。大
学生148名にユーザースタディ
能面の表情認知における陰影の効果
Ftma18


単一のRGBカメラを用いて人間の完全な3D骨格
ポーズをリアルタイムにキャプチャーする
CNNに基づく2Dと3Dの関節位置の回帰と運動
学的スケルトンフォッチングを組み合わせる
低品質なRGBカメラでもおk
カメラの性能と計算時間の長さという二つの問題
に効果
最先端のオフラインのRGBカメラを用いた手法
と比較した
VRとかコンピューターゲームのインタラクショ
ンとかに使える
2Dジョイントはズレが生じることあり問題
VNect: Real-time 3D Human Pose
Estimation with a Single RGB Camera
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18
SIGGRAPH 17


単眼RGBカメラのみのシーケンスに基づくリア
ルタイム3Dハンドトラッキング
cycleGANを用いて合成画像を変換して実際の手
画像に沿う統計分布を有する「実」画像を生成し
regnetの訓練に使用
ハンドトラッキングにおいてRGBの手法で現在
の最先端手法を上回るパフォーマンスを発揮
現在の最先端手法との出力結果比較
RegNetが良い予測を得るために苦労するとトラッ
キングが不安定になるがセグメンタ導入で対処可
複数の手が接近しているとセグメント不可信頼
GANerated Hands for Real-Time 3D Hand
Tracking from Monocular RGB
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18


マルチカメラアプローチを用いて手の関節のよう
な閉塞しやすいキーポイントに関する検出器を訓
練する
マルチカメラビューを用いて複数の視点でノイズ
の多いラベルを製作し豊富なデータセットを構築
在野のRGB画像を用いてトラッキングが可能
深度を用いるアプローチと互換性のあるデータセッ
トを用いて制度を比較
手が隠れていると検出器がオーバーヒート
Hand Keypoint Detection in Single Images
using Multiview Bootstrapping
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18
FCNNに画像ピクセルからテンプレートグリッド
へのマッピングを学習させ回帰問題として定式化
在野の画像の形状分析、変形に利用
訓練されたCNNを用いてフィードフォワード形
式でマッピング情報を再構成
耳とかも図れるし体のパーツの分類もできる
State of the art のセグメンテーション手法との
出力結果比較
顔以外の人間の身体に関連する作業に対しても簡
単に応用できる
ペーパーではアプリが豊富な顔に焦点
DenseReg: Fully Convolutional Dense
Shape Regression In-the-Wild
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
#FTMA18


どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
まとめ系の論文
State of the Art on Monocular 3D Face
Reconstruction, Tracking, and Applications
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
機械学習ベースのソフトセグメンテーションによっ
て現在アーティストに依存している画像編集にお
ける選択と合成を行う
きちんと編集に役立つような意味のある境界を生
成することができる
ディープニューラルネットワークからの高いレベ
ルの情報を入力画像のローカルなテクスチャー情
報と融合させる
実際に犬の画像を編集して背景を変えてみた
正確なソフトセグメンテーションを行うことがで
きるが速度が遅い 
Semantic Soft Segmentation
Siggraph’18
Ftma18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
ニューラルネットを用いて画像の交差点の特徴量
を解析して画像間の対応関係を検出.応用すると
キマイラの画像とか作れる
あらかじめ訓練された分類ネットワークによる
ディープ特徴マップに基づく
各レベルで検索領域を絞り込み
人間による対応関係検出と非常に近い動作ができ
る
代替研究との比較とユーザースタディ
分類以外のタスクのために訓練されたネットワー
クでの実装も行いたい
Neural Best-Buddies: Sparse Cross-
Domain Correspondence
Siggraph’18
Ftma18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
オフラインの波形データを利用したコンピューター
アニメーションのための音声合成
アコースティックな音響グリッドを使用
大規模なインターフェースを使用
複雑な現象に対して音を合成でき水の音とか綺麗
に表現できる
ものすごい沢山エフェクトがかけられる
先行研究とこの手法で同じものを出力して結果を
比較
遅いという最大の問題がある
Toward Wave-based Sound Synthesis for
Computer Animation
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
様々なキャラクターに所望の動作を行わせる学習
ベースのキャラクターアニメーション
モーキャプで撮ったスピンとか高度な動き出来る
アーティストやモーションキャプチャの俳優が基
準動作のデータセットを提供、そこから現実的な
動作を生成
学習ベースで自然な動きを実現.複数のクリップ
を統合して複数のスキルを実行できる
いろんなキャラで動かせる
完全な手法と一部のコンポーネントを無効にする
代替えのトレーニングスキームを用いて結果を比
較
位相変数を基準動作と同期させる必要があるので
動作のタイミングを調整する能力が制限
学習に時間がかかる
DeepMimic: Example-Guided Deep
Reinforcement Learning of Physics-
Based Character Skills
Siggraph’18
Ftma18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
キャプチャーした動きをコントロールするための
ニューラルネットワーク
動きを予測するネットワークとゲーティングネッ
トワークを合わせたもの
モーションキャプチャのデータを用いたend to
endの機械学習.動き予測のネットワークとゲー
ティングネットワークを合わせた
動きが正確
特に後ろ足の動きが自然
モーション制御の機能を持つ他のフレームワーク
と出力結果を比較
また重み付けの変化を記録した
データセットの特徴上簡単な動作を合成するのに
は向いているが箱から飛び降りるなどのダイナミッ
クな動作には向かない
Mode-Adaptive Neural Networks for
Quadruped Motion Control


GhostID:Enabling Non-
PersistentUser Differentiation in
Frequency2Division Capacitive
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
信号ゴーストを解析して同時に画面に触れたいる
指の所有先を区別できる
周波数多重分割によって容量を測定
外部のハードウェアに依存せずセンサ自体がタッ
チを区別できる
一人のユーザー二本の指、2人2本、2人3本、3
人3本で実験して高い正確性を得た
外部ハードウェアに依存しないとゴースト情報だ
けではユーザーを区別して割り出すところまでは
無理
どうやって有効だと証明した?
FTMA18
UIST 2017


様々な物体へのタッチ入力を可能にする低コスト
な検出技術
安価な導電性材料と協調して電界トモグラフィー
を使用
大きくて不規則なものにも適用可能
容易かつ安価
14名の参加者を集い電極数、材料、表面形状な
どの要素を変更してセンシング技術と追跡技術の
テストを行った
Electrick: Low-Cost Touch Sensing
Using Electric Field Tomography
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
環境要因による電磁ノイズがトラッキングの性能
に影響
あまり小さいと電流の量が小さくなり質低下
FTMA18
UIST 2017


指に取り付けた震動センサとスクリーン応答を検
出するためのフォトダイオードを使ってレイテン
シを測定及び提示
指と画面に装備するハードウェアを使用
ソフトウェアと組み合わせる
訓練がいらない
Windows と Mac osx と ubuntu の有名な
ホストコンピュータ3つで動作させた
ヘルツ数や言語なども維持いて影響を検証した
他の手法と組み合わせることでシナジーを生む
Characterizing Latency

in Touch and Button-Equipped Interactive
Systems
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
FTMA18
UIST 2017


現在アーティストが行なっているアニメーション
への二次的なモーション追加をイラストのキャラ
クタの動きを伝播することによって行う
動かすのが簡単
ユーザースタディを行い魅力的な二次的アニメー
ションを作成するのに役立つことを示した
異なるポーズまたはポジションにあるキャラクター
を二次なアニメーションに取り込むにはまだ研究
が必要
Secondary Motion for Performed 2D
Animation
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
UIST 2017
FTMA18
キャラクタの異なるパーツ間で自動的にモーショ
ンを伝播するリグのセットを定義
初心者とプロの双方が素早くマススケールの物質
を合成できる学習ベースのシステム
リアルタイムで高品質の画像予測によりレンダリ
ングに40から60秒かかる問題に対処.三つのアル
ゴリズムを組み合わせて可能性を拡張
レンダリングが素早い
直感的にマテリアルを選択できる
予測と実際のレンダリングの差異を視覚化して検
証
将来的には学習アルゴリズムの組み合わせや容量
などで精度がさらに上がることを期待
Gaussian Material Synthesis
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
FTMA18
SIGGRAPH 18


Interactive Sound Rendering on Mobile
Devices using Ray-Parameterized
Reverberation Filters #FTMA18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
動的なシーンに対して妥当なサウンドを生成する
ことのできる新たなサウンドレンダリングパイプ
ライン.VR、ARの現実感を高めるのとかに使え
る
畳み込みベースではなく人工的な空間残響をベー
スにしている
スマホに動的な音声伝播効果を与えることのでき
る最初のアプローチ
畳み込みベースのレンダリングよりも早い
伝統的な手法とこの手法のそれぞれについてデス
クトップでの動作を比較した.
かかる時間的コストが圧倒的に少ない
畳み込みベースではなく人工的な残響を利用して
いるためにヘルツ数が低い部分に対してパフォー
マンスの細やかさと鋭さが足りない
Wavenetもう少しちゃんと読み込みたいと思っ
た
CARL SCHISSLER, DINESH MANOCHA, University of North Carolina at Chapel Hill


SweepCanvas:

Sketch-based 3D Prototyping on an RGB-D
Image
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
エンドユーザーにとってインタラクティブなスケッ
チベースの3Dモデリングツール
RGB-D情報を活用して平面解析情報からユーザー
の描いたストロークを3Dに固定.MRFベースの
最適化により2つのストロークから迅速に3Dプ
レーンを生成
面倒な専門技術を必要とせず直感的でエンドユー
ザーにとって使いやすい
8人のユーザーに他の4つの手法も含めてモデリ
ングを行ってもらい結果とかかった時間を比較
今後は様々なメディアに対して試したい
どうやって有効だと証明した?
UIST 2017
FTMA18


単眼カメラを用いた被写体にピントが合っている
ように見える範囲が広いリアルタイムトラッキン
グ技術
マーカーによる追跡だけでは精度が低いのでフレー
ム間アライメントと高密度ポーズリファインメン
トを組み合わせる
容易に入手可能で組み立てやすい部品を用いてい
る
複数のカメラを用意しなくておk
2Dのお絵かきにも3Dのお絵かきにも応用でき
る
DodecaPen: Accurate 6DoF Tracking
of a Passive Stylus
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
UIST 2017
FTMA18
合成データセットと実データセットの両方を用い
いてトラッキングをデスクトップで動作させ
optitrackモーションキャプチャシステムと比較


ユーザーが360 ビデオの中にある重要なコンテ
ンツ全てを捉えられるようにカットごとに視界を
調整する ボタンで調整可
ビデオの中にある重要なコンテンツの位置を示す
ラベルを作成
重要なコンテンツは複数あることが多いがそれを
全て横断できるアプローチ
4つの新しいビデオを含む11のビデオについて、
ショット調整を行うために必要なショット境界の
判別を確認
現時点ではショットの方向しか考慮していないが
他のことについてもやりたい
向いてる時だけコンテンツが再生されたりとか
Shot Orientation Controls for Interactive
Cinematography with 360o Video
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
FTMA18


VRで高解像度なパノラマ映像をズームして探索
する方法
視野の中央に画像を拡大した視覚的FOVを制限
し領域の外に拡大されていない媒体を加えること
でシュミレータのエラーを抑える
ズームしても動きの問題が大きく発生しない
ユーザーが180秒間の間にターゲットを見つけら
れるかテストしてみた
高解像度だと隠れ驚き要素とか入れられて表現の
幅が広がる
Panning and Zooming High-Resolution
Panoramas in Virtual Reality Devices
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
FTMA18
360 画像で視界の外にある関心度の高いコンテ
ンツをpicture in picture で表示
PIPの位置及び向きをROI(region of
interesting)の方向を示すために利用
深度計測
ROIをf¥画面い表示させるための最小化された
アプローチ
Picture in picture のあるなしでユーザースタディ
し、ユーザーの情報受容度を調査
ビデオの複雑性がとても上がるとあんまり効果な
くなる
Outside-In: Visualizing Out-of-Sight
Regions-of-Interest in a 360 Video Using
Spatial Picture-in-Picture Previews
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
次に読むべき論文は?
どうやって有効だと証明した?
FTMA18
UIST 2017
DeepHolo: Recognizing 3D Objects using a
Binary-weighted Computer-Generated
Hologram
Naoya Muramatsu University of Tsukuba Pixie Dust Technologies, Inc. sh.mn.nat@gmail.com Chun Wei Ooi University of Tsukuba made3102@gmail.com Yoichi Ochiai University of
Tsukuba Pixie Dust Technologies, Inc. wizard@slis.tsukuba.ac.jp Yuta Itoh University of Tsukuba s1711428@s.tsukuba.ac.jp
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
ポイントクラウドモデルから再構成されたコン
ピューター生成ホログラムを扱うDNN.3D点群
フォームを2Dデータとして処理できる
3Dピクセルクラウドモデルを2Dホログラムデー
タに変換するCGHプログラムの実装
特徴を取得するパラメーターを取り払うことがで
きるため関連研究の比べてネットワーク内におい
てはるかにスペース効率が良い
いくつかのDNNと認識結果を比較.
体積測定、多視点、ピクセルクラウドモデルにお
ける代表的なセットと比較.
CGHがフルHDででかい
ホログラムサイズを圧縮した
	
#FTMA18


Convolutional neural network-based
regression for depth prediction in digital
holography #FTMA18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
Tomoyoshi Shimobaba Graduate School of Engineering Chiba University1-33 Yayoi-cho, Inage-ku, Chiba, Japan shimobaba@faculty.chiba-u.jp Takashi Kakue Graduate School of Engineering
Chiba University1-33 Yayoi-cho, Inage-ku, Chiba, Japan t-kakue@chiba-u.jp Tomoyoshi Ito Graduate School of Engineering Chiba University

1-33 Yayoi-cho, Inage-ku, Chiba, Japan itot@faculty.chiba-u.jp
補足されたホログラムから3次元空間内の物体を
再構成するデジタルフォトグラフィに必要な深度
位置の予測をCNNベースの回帰を用いて行う
ホログラムデータセットではなくスペクトルデー
タセットを用いる
ミリ単位で測れる
分類問題ではなく重回帰問題を解くので予測深度
が離散値ではなく連続値となる
ホログラムデータセットを用いたところ予測深度
平均誤差は50mmだったがスペクトルデータセッ
トを用いると7.2mmだった
これからは異なる位置にある複数の対象物の深度
を計測する予定
A Novel Hybrid Biometric Electronic
Voting System: Integrating Finger Print
SYED SHAHRAM NAJAM*, AAMIR ZEB SHAIKH*, AND SHABBAR NAQVI**
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
新たな投票システムの実装のための2つの投票者
検出技術 抽出した特徴ベクトルをデータベース
に登録してあるバイオデータと比較
指紋認証と顔認証の二つ組み合わせることで正解
率をカバー
実際に発展途上国の投票システムに応用できそう
それぞれについて検証実験したところ正解率がど
ちらも90%を超えた
暗号化アルゴリズムを導入してセキュリティを組
み込まないといけない
#FTMA18


Joint Material and Illumination Estimation
from Photo Sets in the Wild
Tuanfeng Y. Wang Tobias Ritschel Niloy J. Mitra University College London, UK
#FTMA18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
ネット上の画像を利用した2Dイメージ画像の照
明、形状、材料の操作 反射の最適化
応用して画面に新しく椅子を出せたりする
同じ照明の下にある様々な素材の画像と違う照明
の下にある同じ素材の画像を使用.合成画像で訓
練されたニューラルネットワークの最適化
ネットの画像を使用している
同様の手法とユーザースタディで満足度を比較し
た.
広い部屋の画像使うと誤差が出やすい
入力測定値のサンプル数が限られていると照明の
見積もり自体が不自然に見えることがある     
オブジェクトが近すぎると変な影が出る
Leaked Light Field from Everyday
Material: Designing Material Property
Remained Light-field Display
Kazuki Takazawa1∗
Kenta Suzuki1
Shinji Sakamoto1
Ryuichiro Sasaki 2
Yoshikuni Hashimoto2
Yoichi Ochiai1
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
石、木材、鏡などの不透明材料を表示面として使
用できるようにする
テキストを入力してください
テキストを入力してください
テキストを入力してください
テキストを入力してください
人間の目には見えない10μmのピンホールを使
用しピンホールディスプレイを実装
#FTMA18
Materialization of Motions: Tangible
Representation of Dance Movements
for Learning and Archiving
Mose Sakashita University of Tsukuba mose.sakashita@gmail.com Kenta Suzuki University of Tsukuba Ikuzus.atnek.0626@gmail.com Keisuke Kawahara University of Tsukuba
kawahara@ai.iit.tsukuba.ac.jp Kazuki Takazawa University of Tsukuba 1220kazu1412@gmail.com Yoichi Ochiai University of Tsukuba wizard@slis.tsukuba.ac.jp
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
どうやって有効だと証明した?
次に読むべき論文は?
ダンスの動きをカメラを用いて3D的にキャプチャ
し一定のテンポごとに人間の動きを有形の人形を
用いて表現 ダンスの学習に役立てる
キネクトカメラを使って各関節のx、y、z三次元
空間的位置を取得
3Dプリンターの出力を人間の動きを客観的に捉
えることに利用し学習に役立てた
動きとテンポの関係性を利用
実際に出力してみたらできた
(ポスターしか見つからなかったからここよくわ
からぬ、、)
#FTMA18
SIGGRAPH 2017
ダンスの動きは複雑だから音楽のテンポと動きの
振り付けの関係性を利用した
3D skeleton-based human action classification: A
survey なんだけど有料で読めない、つらい


Dual Deep Network for Visual Tracking
Zhizhen Chi, Hongyang Li, Student Member, IEEE, Huchuan Lu, Senior Member, IEEE, and Ming-Hsuan Yang, Senior Member, IEEE #FTMA18
どんなもの?
同じ構造を持ち別の重み付けで訓練された二つの
ネットワークを用いてヴィジュアルトラッキング
においてターゲットとなるオブジェクトをより明
確に判別する
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
パッチを使ってトレーニングデータを増強して学
習を効率化 
ロー・ハイを担う2つのネットワークによるセル
フ教師付き学習
曖昧な境界や背景からターゲットとなるオブジェ
クトをより明確に区別できるようになった
実際に動作させ定量評価を大量に行った
CNNは事前の訓練に依存していたり、ターゲッ
トのテクスチャをちゃんと認識していなかったり、
周りの似ているものと区別できなかったりする。
これを解決したかった
うーん


Deep Learning for Action Recognition in
Augmented Reality Assistance Systems
Matthias Schröder Neuroinformatics Group, Bielefeld University maschroe@techfak.uni-bielefeld.de Helge Ritter Neuroinformatics Group, Bielefeld University helge@techfak.uni-bielefeld.de
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
ARヘッドマウントディスプレイの開発のために
ユーザーの行動から抽出したデータセットをディー
プに突っ込みフィードバックする
大規模なデータベースの構築に加えてモバイル化
したいのでCNNをサイズと効率において最適化
したい
実際に動作させたら文脈依存のフィードバックが
有効であることを多くの研究者が認めた
ローカルな対象認識からのトラッキングとグロー
バルな文脈依存でどうやったらうまく動作するか
のフィードバックを組み合わせる
ユーザーのアクションからフィードバックすると
いうアプローチ方法
Deep Appearance Maps (2018)とか
#FTMA18


先行研究と比べて何がすごい?
Deep Appearance Maps
Maxim Maximov
1
, Tobias Ritschel
2
, Mario Fritz
11
Max Planck Institute for Informatics, Saarland Informatics Campus
2
University College London
どんなもの?
技術や手法のキモ
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
#FTMA18
反射率や照明パラメータを抽出するのではなく外
観を直接表現するディープニューラルネットワー
クで柔軟に外観を表現したい
ピクセルベースのレンダリング、再構成を使用し
ないことによって素材を柔軟に表現することがで
きる
外観そのものを表現しているので素材に関して寛
容
マテリアルを重視
関連研究で使用したネットワークと出力結果を比
較
ハイライトなどが大きく出ず自然だった
照明と反射の独立した制御を可能にして
より良い素材の編集に役立てたい
訓練されたアーティストのように新しい素材を使っ
たらどうなるかわかるようにしたい
Lake, B.M., Ullman, T.D., Tenenbaum, J.B., Gershman,
S.J.: Building machines 

that learn and think like people. Behavioral and Brain Sci.
40 (2017) 

WAVENET: A GENERATIVE MODEL FOR
RAW AUDIO
Aäron van den Oord Karen Simonyan Nal Kalchbrenner Sander Dieleman Oriol Vinyals Andrew Senior Heiga Zen†
Alex Graves Koray
Kavukcuoglu
#FTMA18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
生の波形を生成するためのディープニューラルネッ
トワーク 異なる声の特徴量を同等の忠実度で補
足、切り替えることができる 識別モデルにも使
える
計算量を大幅に増加させることなく、解像度を維
持しつつ需要野を拡張させた因果的畳み込みモデ
ル
学習の早い因果的畳み込みの特徴を生かしつつ計
算量は効率化されたまま需要野を拡張した
テキストとの紐付けなしの音声生成で言語には聞
こえないものの音声が生成出来特徴を捉えてい
た.TTSでユーザースタディした.定量評価するこ
とが困難であること認めつつ主観評価した
声の特徴だけでなく呼吸のタイミングや口の動き
などの特徴量も学習することがわかった.
2017,2018のサウンドの論文
SIGGRAPHとか
DeepWear: a Case Study of Collaborative Design
between Human and Artificial Intelligence
#FTMA18
Natsumi Kato* University of Tsukuba Hiroyuki Osone* University of Tsukuba Daitetsu Sato University of Tsukuba Naoya Muramatsu University of Tsukuba Yoichi Ochiai
University of Tsukuba University of Tsukuba Hiroyuki Osone* University of Tsukuba Daitetsu Sato University of Tsukuba Naoya Muramatsu University of Tsukuba Yoichi Ochiai
University of Tsukuba
どんなもの?
DCGANを用いて学習させたブランドの洋服の画
像データから特徴を学習し服のイメージを生成、
パターナーがそれをもとに服をデザインする人間
と人工知能の融合的クリエイティブ
議論はある?
どうやって有効だと証明した?
Amazonのプロジェクトみたいに機械だけでやろ
うとするとだとまだ着られる服にならない
マテリアル(素材)も特徴の再現にとって大切
元の服より某ブランドっぽいという評価出た
過去にマーケットに出た某ブランドの服と他のブ
ランドの服とこの研究で生成した服を比べてどれ
が某ブランドだと思うかユーザースタディ
Alec Radford, Luke Metz, and Soumith Chintala. 2015.
Unsupervised representation learning with deep
convolutional generative adversarial networks. 

技術や手法のキモ
GANの構造にDNNを適用したDCGANを用いて
生成した服のイメージ画像に基づきパターナー(人
間)が服のパターンを生成する
先行研究と比べて何がすごい?
人間を生成の過程に突っ込むことで実際に着られ
る服を作れる
次に読むべき論文は?
201810024 大森功太郎
NIPS2017
UNSUPERVISED REPRESENTATION LEARNING WITH
DEEP CONVOLUTIONAL

GENERATIVE ADVERSARIAL NETWORKS
どんなもの?
CNNを使った研究においてあまり注目されてい
ない教師なし学習を用いた研究
GANの構造にDNNを適用
抽出した特徴を使って生成を行うことができる.
技術や手法のキモ
最近発表されたCNN構造の変化系を用いること
によってDNNのGANへの導入を可能に
先行研究と比べて何がすごい?
DNNの構造を用いてGANの構造をアップデート
することに成功→教師なし学習に使える
議論はある?
まだモデルの不安定さが残り、モデルの訓練が長
くなるとフィルターのサブセットが単一の振動モー
ドに崩れる.
もっと安定したアーキテクチャが欲しい
どうやって有効だと証明した?
訓練されたDCGANと特徴抽出と画像生成を行う
類似のネットワークとのエラー値の起きさを比較
次に読むべき論文は?
LAPGAN(Denton et al., 2015) かな
#FTMA18
201810024 大森功太郎
Jun-Yan Zhu, Taesung Park, Phillip Isola, and Alexei A Efros.
Arxiv
Unpaired Image-to-Image Translation using Cycle-
Consistent Adversarial Networks
#FTMA18
先行研究と比べて何がすごい?
Pix2pixと異なり翻訳前の画像に対して対となる
画像を用意する必要なく変換が可能
技術や手法のキモ
GANを用いた画像と画像間のドメイン変換
1組の対訳が成立していなくても画像の変換が可
能
どんなもの?
Jun-Yan Zhu
∗
Taesung Park
∗
Phillip Isola Alexei A. Efros Berkeley AI Research (BAIR) laboratory, UC Berkeley
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
XtoYの変換とYtoXの変換を循環的に学習させる。
discriminatorでそれぞれの出力画像が生成先と
なる画像と区別がつかないかを判断し精度を上げ
て行く
pix2pixと同様のデータセットを用いて、先行の
GANの出力結果との定量比較を行った
クオリティが高かったのと対訳となる画像なしに
マッピングが出来た
Pix2pix P. Isola, J.-Y. Zhu, T. Zhou, and A.
A. 2017
色とテクスチャの変換が得意なのに対し幾何学的な変
換は苦手で馬に乗ってるプーチンまでシマウマ柄になっ
たり犬猫を変換しようとしてほぼ何も起こらなかった
りする。
201810024 大森功太郎
Arxiv
Towards the Automatic Anime Characters Creation
with Generative Adversarial Networks
Yanghua Jin School of Computer Science Fudan University jinyh13@fudan.edu.cn Jiakai Zhang School of Computer Science Carnegie Mellon University jiakaiz1@andrew.cmu.edu Minjun
Li School of Computer Science Fudan Univerisity Yingtao Tian Department of Computer Science Stony Brook University Huachun Zhu School of Mathematics Fudan Univerisity
minjunli13@fudan.edu.cn yittian@cs.stonybrook.edu zhuhc14@fudan.edu.cn Zhihao Fang Department of Architecture Tongji Univerisity fangzhihao126@gmail.com
#FTMA18
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
どうやって有効だと証明した?
次に読むべき論文は?
アニメキャラの顔画像データセットに特化した
GANの訓練方法の提唱
自分のカスタムキャラを作りたい
適切なGANモデルから抽出したクリーンなデー
タセット
先行研究は解像度が低かったりぼやける
それに比べてクリーンな画像生成
解像度はまだまだ改善の余地あり
トレーニングデータのラベル分布が等しい場合の
シナリオを考え不安定である場合のバイアスに繋
げる
実際に出力
201810024 大森功太郎
Arxiv
Deep Generative Image Models using a
Laplacian Pyramid of Adversarial
#FTMA18
Emily Denton
∗
Dept. of Computer Science Courant Institute New York University Soumith Chintala
∗
Arthur Szlam Rob Fergus Facebook AI Research

New York
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
議論はある?
どうやって有効だと証明した?
次に読むべき論文は?
自然画像の高品質サンプルを作成することのでき
る生成モデル
画像の構造をより尊重するためにGANの手法を
変更し質的に優れたサンプルを生成
条件付きGANモデルの形式を利用
生成されるサンプルの質が高い
実際に出力しユーザースタディ
マルチスケール構造は他の研究のアプローチに恩
恵を与える可能性がある
201810024 大森功太郎
Arxiv
#FTMA18
201810024 大森功太郎
どんなもの?
技術や手法のキモ
先行研究と比べて何がすごい?
どうやって有効だと証明した?
議論はある?
次に読むべき論文は?
GANを利用した低解像度の画像から高解像度の
画像を生成するの生成ネットワーク
生成画像と現実との乖離を唯一の最適化対象とす
る.
より深いネットワークを使用する
単純に解像度が高い
広範囲のMOSテストを適用した結果最新の関連
手法による再構成よりも現実的な再構成であった.
従来のPSNRに焦点を当てた画像超解像には限界
がある
こちらの手法の方が現実的
Photo-Realistic Single Image Super-
Resolution Using a Generative
Adversarial Network
Christian Ledig, Lucas Theis, Ferenc Huszár, Jose Caballero, Andrew Cunningham, Alejandro Acosta, Andrew Aitken, Alykhan Tejani, Johannes Totz, Zehan Wang,
Wenzhe Shi
Arxiv
Full 3D Reconstruction of Transparent Objects
Bojian Wu, Yang Zhou, Yiming Qian, Minglun Gong, Hui Huang
どんなもの?
次に読むべき論文は?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
どうやって有効だと検証した?
透明なオブジェクトの3次元の形状を自動的にモデル化する手法。
201813559 池畑 開斗 #2 (仏コース)
最初にオブジェクトの大まかな形状をモデル化したラフモデルを
作成し、オブジェクトと交差する光線の対応関係を用いて、ラフ
モデルを最適化していく。
モデル化したものと、実際のオブジェクトとの表面の距離の誤差
を計測した。
SIGGRAPH 2018
従来研究では透明なオブジェクトの2つの面の点群を生成すること
は出来たが、その形状は不完全だった。この手法では、完全な3D
モデルを復元することができる。
中空の透明なオブジェクトは処理できない。
オブジェクトに対して、光線の屈折の回数が増えると誤差が大き
くなる。
Qian et al. 3D Reconstruction of Transparent Objects with
Position-Normal Consistency. [2016]
MonoPerfCap: Human Performance Capture from Monocular Video
WEIPENG XU, AVISHEK CHATTERJEE, and MICHAEL ZOLLHÖFER, Max Planck Institute for Informatics
HELGE RHODIN, EPFL
DUSHYANT MEHTA, HANS-PETER SEIDEL, and CHRISTIAN THEOBALT, Max Planck Institute for Informatics
どんなもの? どうやって有効だと検証した?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
201813564 土屋優馬 #2 (仏コース)
SIGGRAPH 2018
単眼カメラで撮影された映像を基に,人間のポーズ
から着用する衣服までを3D再構築するマーカレスパ
フォーマンスキャプチャ技術の提案
単眼カメラによって撮影された映像のみを入力とし
た初めての3Dパフォーマンスキャプチャ技術である.
Sparse 2Dとbatchベースの姿勢推定手法を用いたCNN
による人間の3D姿勢検出を採用している.
合計120本のビデオクリップを用いてベンチマーク
を行った.質的な検証では,全てのベンチマーク
データセットに対し,完全な結果を得た.
最適化されていないCPUコードでは一つの入力フ
レームを処理するのに約1.2分を要したが,data
parallel optimizationを用いることで大幅に改良でき
る.将来的にはリアルタイム処理を目指す.
Robertini et al. 2016
M2M-based smart health service for human UI/UX using motion recognition
Roy C. Park, Hoill Jung, Dong-Kun Shin, Gui-Jung Kim, Kun-Ho Yoon
どんなもの? どうやって有効だと判断したか
人間の健康状態を逐次IoTデバイスで計測し、そ
れをWBAN(Wireless Body Area Network)と
して集積管理する通信技術を紹介したもの。
先行研究との比較
それぞれの分野・症状に対して注目して計測する
技術はあるが、それらを統合・解析し総合的な診
断を出すための集積技術が構築されていなかった。
技術や手法のキモ
通信技術の大元としてはWBANという既存の技
術を応用している。歩行トラッキングにはZigbee
通信、心電図・脳波の情報はBluetoothなどを用
い、WBAN内衝突回避処理の導入など、多くの
通信関連技術を併用し、人体自体をネットワーク
化させて通信の枠組みに取り込んでいる点。
医療機関で計測したデータとこの技術で計測した
データを比較し計測数値が正確であることを確認。
常に計測していた統計情報から被験者の健康状態
と医療の方針を導き出せたことから通信が成功し
ていることを検証した。
議論はあるか
 医療機関との連携、健康状態悪化の余地、統計
情報からの症状診断。応用することができる範囲
が非常に広いことが魅力である。
 人体を取り囲むようにネットワークを張り巡ら
せる技術はさらに応用が利くと思われる。それら
相性の良い技術の模索をするべき。
次に読むべき論文
人体をネットワークに取り込む技術の論文。
UISTやCHIの論文にヒントがありそう。
201611448 高倉 礼 #2 (人間コース)
Cluster Computing 2015
Ontology driven interactive healthcare with wearable sensors
Jonghun Kim & Jaekwon Kim & Daesung Lee & Kyung-Yong Chung
ヘルスケア用のウェアラブル端末システム。利用者の現在地から位置
情報を取得し、天気、温度、湿度、気圧等のコンテキストを取得する。
それらのコンテキストと症状の関連データを収集できる。
201611448 高倉 礼 #2-1 (人間コース)
MTA 2014
Phase Rotation Shift Keying for Low Power and
High Performance WBAN In-body systems
Jung-Yeol Oh* , Jeong-Ki Kim‡, Hyung-Soo Lee*, Sang-Sung Choi*, Dong S. Ha‡
WBAN通信の高速通信を実現するための新しい変調技術。
これまでの変調方式に比べ、低電力でより多くの情報を送ることができる
ため、断続的にデータを送り続けたいヘルスケア端末に適している。
201611448 高倉 礼 #2-2 (人間コース)
ETRI 2010
Ubiquitous based Control and Monitoring
in M2M (Mobile to Machine) Environment
DONG-HOON KIM, SEUNG-WOO LEE, JUN-YEOB SONG, SUK-KEUN CHA
ある機械の状態を、別の機械で監視するシステム。また、その監視
した情報を第三者端末と共有できる技術。M2Mの基礎技術。
201611448 高倉 礼 #2-3 (人間コース)
WSEAS 2005
Semantic Negotiation-based Service Framework
in an M2M Environment
Paul Barom Jeon, Jangwon Kim, Sukhoon Lee, Chonghyun Lee, Doo-Kwon Baik
端末同士に同じ通信規格がなくても、ネットワーク接続でそれぞれ
の端末の持っている情報を共有できる技術。M2Mの集積基礎技術。
201611448 高倉 礼 #2-4 (人間コース)
IEEE 2011
Design and Implementation of M2M-HLA Adaptor for Integration of
ETSI M2M Platform and IEEE HLA-based Simulation System
Yunjung Park, Dugki Min
M2MとIEEEで定義されているハイレベルアーキテクチャシミュレー
ション技術間の連携をできるようにした技術。従来のHTTPリクエス
トを用い、Webとの連携を容易にする。
201611448 高倉 礼 #2-5 (人間コース)
Fifth International Conference 2013
Color Balance and Fusion for Underwater Image Enhancement
Codruta O. Ancuti Cosmin Ancuti Christophe De Vleeschouwer
201613036 LI ZHENYU (人間コース)
どんなもの
媒体の散乱および吸収によって劣化させた
水中で捕獲された画像を向上させる技術
先行研究と比べてどこがすごい
特殊なハードウェアや水中の状況やシーン
の構造に関する知識を必要としない
技術や手法のキモはどこ
イメージアプローチだけを使う
どうやって有効だと検証した
既存の特殊な水中修復/強化技法と比較する
議論はある?
色が完全に復元されるとは言えない。
特にカメラから遠い領域では、
曇りはまた残っている。
次に読むべき論文
Green Internet of Things for Smart World
        どんなもの     どうやって有効だと実証したか
   先行研究と比べてどこが凄い         議論はある
     次に読むべき論文は
      技術や手法のキモは
UIによる高精度な調節が可能なセルフ眼底写真撮影システム
を提示する。UIを提示することによってユーザーが自分で撮影
時に目の位置を較正できるようにする。
インタラクティブなシステムを開発してユーザー評価した。装置
を知らない初心者にセルフで眼底写真を取らせて、完全な眼
底写真が取れるかどうか評価した。
ユーザーの視線制御ができないため正確な網膜撮影時に高
価な機器とオペレータが必要だった。また、瞳孔を開く薬品を
使う必要があった。
熟練したオペレータなしに高精度な撮影が可能になり、医療の
発達が見込める。将来的にクラウド化しようと考えている。視覚
障害者は試していない。
2枚の二次元ライトフィールドを計算して作られたピンホールマ
スクによって、適切なアイボックスの位置にいるときだけ画像が
見えるようにする。
Kress and Starner 2013;
Maimone 2014;
Lanman and Luebke 2013;
Itoh and Klinker 2015; Plopski 2015;
201711431 人間
TOG 今井
        どんなもの
ピンホールアレイを使った広視野角のシースルーHMD。
小さな画像領域をタイル状に並べることによって任意の視野角を
実現した。視野角は110度。
        どんなもの
正確な収束、調節、両眼視差、および網膜の焦点ぼけの奥行き
手がかりを提示することができるNear-eye lightfield Display。マ
イクロレンズアレイを使って、実現した。
解像度が低いことがネック。
201711431 人間
TOG 今井
        どんなもの
高次収差にも対応したロバストな視力補正が可能なライトフィール
ドディスプレイ。ハイダイナミックレンジを実現。ディスプレイの周波
数特性を分析して、提案手法を評価した。
        どんなもの
目の屈折異常を計測することができる手法。
LCDディスプレイ上にマイクロレンズミラーアレイを配置することに
よって焦点位置と屈折を計算することが出来る。
201711431 人間
TOG 今井
        どんなもの
LCD二枚をレンズで絞って投影することによって中心領域への知
覚敵距離を測定する方法を発見した事によって人間の目の白内
障を測定することが出来る手法を確立した。
SIGGRAPH 人間
201711431 今井
先行研究と比べてどこがすごい? 議論はある?
次に読むべき論文は?技術や手法のキモはどこ?
どうやって有効だと検証した?どんなもの?
IEEE '17Simultaneous Feature and Dictionary Learning for
Image Set Based Face Recognition
Jiwen Lu, Gang Wang, Weihong Deng, and Jie Zhou
顔画像からの識別情報を1段階の学習手順で共同
利用することができるように、未知の顔画素から
弁別的に特徴と辞書を同時に学習するSFDL手法
それぞれの画像フレームを識別的な特徴部分空間
に投影し、より具体的な情報を抽出できるように
クラス固有の辞書でそれを符号化する
開発したSFDLとD-SFDLは最新の画像データセッ
トで、ほとんどの既存の顔識別方法よりも高精度
On the Honda 、MoBo、およびYTCデータセットを
用いてランダムなトレーニングとテストセットを選択
して10回実験を行い、平均識別率を計算して比較
[5] H. Cevikalp and B. Triggs. Face recognition based on image sets. In
CVPR, pages 2567–2573, 2010.
[9] Y.-C. Chen, V. M. Patel, P. J. Phillips, and R. Chellappa. Dictionarybased
face recognition from video. In ECCV, pages 766–779, 2012.
[10] Y.-C. Chen, V. M. Patel, P. J. Phillips, and R. Chellappa. Dictionarybased
face and person recognition from unconstrained video. IEEE
Access, 3(3):1783–1798, 2015.
[25] Y. Hu, A. S. Mian, and R. Owens. Face recognition using sparse
approximated nearest points between image sets. PAMI, 34(10):1992–
2004, 2012.
[41] Z. Lei, M. Pietikainen, and S. Z. Li. Learning discriminant face
descriptor. TPAMI, 36(2):289–302, 2014.
先行研究と比べてどこがすごい? 議論はある?
次に読むべき論文は?技術や手法のキモはどこ?
どうやって有効だと検証した?どんなもの?
Yi-Chen Chen1, Vishal M. Patel1, P. Jonathon Phillips2, and Rama Chellappa1
Dictionary-based Face Recognition from Video ECCV '12
ビデオベースの顔認識のため
のビデオ辞書の提案
今後、映像からの認識のために顔
と身体の両方の情報を効果的に融
合するアルゴリズムの開発
同じ被写体の複数のビデオシーケンスは、解像度、
照明、姿勢、および表情の変化を見ることができ、
効果的な顔認識アルゴリズム設計に貢献
照度や姿勢の変化に強い辞書学習法に基づく
生成アプローチ
3つのビデオデータセットを用いたラン
ダムなテストを試行した
先行研究と比べてどこがすごい? 議論はある?
次に読むべき論文は?技術や手法のキモはどこ?
どうやって有効だと検証した?どんなもの?
Dictionary-based Face and Person Recognition
from Unconstrained Video
Yi-Chen Chen, Student Member, IEEE, Vishal M. Patel, Member, IEEE, P. Jonathon Phillips, Fellow, IEEE, and Rama Chellappa, Fellow, IEEE
IEEE '15
顔と体のビデオ辞書による映像からの
画像認識技術
認識精度を向上させるために、人間の
上体特徴および動き識別信号を使用
辞書学習を省略したベースラインで、
本手法の性能向上を実験的に測定した
顔に対するアプローチを示していたところ
に身体からの認識にも同じ方法を適用した
先行研究と比べてどこがすごい? 議論はある?
次に読むべき論文は?技術や手法のキモはどこ?
どうやって有効だと検証した?どんなもの?
Face Recognition Using Sparse Approximated
Nearest Points between Image Sets
IEEE 12
Yiqun Hu, Ajmal S. Mian, and Robyn Owens
効率的な画像認識のための集合の画像
サンプルとそれらのアフィンハルモデ
ルを含む画像集合の結合表現の提案
UCSD / Honda、CMU MoBo、
YouTube Celebritiesの顔データセット
に関する包括的な実験を行った
セット間距離を計算するために、スパー
ス近似点(SANP)を導入、最も近い点
およびその疎な近似を共同して最適化
設定距離を計算するためのスパース近似点SANP
(KSANP)のカーネル拡張と、RBFカーネルパ
ラメータを適応的に調整する自動アルゴリズム
先行研究と比べてどこがすごい? 議論はある?
次に読むべき論文は?技術や手法のキモはどこ?
どうやって有効だと検証した?どんなもの?
Face Recognition Based on Image Sets
Hakan Cevikalp, Bill Triggs
CVPR 10
個々の画像からではなく一連の
画像から顔認識のための手法
凸面セット間の最小距離の意味におい
て与えられたテスト領域(個人)に最
も近いギャラリー領域(個体)の認識
2つのパブリック顔データセットに関する
実験において、提案された方法がいくつか
の既存の最先端技術より優れている
特徴空間における凸領域(に関してギャ
ラリーおよびテストセットからの各画像
セットに対して特徴付けを行う
先行研究と比べてどこがすごい? 議論はある?
次に読むべき論文は?
技術や手法のキモはどこ?
どうやって有効だと検証した?どんなもの?
Learning Discriminant Face Descriptor
Zhen Lei, Member, IEEE, Matti Pietika¨ inen, Fellow, IEEE, and Stan Z. Li, Fellow, IEEE
IEEE '14
データ駆動型の判別式顔記述子
(DFD)を学習する手法
同種異質顔認識問題と異種顔認識
問題の両方でテストを行った
ビデオベースの顔分析
におけるDFDの調査
判別画像フィルタを学習し、最適な近傍サンプリン
グを判定し、支配的パターンが統計的に構築する。
また、効果的で堅牢な機能を抽出するための異質な
クロスモダリティ顔認識問題に提案された手法
照明と表現の変化に対して認識
の精度が従来より高い
CGANS WITH PROJECTION DISCRIMINATOR – ICLR 2018
Takeru Miyato1, Masanori Koyama2
miyato@preferred.jp koyama.masanori@gmail.com
1Preferred Networks, Inc. 2Ritsumeikan University
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
確率論的モデルの一般的なファミリーによって動機付けられた
cGANのDiscriminatorのモデルを提案した.条件付き画像生成およ
び超解像化で,Generatorの性能を大幅に改善することができた.
より多様性が広く,モード崩壊しにくい生成ができた.
これまでのConditional GANでは単にラベルベクトルyを
Generatorの入力層か中間層に連結するだけだったが,
GANの目的関数を分解し,条件ベクトルyと特徴ベクトル
を内積する式(3)に帰着させた.
どうやって有効だと検証した?
1000クラスのILSVRC2012データセットのラベル条件付き画像生
成の品質をACGANとFIDスコアで比較した.cGANのモデルを超解
像タスクに適用した場合,concatに基づくcGAN (a)よりもラベル
分類器の精度の点でより優れた高品質の超解像画像を生成すること
ができた.
P(y¦x)を単純な分布と仮定しているが,実際はそうで
はないかもしれないので理論的な考察が必要.
Takeru Miyato, Toshiki Kataoka, Masanori Koyama, and Yuichi Yoshida.
Spectral normalization for generative adversarial networks. In ICLR, 2018.
Ishaan Gulrajani, Faruk Ahmed, Martin Arjovsky, Vincent Dumoulin, and Aaron
Courville. Improved training of wasserstein GANs. arXiv preprint
arXiv:1704.00028, 2017.
Jae Hyun Lim and Jong Chul Ye. Geometric GAN. arXiv preprint
arXiv:1705.02894, 2017.
201611429 大曽根宏幸 #1 (人間コース) 4
SPECTRAL NORMALIZATION FOR GENERATIVE ADVERSARIAL NETWORKS- ICLR 2018
Takeru Miyato1
, Toshiki Kataoka1
, Masanori Koyama2
, Yuichi Yoshida 1
Preferred Networks, Inc. 2
Ritsumeikan University 3
National Institute of Informatics
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
GANの学習を安定させるため,重みをspectral
normalizationした.
ハイパーパラメータとして,リプシッツ定数を調整す
るだけで良くなった.また,調整しなくても良い性能
が出る.計算コストも小さい.
レイヤーごとの重みのスペクトルノルムを正規化することで,
レイヤーごとと,レイヤー全体のリプシッツ制約を1で抑えら
れる.
どうやって有効だと検証した?
CIFAR-10とSTL-10,ImageNetで画像生成.他の正規化手法
と比べて性能を比較.
Weight normalizationよりは20%ほど遅い.
Tim Salimans and Diederik P Kingma. Weight normalization: A simple reparameterization
to accelerate train-ing of deep neural networks. In NIPS, pp. 901–909, 2016.
201611429 大曽根宏幸 #1 (人間コース) 1
Improved training of wasserstein GANs – NIPS 2017
Ishaan Gulrajani et al.
Montreal Institute for Learning Algorithms
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
WGANにおけるWeight clipping(重みを一定の範囲内に収める)の
問題を指摘し,解決するgradient penalty(WGAN-GP)を提案
ResNetベースの深いネットワークでも,WGANなど
よりWGAN-GPの方がモード崩壊しにくい生成ができ
る.
Lossにgradient penaltyの項を加えた.(3)
どうやって有効だと検証した?
実験のために作ったtoy分布において,高いモーメントを捉えられた.
勾配爆発/消失が起きない.
Inception Scoreは7.86
DCGANと比べて収束は遅いが,収束後は安定してい
る.
Y. Wu, Y. Burda, R. Salakhutdinov, and R. Grosse. On the quantitative analysis
of decoder- based generative models. arXiv preprint arXiv:1611.04273, 2016.
201611429 大曽根宏幸 #1 (人間コース) 5
Learning Face Age Progression: A Pyramid Architecture of GANs - CVPR2018
Hongyu Yang1 Di Huang1 Yunhong Wang1 Anil K. Jain2 1Beihang
University, China2Michigan State University, USA

どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
入力画像の人物の老化顔を出力.
年齢変換の正確さと,人物の同一性の保存で性能が良
くなった.
Discriminatorで,年齢の特徴抽出を段階的にした.人物の同一性を保つために
deep face descriptor [20] を用いて,個人の顔特徴を特徴空間に落とし込んだ
ときのlossも計算した.
どうやって有効だと検証した?
MORPHとCACDデータセットを用いて老化の進行度,精度,
人物の同一性を実験.商用アプリなどとも比較.
X.Shu,J.Tang,H.Lai,L.Liu,andS.Yan.Personalizedage
progression with aging dictionary. In ICCV, pages 3970‒
3978, 2015. 1, 8, 10, 11 

201611429 大曽根宏幸 #1 (人間コース) 2
High-Resolution Image Synthesis and Semantic Manipulation with Conditional GAN - CVPR2018
Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz, Bryan Catanzaro
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
高解像度(2048 x 1024)でラベル変換と物体編集
をできるようにした.
pix2pixより高解像度化,テクスチャなどのインタラ
クティブな編集ができる.
段階的に生成(global generatorとenhancer. enhancerをかけていけば無限
に大きくできる),段階的に識別する.perceptual lossをdiscriminatorに
加えた.discriminatorに境界マップ,セグメンテーションマップ,および実
/合成画像のチャネルワイズ連結を入力した.
どうやって有効だと検証した?
定量的には,ラベル画像から変換された市街画像を既存手法でセグメ
ンテーションし,inputと比較する.
定性的には,Amazon Mechanical TurkでCityscapes dataset [7] か
ら生成した画像を評価してもらった.(どっちが生成画像かクイズ)
医療画像や生物学にも使えそう
J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for real-time style transfer
and super-resolution. In European Conference on Computer Vision (ECCV), 2016.
2, 3, 5, 8, 13 
A. B. L. Larsen, S. K. Sønderby, H. Larochelle, and O. Winther. Autoencoding
beyond pixels using a learned similarity metric. In International Conference on
Machine Learning (ICML), 2016. 5201611429 大曽根宏幸 #1 (人間コース) 3
: 3 3 2 2 3 : : - 3 2 2 3
7 7 1 A , # , - 1 D AC 0C
, 0 2 E ) # - D ,3 64
o h H
i
T UMH
) () I
a l a - n
- a l
i WZH
a g H
LlH
a S n I
4 2 a
O M n ly
ZT n
sIv ra l e
I
y # I
a lY
a n
sIv r a l
: :
HLHLF # URK 8HHU K # 5H DH R# D L 1 JJKDO#
J OI 0DJJ HJS # 3HO GH 4 GHH
4 ')# ADO - ''# ( ')# .LCODT # LH DC 6HLFC K
hp s d l r
inoW h f f p
s Wa s e g
s p s b
k g i b i
nce
:
HLHLF # 5H DH R# GHL H GDLF# 3DJDLD DHLDO# DL LF#
2R LURL LF# 3HO GH 4 GHH
34 ( ' # .NOHJ '- () ( ' # D RJ# DNRAJH 6 OD
s eW h s
d v u s Wa Y
g h v s cb
ince s p gfW b
ty wY s i
l m g f b
( ','' , ( ‒ Y
3 3 3 3
- A 3 , 3 3
:AJK N 9 ARMTRR NA# 5I UANNI : IAN # :A IANN 5 S R NA#
8AK 5 IM NR N # 9ARP 6 N K
367 (-# :A '. ()# )'(-# AN 8 R # 32# 2
HAP CHANGING INS AC k xt )( k
n k kyv s bf
k 37k s c
k k 37k j f k
æare
3 ::
3 :
4AUID 3 A# 2SHINA APAD P T T# 3H IRS PH 5T AN#
NIKA 8HAU I# S N ICH S# 2CHIM : NG R# K A I ISR
HSSP1 D D I G (' ('/0 DP )'(, ''))
i s c emkuy
s b 4 c hjop
k ol s ad
k h j bf
i s h g e
)'(-(( -' ) y
, - /: /: : , /:
/,- / , / , : : /- ,
/ : - , , / ,-
A 1 D CC E E 2 E / EH 0H
6 D D KI D , D HI 1
,/0 2 ) # - D ,4 76
/ x oPm W M rMv
Y nSV eicO agh O
O p SUN
jy 0 4 WM
S s m k N
) () u o O
Providing Haptics to Walls & Heavy Objects in Virtual Reality by Means of
Electrical Muscle Stimulation (CHI 2017)
Pedro Lopes, Sijing You,Lung-Pan Cheng, Sebastian Marwecki, and Patric Baudisch
EMSを使ってVR空間内の壁や重いものに対する触覚を
提示した。
比較的に軽いウェアラブルな装置での重いものと壁の
触覚提示に成功した。
EMSの使用。腕に電極を取り付け触覚を再現し、筋肉
の伸び縮みをコントロールすることで重さを再現する。
またコンテンツ内での音や視覚効果も触覚フィードバッ
クを助長する。
デモを作成し、何人かに体験してもらいフィードバッ
クを得た。
硬い壁の再現が難しく、長時間あるいは強く壁を押す
とEMSからの電気信号が意識できてしまいリアリティ
が薄れる。
Mahdi Azmandian, Mark Hancock, Hrvoje Benko, Eyal Ofek, and
Andrew D. Wilson. Haptic Retargeting: Dynamic Repurposing of
Passive Haptics for Enhanced Virtual Reality Experiences. In
Proceedings of the 2016 CHI Conference on Human Factors in
Computing Systems (CHI '16), 1968-1979.
201813567 松永尚之 #FTMA18 (人間)
どんなもの? どうやって有効だと検証した?
先行研究と比べてどこがすごい? 議論はある?
技術や手法のキモはどこ?
次に読むべき論文は?
Haptic Retargeting: Dynamic
Repurposing of Passive Haptics for
Enhanced Virtual Reality
Experience( CHI ‘16)

Mahdi Azmandian, Mark Hancock, Hrvoje Benko, Eyal
Ofek, Andrew D. Wilson
複数の仮想オブジェクトに触覚フィードバックを与え
る為にhaptic retargetingという手法を利用し、単一
のオブジェクトから複数の仮想物体に触覚フィードバッ
クを与える。
Lower Extremity Lateral Skin Stretch
Perception for Haptic Feedback (Haptics
IEEE Transaction 9,62-68,2016)

Daniel K. Y. Chen, Iain A. Anderson, Cameron G.
Walker, and Thor F. Besier
触覚フィードバックを生成する為に、下肢運動の際の
皮膚の伸縮に注目し、その変位や速度を定量化するこ
とに成功した。
201813567 松永尚之 #FTMA18 (人間)
TurkDeck: Physical Virtual Reality Based
on People (UIST ‘15)

Lung-Pan Cheng, Thijs Roumen, Hannes Rabtzsch, Sven
Kohler,Patric Schmidt, Robert Kovacs, Johannes
Jasper,Johans Kemper, and Patric Bausch
TurkDeckというユーザのVR内での感覚を補助するシ
ステム。有限の実空間において任意の広さのヴァーチャ
ル空間を生成することができる。ヴァーチャル空間上
の小物を現実空間で対応させる。またこのシステムの
実現にはいわゆる人間アクチュエータを使用している。
Demo: An Inexpensive and Lightweight
Mechanical Exoskelton for Motion
Capture and Force Feedback in VR(CHI
‘16)

Xiaochi Gu, Yifei Zhang, Seize Sun, Yuanzhe Bian,
Dao Zhou, Per Ola Kristensson
軽量でコンパクトな触覚フィードバックデバイスの作
成。手にヴァーチャル空間上における触覚提示のため
の機械的な外骨格をつける。この外骨格は軽く、安価
でセンサなどの外部デバイスを必要としないので実装
コストが低いことが利点にあげられる。
201813567 松永尚之 #FTMA18 (人間)
Wearable 6-DoF Wrist Haptic Device
“Spider-W” (SA ‘15)

Kazuki Nagai, Soma Tanoue, Katsuhito Akahane, Makoto
Sato
VR空間上で位置方向及び方向測定機能、さらにその
フィードバック機能を有するワイヤードリフト型のウェ
アラブルハプティックデバイスを作成した。Spider-Wと
名付けられたこのデバイスは6DoFの運動に対応してい
る。
201813567 松永尚之 #FTMA18 (人間)
In the eye of a hurricane there is quiet, for just a moment, -
alt.chi 2018
Vanessa Thomas, Manu J. Brueggemann, Ding Wang, Andy Darby, Benjamin Wohl,
Lindsay MacDonald Vermeulen, Oliver Bates, David Feldman
どんなもの?
議論
先行研究と比べて
動画や手法のキモ
次に読むべき論文
有効の確認
してない
携帯電話やノパソの電源を切る
なし
CHIは毎日ワークショップやらプレゼン
やらパーティーやらあって大変だから
8Pの休憩の時間を用意することで、ま
るで台風のように忙しい CHIの中に安
寧をもたらす。
先行研究なし
1.Journal of personality and social psychology.
2.Reflexive Practices for the Future of Design
Education: An Exercise in Ethno-Empathy.
3. Do You Practice What You Preach? A
Qualitative Exploration of Therapists’ Personal
Practice of Compassion Focused Therapy
人間コース 読んだ人: 201711463 橋本祥
どんなものか
先行研究と比べてどこがすごいか
技術や手法のキモ
どうやって有効だと検証したか
次に読むべき論文
201611455 永瀬 拓也 #2(人間コース) #FTMA18
Muscle Simulation for Facial Animation in Kong: Skull Island SIGGRAPH ‘17
解剖学に基づいて顔面の骨格や筋肉をシ
ミュレーションモデルを作成する。
従来のアニメーションでは細かい顔の表情
を表すことができなく、やるとなってもコ
ストのかかる作業であったが、噛む笑うな
どの細かい動きができる。動物などキャプ
チャのとりにくい対象を正確に再現するこ
とができる。
筋肉や骨格の動きを解剖学的に考えてシ
ミュレーションする手法
Automatic Generation of Anatomical
Face Simulation Models
Art-directed Muscle Simulation for High-
end Facial Animation
従来のアニメーションと比べて、細かな動
きが再現できていた。実際にKongのアニ
メーションの不自然さが消えた。
Matthew Cong, Lana Lan, Ronald Fedkiw
Neural Best-Buddies: Sparse Cross-Domain Correspondence
Kfir Aberman, Jing Liao, Mingyi Shi, Dani Lischinski, Baoquan Chen, Daniel Cohen-Or
2枚の異なる形状・外観・クラスの画像から特徴を抽出
し, 対応付けを行う.
物体の重要な特徴のみを取り出して対応付けをした.
異なるクラス間での対応付けをした.
類似性測度として提案されているBest Buddies
Pairs(BBP)[Dekel et al. 2015]をNeural BBPに拡張
し, cross-domainの対応問題を解く.
画像分類用に訓練されたCNNをもちいた.
提案手法と他のスパースマッチングの視覚的比較. 最先
端のdence対応手法との比較. ユーザ調査. 異なる大き
さ, 姿勢, 視点の物体のペアを用いて幾何学的変形に対
する堅牢性を検証した.
cross-domain対応問題のベンチマークが確立されてい
ない. 外観が異なるオブジェクトの結合画像を生成した
201813558 池田伊織 #2 (人間コース)
どんなもの? どうやって有効だと検証した?
先行研究と比べてどこがすごい?
議論はある?
技術や手法のキモはどこ?
次に読むべき論文は?
SIGGRAPH 2018
関連論文
George Wolberg. 1998. Image morphing: a survey. The Visual Computer.

三角測量に基づくモーフィング、メッシュワーピング、フィールドモーフィング等についての調査.
Leon A Gatys, Alexander S Ecker, and Matthias Bethge. 2015. A neural algorithm of artistic style.

コンテンツ画像とスタイル画像を用意し,コンテンツ画像に描かれているものをスタイル画像風に変換する.
学習済みの画像認識モデルを用い,スタイル行列を生成しもとの入力画像を最適化する.
Bumsub Ham, Minsu Cho, Cordelia Schmid, and Jean Ponce. 2016. Proposal flow. In Proc. CVPR. 

セマンティックフローは同じオブジェクトか同じシーンでの物体の対応を見つけることが出来たが,異なるクラスの
オブジェクトやシーンが大きく異なる場合は上手くいかなかった.セマンティックフローを改良してベンチマークで
最高水準の結果を得た.
Xun Huang and Serge Belongie. 2017. Arbitrary style transfer in real-time with adaptive instance normalization.

Gates et alの画像スタイル変換は遅い.また,リアルタイムに出来るものがあるが,スタイル数が限られている.我々
は,リアルタイムに任意のスタイルを適用できる手法を提案する.コンテンツの平均と分散をスタイルの平均と分散
に合わせる新しいAdaptive Instance Normalizationを用いて実現した.
Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. 2012. Imagenet classification with deep convolutional
neural networks. In Advances in neural information processing systems.

CNNを用いてImageNetの画像認識タスクで最高水準の結果を得た.ドロップアウトが過学習に対する非常に効果的
な手法であることがわかった.
201813558 池田伊織 #2 (人間コース)
h 6t
4T U
h w6SU h 6s
6 I Sh 6s 6 st
4 S TD I
st 2 6 6 ow6 h 6s U
T a U I
L
w w 7 6 h 6s
2 a w 6
6 I I h I DS 6
4
t 7 e aU 6 T I
a I t 6 I
4T LS
6 6 w 6t I T
h 6t
L w6
I U a wtoS
w6 6t o
a st
0 1 a
L
4
h 6s 4 6 I DS a
DS
a 6 U
a LS 6 t
4
llumination-Guided Example-Based Stylization of 3D Renderings
Organic Primitives:Synthesis and Design of pH-Reactive Materials
using Molecular I/O for Sensing, Actuation, and Interaction - CHI2017
Viirj Kan, Emma Vargo, Noa Machover, Hiroshi Ishii, Serena Pan, Weixuan Chen, Yasuaki Kakehi
(MIT Media Lab, Keio University)
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
議論はある?
次に読むべき論文は?
pHを人間が読める出力に変換する,センサーアクチュエーターとして
働く,色,匂い,形状変化の素材。アントシアニン等をドーパントとし
て使用し,色のスペクトル,形状変形の度合い,匂いありなしの切り
替えを行う材料を合成した
色の変化,匂いの放出,形状変化をもたらすものは個別に検討されてきた。
化学者ではないHCI研究者でも全寝具と複数の出力を備えたコンパクトな
インターフェースの設計の可能性を用意にする分子規模での方法
液中で起こる反応を固体状態で起こすために,K-カラギーナン,アルギ
ン酸ナトリウムを用いた。 アントシアニン,バニリン,キトサンをドー
パントとして,色の変化,匂いの放出,形状変化をさせる。
どうやって有効だと検証した?
範囲,速度,可逆性をpH値の関数として特徴付けした。pH2-10の溶液でサンプルを試験,
試料にpH溶液を均一に噴霧,乾燥後,分光光度計を用いてCIE L*A*B* 色値を測定。色変
化速度は定性評価。特定のpH応答のみ逆転させることができる。匂いの変化は被験者実験。
pHに基いてニオイ物質のON/OFFを明確に区別できる。変形に関しては曲げ角度を定量評
価
(i)センサ,アクチュエータ,エネルギー限として自己完結型の機能を有する
(ii)様々な形態の因子および状態で現れる
(iii)生物学的システムと電子的システムの両方に統合できる
(iv)生体適合性,生分解性,食用
(v)コンパクトで,柔らかく,ミュートされ,控えめ
(vi)味や匂いを含む追加のモダリティ
Rasmussen, K. M. et al. CHI 12
Devendorf, L. et al. CHI2016
Kao, Hsin-Liu C. et al. TEI2015
201611428 蛭子綾花 #2 (人間コース) 8
Liu, X. et al. AH2016
Weigel, M. et al. CHI2015
Shape-Changing Interfaces: A Review of the Design Space and Open Research Questions - CHI2012
Majken K. Rasmussen, Esben W. Pedersen, Marianne G. Petersen, Kasper Hornbaek (Aarhus School of Architecture, Univ. of Copenhagen, Aarhus Univ.)
Abst
Introduction
Conclusion
形状変化インターフェースの体系的な分析。形状変更インターフェースに関する既存の作業の例を検討する。機能
的及び快楽的な設計目的に役立つ様々な方法で変形された8つのタイプの形状を特定する。(a)どのような設計目
的で形状変化インターフェースを使用するか(b)デザイン空間のどの部分がよく理解されていないか (c)形状変化を
伴うユーザー体験を研究する理由を議論する
形状変化インターフェースの特性と,デジタル情報とのインタラクションを強化することを目指している。既存の作業を視点に入れ,過小評価され
た方向を特定するために,形状変化インターフェースの設計空間を調査している論文はほとんどない。形状変化の心理的,芸術的表面についてはほ
とんど議論されていない。相互作用に焦点をあてることはほとんどなく,相互作用のモデルに形状変化を関連付けることはほとんどない
形状変化インターフェースに関する44の論文を検討した。論文は,操作される形状のどの側面(形状,体積など)および形状間の変換がどのように達成され
たかに関して分析された。形状変化の目的:多くのインターフェースは情報伝達を目的としている。形状変化が正確なコミュニケーションのための良いモダ
リティかどうかという疑問に答えている論文は稀。さまざまなタイプの変換がどのように使用され,どのような効果がもたらされるかを体系的に調べるこ
とができなかった。1/4の論文はユーザー体験について評価している。ユーザー体験の概念化と研究における最新の進歩を踏まえて作成されたものはほとん
どない。
201611428 蛭子綾花 #2 (人間コース) 9
“I don’t want to wear a screen”: Probing Perceptions of and Possibilities for Dynamic Displays on Clothing - CHI2016
Laura Devendorf, Joanne Lo, Noura Howell, Jung Lin Lee, Nan-Wei Gong, M. Emre Karagozler, Shiho Fukuhara, Ivan Poupyrev, Eric Paulos, Kimiko Ryokai
(UC Barkeley, Google ATAP)
Abst
Introduction
Conclusion
ダイナミックテキスタイルディスプレイが果たす役割を探っている。Ebbと呼ばれる新しいテキスタイルディスプ
レイ技術を開発し,衣類固有のデザインの可能性を探求したいくつかの織りとかぎ編みの布見本を作成した。従来
のスクリーンベースのディスプレイとは非常に異なる基準に従って,衣類ベースのディスプレイの魅力と有用性を
評価した。
技術が次第に身につけられるようになり,スマートなアクセサリの領域を離れ,服の布地に入り込むにつれ,HCIでは技術的
なディスプレイが個人的なスタイルの中で育む個人的な意味と社会的機能を考慮することが重要。これらの意味を調べるため
にEbbを開発し,デザイナーに練習や個人的スタイルへの組み込み方法を説明するよう依頼した。
衣服ベースのディスプレイが,複雑で意味のある個人的なスタイルのシーンの中で機能することができる方法を明らかにした。意味のあるコミュ
ニケータとしての材料を取り入れたマテリアル中心の視点を採用することで,衣服にテクノロジーの認識を形作った連想を引き出すことができ
た。キャンバスの隠喩が日常使用のための衣類ベースのディスプレイの設計スペースを拡大しうる。Ebbの遅さと低解像度が思いがけない社会
的遭遇,皮肉な解説,個人データの瞑想経験を促進するために従事できるシナリオを想定した。
201611428 蛭子綾花 #2 (人間コース) 10
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ
先端技術とメディア表現 第2回レポートまとめ

Contenu connexe

Plus de Digital Nature Group

Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...
Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...
Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...
Digital Nature Group
 
Telewheelchiar - Augmented Human 2018
Telewheelchiar - Augmented Human 2018Telewheelchiar - Augmented Human 2018
Telewheelchiar - Augmented Human 2018
Digital Nature Group
 
Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk)
Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk) Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk)
Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk)
Digital Nature Group
 
Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)
Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)
Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)
Digital Nature Group
 
You as a Puppet - UIST 2017
You as a Puppet - UIST 2017You as a Puppet - UIST 2017
You as a Puppet - UIST 2017
Digital Nature Group
 
ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)
ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)
ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)
Digital Nature Group
 

Plus de Digital Nature Group (14)

Design Method of 3D Printable Ergonomically Personalized Stabilizer - HCII 20...
Design Method of 3D Printable Ergonomically Personalized Stabilizer - HCII 20...Design Method of 3D Printable Ergonomically Personalized Stabilizer - HCII 20...
Design Method of 3D Printable Ergonomically Personalized Stabilizer - HCII 20...
 
A Design for Optical Cloaking Display - SIGGRAPH 2019 Experience Presentation
A Design for Optical Cloaking Display - SIGGRAPH 2019 Experience PresentationA Design for Optical Cloaking Display - SIGGRAPH 2019 Experience Presentation
A Design for Optical Cloaking Display - SIGGRAPH 2019 Experience Presentation
 
Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...
Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...
Let Your World Open - Augmented Human 2019 #AH2019 (Oral presentation by Ippe...
 
Design Method of Digitally Fabricated Spring Glass Pen - SIGGRAPH 2018
Design Method of Digitally Fabricated Spring Glass Pen - SIGGRAPH 2018Design Method of Digitally Fabricated Spring Glass Pen - SIGGRAPH 2018
Design Method of Digitally Fabricated Spring Glass Pen - SIGGRAPH 2018
 
先端技術とメディア表現 第4回レポートまとめ
先端技術とメディア表現 第4回レポートまとめ先端技術とメディア表現 第4回レポートまとめ
先端技術とメディア表現 第4回レポートまとめ
 
先端技術とメディア表現 第3回レポートまとめ
先端技術とメディア表現 第3回レポートまとめ先端技術とメディア表現 第3回レポートまとめ
先端技術とメディア表現 第3回レポートまとめ
 
先端技術とメディア表現 第1回レポートまとめ
先端技術とメディア表現 第1回レポートまとめ先端技術とメディア表現 第1回レポートまとめ
先端技術とメディア表現 第1回レポートまとめ
 
先端技術とメディア表現2018 #1
先端技術とメディア表現2018 #1先端技術とメディア表現2018 #1
先端技術とメディア表現2018 #1
 
Telewheelchiar - Augmented Human 2018
Telewheelchiar - Augmented Human 2018Telewheelchiar - Augmented Human 2018
Telewheelchiar - Augmented Human 2018
 
Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk)
Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk) Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk)
Telewheelchiar - SIGGRAPH Asia 2017 (E-tech Talk)
 
Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)
Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)
Unphotogenic Light - SIGGRAPH Asia 2017 (E-tech Talk by Ippei Suzuki)
 
You as a Puppet - UIST 2017
You as a Puppet - UIST 2017You as a Puppet - UIST 2017
You as a Puppet - UIST 2017
 
ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)
ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)
ReverseCAVE - SIGGRAPH 2017 Student Research Competition (SRC)
 
Leaked Light Field-AugmentedHuman2017
Leaked Light Field-AugmentedHuman2017Leaked Light Field-AugmentedHuman2017
Leaked Light Field-AugmentedHuman2017
 

先端技術とメディア表現 第2回レポートまとめ