SlideShare a Scribd company logo
1 of 62
Download to read offline
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの
Deep Neural Network⾼速化
Yusuke Uchida (@yu4u)
1
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
今⽇のおはなし(本発表⼀番のマサカリ場)
2	
			CUDA
cuDNN
NVIDIA	
GPU
GPU
WebGL WebGPU
TPU
Video	
Core	IV
??????
TensorFlow,	
Chainer,	…
deeplearn	
.js
WebDNN??????
@9_Jes	
さん
アプリケーションレイヤ	
@Kiikurage	
さん@notogawa	
さん
@kazunori_279	
さん
@Venginner	
さん
@iwiwi	
さん
@yu4u
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Disclaimer
!  画像を想定した畳み込みニューラルネットワークの話がメインです
!  初歩的な話もしますが許してください
3
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
トレードオフ
!  タスクの精度
!  推論速度
!  訓練速度
!  モデルサイズ(圧縮されたファイルとして)
!  Forwardで必要なメモリサイズ(モデルサイズ含む)
!  推論(訓練速度)はCPUかGPUか、
バッチサイズが1なのか⼤きく取れるのかに⼤きく影響される
4
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
5
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Convolutionの計算量
6	
W
H
W
H
N M
K
K
•  ⼊⼒レイヤサイズ:H	x	W	x	N	
•  畳み込みカーネル:K	x	K	x	N	x	M		
         [conv	K	x	K,	M]と表記	(e.g.	[conv	3x3,	64])	
•  出⼒レイヤサイズ:H	x	W	x	M	
•  畳み込みの計算量:H・W・N・K2・M	
※バイアス項無視、padding	=	“same”
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Convolutionの計算量
7	
W
H
W
H
N M
K
K
•  ⼊⼒レイヤサイズ:H	x	W	x	N	
•  畳み込みカーネル:K	x	K	x	N	x	M		
         [conv	K	x	K,	M]と表記	(e.g.	[conv	3x3,	64])	
•  出⼒レイヤサイズ:H	x	W	x	M	
•  畳み込みの計算量:H・W・N・K2・M	
※バイアス項無視、padding	=	“same”
画像スケール、	
チャネル数、	
カーネルサイズの2乗に⽐例
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
8
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Factorization
!  Low Rank Matrix Factorization
⾏列(=畳み込みカーネル)を低ランク近似することで計算量を削減
!  学習によって得られた⾏列を分解するというよりは
最初から分解した形で重みを学習する
(のでfactorizationと⾔って良いのか?)
9	
≈
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
畳み込みカーネルの空間的Factorization
!  ⼤きな畳込みカーネルを複数の⼩さな畳込みカーネルに置き換える
⁃  conv 5x5 と conv 3x3 - conv 3x3 は同じreceptive fieldを持つ
⁃  計算量は 25:18
⁃  ⼩さな畳み込みを重ねるパターンはactivation層の数も多いため
表現能⼒の向上が期待できる
!  例
⁃  AlexNet:conv 11x11 - conv 5x5 - conv 3x3 - …
  ↓
⁃  VGGNet:conv 3x3 - conv 3x3 - conv 3x3 - …
10	
conv	5x5 conv	3x3	-	conv	3x3
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
畳み込みカーネルの空間的Factorization
!  conv 3x3 vs conv 1x3 - conv 3x1
⁃  計算量は 9:6
!  例:
Inception v6→v7
11	
conv	3x3 conv	1x3	-	conv	3x1	
hap://lsun.cs.princeton.edu/slides/ChrisJan.pdf
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
畳込みカーネルの空間⽅向とチャネル⽅向のFactorization
!  通常の畳込みカーネルをdepthwise / pointwise convolutionに分離
!  Depthwise (separable) convolution
⁃  Input tensorに対しチャネル毎に畳み込み
⁃  計算量:H・W・N・K2・M (M=N)
    H・W・K2・N
!  Pointwise convolution
⁃  ただのconv 1x1, M
⁃  計算量:H・W・N・K2・M (K=1)
    H・W・N・M
!  Depthwise + pointwise
⁃  計算量:H・W・N・(K2 + M)
    ≒ H・W・N・M (M >> K2) 12	
W
H
W
H
N
1
1
M
W
H
W
H
N
K
K
N
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Dilated convolution
!  カーネルの重みに規則的に0を⼊れてカーネルサイズを拡張
!  ⼩さいカーネルと同じ計算量+パラメータで広いreceptive fieldを持つ
⁃  Feature mapの解像度を⾼く保ちたいsegmentationや超解像で
良く使われる
!  例
⁃  Dilated Residual Networks, CVPRʼ17.
⁃  WaveNet - A Generative Model for Raw Audio
13	
conv	5x5 conv	3x3,	dilaJon	=	2
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
実際の処理速度は??
!  PyTorchとKeras (TensorFlow backend) で簡単な実験
⁃  特定の種類のconvolutionのみを含む16層CNNを構築
•  Batch normalizationやactivation層はなし
⁃  ⼊⼒tensorを 32x32x32x64(バッチサイズ32、チャネル数64)
⁃  ランダムな⼊⼒を100回forwardした時間を計測
⁃  環境:Ubuntu 16.04, CPU: i7-7700 3.60GHz、
   GPU: GeForce GTX1080
(TensorFlowはAVX2等を使うようにコンパイルしていない)
!  Summary
14
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
実際の処理速度は??
!  PyTorchとKeras (TensorFlow backend) で簡単な実験
⁃  特定の種類のconvolutionのみを含む16層CNNを構築
•  Batch normalizationやactivation層はなし
⁃  ⼊⼒tensorを 32x32x32x64(バッチサイズ32、チャネル数64)
⁃  ランダムな⼊⼒を100回forwardした時間を計測
⁃  環境:Ubuntu 16.04, CPU: i7-7700 3.60GHz、
   GPU: GeForce GTX1080
(TensorFlowはAVX2等を使うようにコンパイルしていない)
!  Summary
15	
Depthwise	
convoluJon
Conv	3x3	
dilaJon	=	2
haps://github.com/yu4u/conv-benchmark
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
PyTorch CPU
16	
Conv	3x3⽐の	
理論計算量
Depthwise	
convoluJon
Conv	3x3	
dilaJon	=	2
Conv	3x3⽐の
実処理時間
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
PyTorch CPU
!  Depthwise convolutionとdilated convolution以外は
実処理時間と理論計算量が⼀致
!  どちらもメモリの局所性がないため?
⁃  教えて中村さん!
!  PyTorchのdepthwise convolutionはめっちゃ遅い
⁃  Grouped convolutionでグループ数=チャネル数でやってるため
17
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
PyTorch GPU
!  GPUだとfactorizeしないほうが良さそう
⁃  でも5x5が遅いのは?
18
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Keras CPU
!  PyTorchと傾向は同じ
⁃  Depthwise convolutionは専⽤の効率的な実装が存在
⁃  Dilated convolutionも早い
19
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Keras GPU
!  PyTorchとだいたい同じ?
!  Dilated convolutionは早い
20
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
中間的なFactorization
!  Efficient and Accurate Approximations of Nonlinear Convolutional
Networks, CVPRʼ15.
!  Conv k x k, d を Conv k x k, dʼ - Conv 1 x 1, d に分解
⁃  学習済みのカーネルを、出⼒feature mapの誤差を
最⼩に保つように最適化問題を解くことで分解
⁃  計算量:dk2c → dʼk2c + ddʼ = dʼ(k2c + d) ≒ dʼk2c
21
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Domain-adaptive deep network compression, ICCVʼ17.
!  FC層を低ランク近似することで圧縮する
!  通常は重みWと、Wを低ランク⾏列の積で近似したWʼとの誤差を最⼩に
するが、ここではWX(=Y)の誤差を最⼩にする部分がNovelty
(だが1つ前の⼿法とアプローチは同じでは…)
22
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
23
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Efficient microarchitecture (module)
!  Convをスタックするマクロアーキテクチャ (~VGGNet) から
マイクロアーキテクチャをスタックする時代へ (GoogLeNet, ResNet~)
!  様々なマイクロアーキテクチャ (module or building block)
⁃  mlpconv (Network in Network)
⁃  Inception module (GoogLeNet)
⁃  Residual block, bottleneck block (ResNet)
⁃  ResNeXT
⁃  DenseBlock (DenseNet)
⁃  Fire module (SqueezeNet)
⁃  Separable conv (Xception, MobileNets)
⁃  Neural architecture search (meta learning)
!  ダイレクトに計算量を減らすというよりは
精度と計算量のトレードオフを改善する
⁃  実⽤上は精度を担保して、どれだけ計算量を減らせるか
24
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Residual Networks, ResNet(参考)
25	
基本形
conv	3x3,	64
conv	3x3,	128
conv	3x3,	256
conv	3x3,	512
global	average	pooling	
FC
x	N1
x	N2
x	N3
x	N4
56x56
28x28
14x14
7x7
出⼒	
画像サイズ
Building	block	/	
Residual	unit
•  パラメータの違うResidual	unitを重ねていく
•  Batch	normalizaJon	
•  画像サイズを半分+フィルタ数を倍に
•  最後はglobal	average	pooling
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Residual block, bottleneck block
!  Bottleneckバージョンは、conv 3x3, 256を
Factorizeしたものと⾒ることもできる
⁃  Receptive fieldは⼩さい
26	
通常のresidual	block “boaleneck”	バージョン
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Fire module (SqueezeNet)
!  戦略
⁃  3x3の代わりに1x1のフィルタを利⽤する
⁃  3x3への⼊⼒となるチャネル数を少なくする
!  ちなみに⾮常に⼈気のあるモデルだと思われるが…
⁃  ResNetやInception後の論⽂なので、そこからの差異が⼩さい
とのことで、ICLRʼ17でrejectとなっている
27	
conv	1x1,	s1x1
conv	1x1,	e1x1 conv	3x3,	e3x3
concat
Fire	module	
	
	
	
	
	
32
128128
256
256
Squeeze	layer
Expand	layer
conv	3x3,	256の	
Factorizeと⾒ることもできる
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Fire module (SqueezeNet)
28	
Squeeze layerでの圧縮率
0.75程度だと精度低下なし
0.5でー0.7%
Expand layerの3x3割合
0.75程度だと精度低下なし
0.5でー0.7%
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Depthwise separable convolution
!  Xception
!  MobileNets
!  Xceptionはdepthwise/pointwise convの間にReLUがない
⁃  実験でないほうが良いことを⽰している
!  Xceptionはidentity mappingがある
29	
Depthwise conv 3x3
Pointwise conv 3x3
Batch normalization
ReLU
Separable conv 3x3
ReLU
(Maxpool 3x3, stride=2)
Conv 1x1,
stride=2
Separable conv 3x3
Depthwise conv 3x3
Batch normalization
ReLU
Batch normalization
Pointwise conv 3x3
ReLU
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Transferable Architectures for Scalable Image
Recognition, arXiv:1707.07012.
!  moduleアーキテクチャをRNNで最適化
30	
!  ⼤枠のアーキテクチャは決まっている	
•  (ReducJon	cell	+	Normal	cell	×	N)	×	K	
!  ReducJon	cell:feature	mapをダウンサンプル	
!  利⽤可能な要素は下記
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Transferable Architectures for Scalable Image
Recognition, arXiv:1707.07012.
!  できたmodule
!  Sep多い
31
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Transferable Architectures for Scalable Image
Recognition, arXiv:1707.07012.
!  結果
!  Mult-addとのトレードオフは良いが実速は?
32
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
33
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Pruning
!  異なるレベルのpruning
⁃  重みレベル
⁃  カーネルレベル
⁃  チャネル(フィルタ)レベル
⁃  レイヤレベル
34	
Structured	
(⾼速化しやすい	
 最適化しづらい)
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  重みレベルのpruning
35	
•  通常通り重みを訓練	
•  しきい値以下の重みをprune(0にする)	
•  0の重みはそのままにfine-tuneする
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
36	
•  ⾮ゼロ要素を7.5%にまで削減	
•  但し、ほとんどFC層	
↑モダンなモデル	(ResNet~)	はglobal	average	poolingを使うので	
 ここまでパラメータの多いFC層がない
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
(余談)Global average pooling
!  Network In Network, ICLRʻ14. で提案された
!  Feature mapサイズの average pooling
!  オリジナルの論⽂では N をクラス数にすることで、
global average poolingの出⼒がそのままprediction結果となる
⁃  その後の使われ⽅としては、後段に出⼒がクラス数のFC層を使う
!  何れにせよ、パラメータ数の多いFC層が不要
37	
W
H
N
N
1
1
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  んで早くなるの?
⁃  早くなる、FCはね!
(←cuSPARSE等のsparse⾏列演算ライブラリを利⽤)
!  Sparseな重みのconvolutionは?
38
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Pruning Filters for Efficient ConvNets, ICLRʼ17.
!  チャネルレベルのpruning
!  チャネル毎に、畳込みパラメータのL1ノルムが⼩さいものからprune
!  精度を保ったままpruningすると、計算量で10%台の削減
39
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
	
	
	
チャネル毎に⼊⼒を平均0分散1に正規化、γとβでscale	&	shit
Learning Efficient Convolutional Networks through
Network Slimming, ICCV'17.
!  チャネルレベルのpruning
!  各チャネルの出⼒をscalingする変数 γ を導⼊、Σi|γi| をロスとして学習
⁃  γ はbatch normalizationに導⼊する(というか最初からある)
⁃  Batch normalizationの正規化が必須
!  学習後、γi が⼩さいチャネルiを削除し、fine-tune
40	
 チャネルi
Batch	
normalizaJon
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Efficient Convolutional Networks through
Network Slimming, ICCV'17.
!  正則化の効果により、pruning後に精度も上がる!
!  感想
⁃  学習した後にpruningするより筋が良い
⁃  シンプル&Batch normalizationで実現するの、素敵
⁃  SOTA精度のモデルをベースにして検証して欲しい
⁃  ResNetのようなskip connectionがあるとややこしい
41
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
L0ではなくLasso
に緩和して解く
Channel Pruning for Accelerating Very Deep Neural
Networks, ICCVʼ17.
!  チャネルレベルのpruning
!  あるfeature mapのチャネルについて、次のレイヤのfeature mapを
なるべく復元できるようなチャネルを選択し、残りを削除
!  VGG:5倍速, 精度0.3%↓、ResNet:2倍速, 精度1.4%↓
42
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
ThiNet: A Filter Level Pruning Method for Deep Neural
Network Compression, ICCVʼ17.
!  チャネルレベルのPruning
!  前のやつとアプローチは同じ、次のレイヤのfeature mapに誤差を発⽣
させないfilterを削除する
!  実際のforwardした結果から特定のフィルタを削除した際の誤差を計算
!  フィルタの削除はGreedyに⾏う、削除した後に、残ったフィルタを個々
にスケーリングして、誤差を軽減(linear regressionとして解ける)
!  最後にfine-tune
43
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
44
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Quantization
!  重みを量⼦化することでモデルのメモリを削減
⁃  半精度を利⽤するとかでなければソフト的には⾼速化ではない
(デモサイト等でのモデルのダウンロード速度は早くなるが)
!  量⼦化の種類
⁃  Scalar quantization(各次元毎に量⼦化
•  Binary
•  Uniform(centroidが⼀定間隔
•  Adaptive(centroidの間隔をkmeans等で学習
⁃  Product quantization(ベクトルを分割して個別に量⼦化
⁃  Residual quantization(量⼦化→残差を量⼦化
⁃  Hierarchical quantization(量⼦化→残差を量⼦化
⁃  Vector quantization
!  量⼦化効率(centroid数 vs 量⼦化誤差)
⁃  binary < scalar < product < residual, hierarchical < vector
45	
違いは後段の量⼦化コードブ
ックが単⼀かどうか
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Quantization
!  重みを量⼦化することでモデルのメモリを削減
⁃  半精度を利⽤するとかでなければソフト的には⾼速化ではない
(デモサイト等でのモデルのダウンロード速度は早くなるが)
!  量⼦化の種類
⁃  Scalar quantization(各次元毎に量⼦化
•  Binary
•  Uniform(centroidが⼀定間隔
•  Adaptive(centroidの間隔をkmeans等で学習
⁃  Product quantization(ベクトルを分割して個別に量⼦化
⁃  Residual quantization(量⼦化→残差を量⼦化
⁃  Hierarchical quantization(量⼦化→残差を量⼦化
⁃  Vector quantization
!  量⼦化効率(centroid数 vs 量⼦化誤差)
⁃  binary < scalar < product < residual, hierarchical < vector
46	
Deep	learningの	
コンテキストでは	
あまりない
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  (再掲)
47	
今度はココ
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  0でない重みをadaptive scalar quantization
!  重みを量⼦化した状態のままfine-tuneできる!!
48
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
49	
重みのIDを	
ハフマン符号化
⾮ゼロ要素間のgapを	
ハフマン符号化
!  VGG16が552MB → 11.3MB
⁃  伸張に時間は必要そう
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Binary neural networks
!  神資料があるのでまとめだけ…
⁃  https://www.slideshare.net/kentotajiri/ss-77136469
50	
•  ⼊⼒も重みもバイナリ化すること
で⾼速化が可能	
•  ソフト的にも実装が可能	
•  サポートしているメジャーな	
フレームワークがない	
•  精度がまだ低い
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
51
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Distilling the Knowledge in a Neural Network, NIPSʼ14
Deep Learning Workshop.
!  アンサンブルモデルや⼤きなモデルから、⼩さなモデルへの
knowledge transfer
⁃  精度を保ちながら⼩さなモデルを学習
52	
1. アンサンブルモデル
や⼤きなモデルを学習
2. 学習済みモデルを利⽤して
⼩さなモデルを学習
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Distilling the Knowledge in a Neural Network, NIPSʼ14 Deep
Learning Workshop.
53	
……
学習画像
学習済みモデル
学習するモデル
…
正解ラベル
(ハード
ターゲット)
通常T	=	1のsotmaxのTを⼤きくした	
ソフトターゲットを利⽤
…
ソフトターゲット
ソフト
ターゲット
ハード
ターゲット
正解ラベルと	
学習モデル出⼒の	
両⽅を利⽤
推論時はT=1とする(argmaxは同じだが…
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Distilling the Knowledge in a Neural Network, NIPSʼ14
Deep Learning Workshop.
!  同⼀モデルでも、アンサンブルから学習したほうが良かったり
!  ソフトターゲットだと⼩数のデータで効率的に学習できたりする
54
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
55
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
BranchyNet: Fast Inference via Early Exiting from Deep
Neural Networks, ICPRʼ16.
!  ネットワークの途中からラベル推定する分岐を作成
!  そのsoft-maxのエントロピーを信頼値として
閾値以上の場合にExitする
!  学習時のロスは、全てのExitのロスの重み付き和
(重みが最後が1で途中が0.3というHeuristic…)
56
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
BranchyNet: Fast Inference via Early Exiting from Deep
Neural Networks, ICPRʼ16.
!  Exitする閾値を幾つか変えて実験(←MNIST、→CIFAR-10)
!  層の途中にもロスが⼊っている影響か、
ベースよりも精度が上がっている
57
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Spatially Adaptive Computation Time for Residual
Networks, CVPRʼ17.
!  各層のhalting scoreの合計が1を超えるとその層までの結果を出⼒
58	
計算量に関するロス
を追加
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Spatially Adaptive Computation Time for Residual
Networks, CVPRʼ17.
!  空間(feature map)レベルに拡張
59	
SACT=空間レベル	
ACT=res	blockレベル
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Adaptive Neural Networks for Efficient Inference,
ICMLʼ17.
60
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Adaptive Feeding: Achieving Fast and Accurate Detections
by Adaptively Combining Object Detectors, ICCVʼ17.
!  SSD300, SSD500, R-FCNといった異なる精度・計算量のDetectorのう
ち、どれに画像を⼊⼒するかを判定する識別器(SVM)を学習
!  適切なDetectorにFeed→平均的な精度・計算量トレードオフを改善
!  識別器の学習は各画像について実際に各Detectorに検出させ、その
average precisionの⾼い⽅を正解ラベルとする
61
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
まとめ
!  フレームワークより上のレイヤで意味があるのは
⁃  Factorization
⁃  Efficient microarchitecture (module)
⁃  Pruning
•  チャネルレベル(、レイヤレベル)
⁃  Quantization
•  半精度(、バイナリ)
⁃  Distillation
⁃  Early termination
!  精度重視のモデルで学習し、効率的なmoduleにdistillationし、
pruningし、バイナリ化し、early terminationする
→ Efficient module + distillation + channel-level pruning
62

More Related Content

What's hot

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用Ryo Iwaki
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験克海 納谷
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
OSS強化学習フレームワークの比較
OSS強化学習フレームワークの比較OSS強化学習フレームワークの比較
OSS強化学習フレームワークの比較gree_tech
 
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するTakahiro Kubo
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセットToru Tamaki
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 

What's hot (20)

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
OSS強化学習フレームワークの比較
OSS強化学習フレームワークの比較OSS強化学習フレームワークの比較
OSS強化学習フレームワークの比較
 
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 

Viewers also liked

Using Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNNUsing Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNNnotogawa
 
TensorFlow XLAの可能性
TensorFlow XLAの可能性 TensorFlow XLAの可能性
TensorFlow XLAの可能性 Mr. Vengineer
 
バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係Kento Tajiri
 
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjpcocodrips
 
CTFはとんでもないものを 盗んでいきました。私の時間です…
CTFはとんでもないものを 盗んでいきました。私の時間です…CTFはとんでもないものを 盗んでいきました。私の時間です…
CTFはとんでもないものを 盗んでいきました。私の時間です…Hiromu Yakura
 
NVIDIA ディープラーニング用語集
NVIDIA ディープラーニング用語集NVIDIA ディープラーニング用語集
NVIDIA ディープラーニング用語集NVIDIA Japan
 
CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現Yusuke Uchida
 
パッケージングの今
パッケージングの今パッケージングの今
パッケージングの今Atsushi Odagiri
 
Pythonではじめる競技プログラミング
Pythonではじめる競技プログラミングPythonではじめる競技プログラミング
Pythonではじめる競技プログラミングcocodrips
 
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)Yusuke Uchida
 
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, StrongerDeep Learning JP
 
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)Yusuke Uchida
 
DeNAの機械学習・深層学習活用した 体験提供の挑戦
DeNAの機械学習・深層学習活用した体験提供の挑戦DeNAの機械学習・深層学習活用した体験提供の挑戦
DeNAの機械学習・深層学習活用した 体験提供の挑戦Koichi Hamada
 
Deep Learning with GPUs in Production - AI By the Bay
Deep Learning with GPUs in Production - AI By the BayDeep Learning with GPUs in Production - AI By the Bay
Deep Learning with GPUs in Production - AI By the BayAdam Gibson
 
20170721 future of reactive architectures
20170721 future of reactive architectures20170721 future of reactive architectures
20170721 future of reactive architecturesJamie Allen
 
Scala の関数型プログラミングを支える技術
Scala の関数型プログラミングを支える技術Scala の関数型プログラミングを支える技術
Scala の関数型プログラミングを支える技術Naoki Aoyama
 
iOSエンジニアのためのScala入門
iOSエンジニアのためのScala入門iOSエンジニアのためのScala入門
iOSエンジニアのためのScala入門Masaya Dake
 
最近のSingle Shot系の物体検出のアーキテクチャまとめ
最近のSingle Shot系の物体検出のアーキテクチャまとめ最近のSingle Shot系の物体検出のアーキテクチャまとめ
最近のSingle Shot系の物体検出のアーキテクチャまとめYusuke Uchida
 
元インフラエンジニアが
Scalaを触ってつまづいたところ。
元インフラエンジニアが
Scalaを触ってつまづいたところ。元インフラエンジニアが
Scalaを触ってつまづいたところ。
元インフラエンジニアが
Scalaを触ってつまづいたところ。takako onoue
 
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. AvailabilityHPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. AvailabilityHPC DAY
 

Viewers also liked (20)

Using Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNNUsing Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNN
 
TensorFlow XLAの可能性
TensorFlow XLAの可能性 TensorFlow XLAの可能性
TensorFlow XLAの可能性
 
バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係
 
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
 
CTFはとんでもないものを 盗んでいきました。私の時間です…
CTFはとんでもないものを 盗んでいきました。私の時間です…CTFはとんでもないものを 盗んでいきました。私の時間です…
CTFはとんでもないものを 盗んでいきました。私の時間です…
 
NVIDIA ディープラーニング用語集
NVIDIA ディープラーニング用語集NVIDIA ディープラーニング用語集
NVIDIA ディープラーニング用語集
 
CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現
 
パッケージングの今
パッケージングの今パッケージングの今
パッケージングの今
 
Pythonではじめる競技プログラミング
Pythonではじめる競技プログラミングPythonではじめる競技プログラミング
Pythonではじめる競技プログラミング
 
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
 
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
 
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
 
DeNAの機械学習・深層学習活用した 体験提供の挑戦
DeNAの機械学習・深層学習活用した体験提供の挑戦DeNAの機械学習・深層学習活用した体験提供の挑戦
DeNAの機械学習・深層学習活用した 体験提供の挑戦
 
Deep Learning with GPUs in Production - AI By the Bay
Deep Learning with GPUs in Production - AI By the BayDeep Learning with GPUs in Production - AI By the Bay
Deep Learning with GPUs in Production - AI By the Bay
 
20170721 future of reactive architectures
20170721 future of reactive architectures20170721 future of reactive architectures
20170721 future of reactive architectures
 
Scala の関数型プログラミングを支える技術
Scala の関数型プログラミングを支える技術Scala の関数型プログラミングを支える技術
Scala の関数型プログラミングを支える技術
 
iOSエンジニアのためのScala入門
iOSエンジニアのためのScala入門iOSエンジニアのためのScala入門
iOSエンジニアのためのScala入門
 
最近のSingle Shot系の物体検出のアーキテクチャまとめ
最近のSingle Shot系の物体検出のアーキテクチャまとめ最近のSingle Shot系の物体検出のアーキテクチャまとめ
最近のSingle Shot系の物体検出のアーキテクチャまとめ
 
元インフラエンジニアが
Scalaを触ってつまづいたところ。
元インフラエンジニアが
Scalaを触ってつまづいたところ。元インフラエンジニアが
Scalaを触ってつまづいたところ。
元インフラエンジニアが
Scalaを触ってつまづいたところ。
 
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. AvailabilityHPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
 

Similar to モデルアーキテクチャ観点からのDeep Neural Network高速化

NUCで始めるVMware Tanzu
NUCで始めるVMware TanzuNUCで始めるVMware Tanzu
NUCで始めるVMware TanzuHirotaka Sato
 
CMD2021 f01 xilinx_20210921_r1.1
CMD2021 f01 xilinx_20210921_r1.1CMD2021 f01 xilinx_20210921_r1.1
CMD2021 f01 xilinx_20210921_r1.1Yoshihiro Horie
 
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?Kuniyasu Suzaki
 
大規模 Vue アプリケーションの TypeScript 移行
大規模 Vue アプリケーションの TypeScript 移行大規模 Vue アプリケーションの TypeScript 移行
大規模 Vue アプリケーションの TypeScript 移行Shingo Sasaki
 
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...KenzoOkuda
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会Kimikazu Kato
 
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワークJSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワークTakuma Yoshimura
 
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021Preferred Networks
 
「スーパーコンピュータとクラウドゲーム」
「スーパーコンピュータとクラウドゲーム」「スーパーコンピュータとクラウドゲーム」
「スーパーコンピュータとクラウドゲーム」Shinra_Technologies
 
「おうちクラウド」が今熱い!
「おうちクラウド」が今熱い!「おうちクラウド」が今熱い!
「おうちクラウド」が今熱い!Hirotaka Sato
 
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)VirtualTech Japan Inc.
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにNVIDIA Japan
 
Openstackを200%活用するSDSの挑戦
Openstackを200%活用するSDSの挑戦Openstackを200%活用するSDSの挑戦
Openstackを200%活用するSDSの挑戦Tomohiro Hirano
 
Quiznowを支える技術 #yapcasia
Quiznowを支える技術 #yapcasiaQuiznowを支える技術 #yapcasia
Quiznowを支える技術 #yapcasiaYosuke Furukawa
 
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)NTT DATA Technology & Innovation
 
機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編Daiyu Hatakeyama
 
HELLO AI WORLD - MEET JETSON NANO
HELLO AI WORLD - MEET JETSON NANOHELLO AI WORLD - MEET JETSON NANO
HELLO AI WORLD - MEET JETSON NANONVIDIA Japan
 
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月VirtualTech Japan Inc.
 

Similar to モデルアーキテクチャ観点からのDeep Neural Network高速化 (20)

NUCで始めるVMware Tanzu
NUCで始めるVMware TanzuNUCで始めるVMware Tanzu
NUCで始めるVMware Tanzu
 
CMD2021 f01 xilinx_20210921_r1.1
CMD2021 f01 xilinx_20210921_r1.1CMD2021 f01 xilinx_20210921_r1.1
CMD2021 f01 xilinx_20210921_r1.1
 
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
 
大規模 Vue アプリケーションの TypeScript 移行
大規模 Vue アプリケーションの TypeScript 移行大規模 Vue アプリケーションの TypeScript 移行
大規模 Vue アプリケーションの TypeScript 移行
 
GPU Container as a Service を実現するための最新OSS徹底比較
GPU Container as a Service を実現するための最新OSS徹底比較GPU Container as a Service を実現するための最新OSS徹底比較
GPU Container as a Service を実現するための最新OSS徹底比較
 
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワークJSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
 
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
 
「スーパーコンピュータとクラウドゲーム」
「スーパーコンピュータとクラウドゲーム」「スーパーコンピュータとクラウドゲーム」
「スーパーコンピュータとクラウドゲーム」
 
「おうちクラウド」が今熱い!
「おうちクラウド」が今熱い!「おうちクラウド」が今熱い!
「おうちクラウド」が今熱い!
 
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
 
Storm×couchbase serverで作るリアルタイム解析基盤
Storm×couchbase serverで作るリアルタイム解析基盤Storm×couchbase serverで作るリアルタイム解析基盤
Storm×couchbase serverで作るリアルタイム解析基盤
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジに
 
Openstackを200%活用するSDSの挑戦
Openstackを200%活用するSDSの挑戦Openstackを200%活用するSDSの挑戦
Openstackを200%活用するSDSの挑戦
 
Quiznowを支える技術 #yapcasia
Quiznowを支える技術 #yapcasiaQuiznowを支える技術 #yapcasia
Quiznowを支える技術 #yapcasia
 
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
 
機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編
 
HELLO AI WORLD - MEET JETSON NANO
HELLO AI WORLD - MEET JETSON NANOHELLO AI WORLD - MEET JETSON NANO
HELLO AI WORLD - MEET JETSON NANO
 
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月
 

More from Yusuke Uchida

You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionSIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionYusuke Uchida
 
SIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionYusuke Uchida
 
DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術Yusuke Uchida
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)Yusuke Uchida
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習Yusuke Uchida
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningYusuke Uchida
 
Deep Fakes Detection
Deep Fakes DetectionDeep Fakes Detection
Deep Fakes DetectionYusuke Uchida
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019Yusuke Uchida
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Yusuke Uchida
 
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジDeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジYusuke Uchida
 
コンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネスコンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネスYusuke Uchida
 
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Yusuke Uchida
 
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用Yusuke Uchida
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向Yusuke Uchida
 
Embedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural NetworksEmbedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural NetworksYusuke Uchida
 
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説Yusuke Uchida
 
Overcoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだOvercoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだYusuke Uchida
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスYusuke Uchida
 
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだBeliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだYusuke Uchida
 

More from Yusuke Uchida (20)

You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionSIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
 
SIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place Solution
 
DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
Deep Fakes Detection
Deep Fakes DetectionDeep Fakes Detection
Deep Fakes Detection
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会
 
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジDeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
 
コンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネスコンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネス
 
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
 
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
Embedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural NetworksEmbedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural Networks
 
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
 
Overcoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだOvercoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだ
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
 
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだBeliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
 

Recently uploaded

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 

Recently uploaded (10)

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 

モデルアーキテクチャ観点からのDeep Neural Network高速化