SlideShare a Scribd company logo
1 of 44
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
EfficientNet: Rethinking Model Scaling for
Convolutional Neural Networks (ICML2019)
MasashiYokota, RESTAR Inc.
書誌情報
• 著者
– Mingxing Tan, Quoc V. Le
– Google Researchのチーム
– ICML2019 採択
• CNNの層数、チャネル数、解像度を単一のパラメータで最適化す
る手法を提案
2
1. 背景
3
1. 背景
ハイパーパラメータ: 多
チューニングコスト: 大
4
莫大なパラメータを持つネットワークは
数多く提案されている
Gpipe [Huang et. al. 2018]より引用
1.2. 現行の問題点(もう少し具体的に)
• 従来は層数、チャネル数、解像度をそれぞれ独立したパラメータを
チューニングしていた。
→ 探索空間が広く、チューニングが大変 5
ベースライン チャネル数 増加 層数 増加 解像度 増加
1.3. 提案手法の概要
6
• 筆者らの事前実験により各パラメータをバランスよく調整することが
重要だという考察から単一パラメータで層数、チャネル数、解像度を
複合的に調整することで、高精度・高効率なモデルの探索を容易にした。
単一パラメータφ
のみ調整し、
3パラメータを
バランスよく調整
2. 関連研究
7
2.1. 関連研究 (枝切り・量子化等によるモデル圧縮)
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman
Coding [Han et. al. ICLR2016]
• 大きなモデルをscale downしてモデルを効率化する。具体的には、枝
切り、量子化、ハフマン符号化を同時に行うことで精度を落とさず
AlexNetとVGG-16をそれぞれ35倍、49倍圧縮した。 8
• モバイル端末用のモデルのネットワーク構造探索を強化学習で
行った研究。精度とモバイル端末のレイテンシ双方を考慮した指
標を提案し、それを報酬として強化学習を行うことで、
実行環境に最適なモデルを自動構築する。 9
2.2. 関連研究 (探索によるモデル構築)
MnasNet: Platform-Aware Neural Architecture Search for Mobile
[Tan et. al. CVPR2019]
2.3. 関連研究の問題点
• これらの手法は小さなモデルに適用されており、設計が複雑で探
索がより困難な巨大なモデルへどのように適用するかは不明。
• 本論文では巨大なCNNにフォーカスし、モデル圧縮のように大き
なモデルを小さくするのではなく、モデルをscale upさせることで、
高精度・高効率なモデル探索を可能にしている。
10
3. 提案手法
Compound Model Scaling
11
3. 提案手法
1. 問題の定式化
2. パラメータについて
3. Compound Scaling
4. アーキテクチャ探索
12
3.1. 問題の定式化
13
3.1.1. CNNの定式化
• i番目Conv層を以下のように定義:
• また、シンプルなk層のCNNは以下のように定義する:
• ResNetのように一つのブロックが同じタイプのConv層を複数持
つことを考慮し、CNNを以下のように定義する:
14
𝑌𝑖: 𝑖層の出力, 𝑋𝑖: 𝑖層の入力, 𝐹𝑖: 𝑖層の𝑜𝑝𝑒𝑟𝑎𝑡𝑖𝑜𝑛
𝐹𝑖
𝐿 𝑖
: 𝑖番目の𝑠𝑡𝑎𝑔𝑒で𝐹𝑖を𝐿𝑖回リピート
𝐻𝑖: 𝑖番目の入力Height
𝑊𝑖: 𝑖番目の入力𝑊𝑖𝑑𝑡ℎ
𝐶𝑖: 𝑖番目の入力𝐶ℎ𝑎𝑛𝑛𝑒𝑙
3.1.2 問題の定式化
• 本研究では先の式にd,w,rを導入し以下の式を最適化する:
15
𝑑: Depth (層数), 𝑤: 𝑊𝑖𝑑𝑡ℎ(チャネル数), 𝑟: 𝑅𝑒𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 (解像度)
3.2. パラメータについて
16
3.2.1 Depth (d)
• Depth(d): 層数
• dを増やすとモデルがよりリッチな特
徴量を取得できる一方で、深すぎる
と勾配消失問題が起こる。
• 左図では、dがある程度大きくなると
改善幅が頭打ちしていることがわ
かる
17
3.2.2. Width (w)
• Width(w): チャネル数
• wを増やすと、よりfine-grainedな
特徴量を獲得できる
• 一方で、wに比べてネットワークが
浅いと高レベルな特徴量を捉えら
れず、左図のようにwがある程度
大きくなると精度の改善幅が小さ
くなってくる
18
3.2.3. Resolution (r)
• Resolution(r): 解像度
• 初期CNNのImageNet入力画像解
像度は224x224であり、そこから
480x480(ex. Gpipe [Huang et. al.
2018])まで大きくなっている。それ
に比例し良い性能を達成している。
• 一方で、rが大きくなるにつれ多様
な特徴量を獲得できるようにモデ
ルのパラメータ数も増やす必要が
ある。
19
※ r=1.0の時: 解像度224x224
r=2.5の時: 解像度560x560
3.2.4 各パラメータの予備実験から得られた考察
• モデルの層数や、チャンネル数、解像度の各パラメータを大きくす
ると性能が向上するが、大きくするに従い改善幅は小さくなってい
く 20
3.3. Compound Scaling
21
3.3.1 Compound Scalingの予備実験
• 各パラメータすべてをチューニン
グしたときの性能を比較
• 各パラメータを上手く調整するこ
とで、少ないFLOPSで高いパ
フォーマンスを出せる
各パラメータをバランスよく
調整することが重要
22
3.3.2 提案手法 Compound Scaling Method
• 先の予備実験から、d,w,rをバランスよく増加させるために
共通のパラメータφを導入し、以下の式でd,w,rを決定する:
• α,β,γはハイパーパラメータ。 の制限により、FLOPS
が2 𝜙
で増加していくのでFLOPSを見積もりやすくしている
23
メモ: CNNの式
3.4. アーキテクチャ探索
24
3.4.1 アーキテクチャー探索の全体像
本論文では①ベースモデルを決定し、②α,β,γを探索し各パラメータの重
みを決め、③φのチューニングをすることで徐々にモデルのスケールを
上げている。それにより、できるだけ小さい探索空間でモデル探索を可
能にしている。
25
Step1:
ベースモデル
の探索
Step2:
α,β,γの
探索
Step3:
φの
探索
3.4.2. [Step1] ベースモデルのアーキテクチャ探索
• 本提案手法はベースモデルをscale upしていくためモデルはでき
るだけ筋が良いモデルである必要がある。
→MNasNetを用いて精度とFLOPS双方を実現できるモデルを構
築する。この際に以下を報酬としてモデル探索を行う。
26
𝑚: モデル
𝑇: ターゲット𝐹𝐿𝑂𝑃𝑆
𝜔(=−0.07): ACCとFLOPSの
バランスを取るハイパーパラメータ
3.4.3 [Step1] 探索によって得られたアーキテクチャ
• squeeze-and-excitationを持つmobile inverted bottleneck
MBConvをメインに構成されている18層CNN 27
3.4.4 [Step2-3] パラメータチューニング
1. α,β,γの探索:
φ=1で固定し、α,β,γをグリッドサーチする
※ グリッドサーチしていているが、小さいCNNかつ
𝛼 ∙ 𝛽2
∙ 𝛾2
≈ 2の制約があるので探索空間は小さい
2. φの探索:
α,β,γを固定し、φのパラメータをチューニングする
28
4. 実験
29
4. 実験
1. compound scaling自体の有効性検証:
既存モデル(ResNet, MobileNet)にcompound scalingを用いてス
ケールアップ
2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習
3. 転移学習における有効性検証:
EfficientNetの転移学習
30
4.1. compound scaling自体の有効性検証:
既存モデルのcompound scalingを用いたスケールアップ
• MobileNet V1/2とResNet
をベースモデルとし、提案
手法でスケールアップす
る
• ほぼ同程度のFLOPSで
あってもcompound scaling
させる方が性能が良い
• 学習率等の実験条件は
不明
31
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習
• 実験条件:
– Optimizer: RMSProp (decay: 0.9, momentum: 0.9)
– Learning Rate: 0.256 (2.4epoch毎に0.97 decayしていく)
– Dropout Ratio: φの増加するに従って0.2から0.5へ段階的に上げる
– その他:
• Weight decay: 1e-5
• swish activation
• fixed AutoAugment policy
• stochastic depth (drop connect ratio: 0.2)
32
33
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習 (実験結果)
34
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習(FLOPSと精度の比較)
35
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習
(Intel Xeon CPU E5-2690での推論速度比較)
• ImageNetで学習したモデルから以下のデータセットでそれぞれ転
移学習を行う
36
4.3. 転移学習における有効性検証:
EfficientNetの転移学習
37
4.3. 転移学習における有効性検証:
EfficientNetの転移学習(実験結果 1/2)
38
4.3. 転移学習における有効性検証:
EfficientNetの転移学習(実験結果 2/2)
5. Discussion
39
5. Discussion
• Compound scaling自体がどれくらい有益か詳しく分析する
1. 単体パラメータチューニングとcompound scalingの性能比較
2. Class Activation Mapによる活性領域の可視化
3. 2.で可視化したモデルの性能比較
40
5.1. 単体パラメータチューニングとcompound scalingの性能比較
• バランスよくパラメータをチューニングすることは、性能向上に大
きく寄与している
41
5.2. Class Activation Mapによる活性領域の可視化
• Compound scalingが最も上手く特徴量を取れていることがわかる
42
5.3. 可視化したモデルの性能比較
• 先で可視化したモデルの性能を比較。FLOPSが同等な一方で精
度は他より大きく改善されており、compound scalingは少ない
FLOPSでより良い性能のモデルが構築できている
43
まとめと感想
• CNNの層数、チャネル数、解像度を単一のパラメータφでチュー
ニングする手法を提案
• 小さいモデルをMNasNetで構築し、3つのパラメータ(α,β,γ)をグ
リットサーチで探索。その後、3パラメータを固定し、φのパラメー
タチューニングを行っている
• 他手法よりも少ないパラメータ数、FLOPSで高性能を実現
• (感想)CNNを単一パラメータでチューニングできるのは感動。予備
実験からの考察も面白い。一方で思った以上にφチューニングに
至るまでのプロセスが多いので改善の余地がありそう。また、学
習率等も一緒にチューニングできると面白そう。
44

More Related Content

What's hot

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
Shuyo Nakatani
 

What's hot (20)

機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
Data-Centric AIの紹介
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
 

Similar to [DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
 
Micro12勉強会 20130303
Micro12勉強会 20130303Micro12勉強会 20130303
Micro12勉強会 20130303
Toshiya Komoda
 

Similar to [DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (20)

[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
 
論文紹介:Parameter-Efficient Transfer Learning for NLP
論文紹介:Parameter-Efficient Transfer Learning for NLP論文紹介:Parameter-Efficient Transfer Learning for NLP
論文紹介:Parameter-Efficient Transfer Learning for NLP
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)
 
Deep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classificationDeep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classification
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
 
電子動力学アプリケーションの最適化2
電子動力学アプリケーションの最適化2電子動力学アプリケーションの最適化2
電子動力学アプリケーションの最適化2
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
 
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)
 
Micro12勉強会 20130303
Micro12勉強会 20130303Micro12勉強会 20130303
Micro12勉強会 20130303
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender SystemTop-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender System
 

More from Deep Learning JP

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

Recently uploaded (7)

LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 

[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks