SlideShare une entreprise Scribd logo
1  sur  22
Télécharger pour lire hors ligne
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
AdaShare: LearningWhatTo Share For Efficient
Deep Multi-Task Learning
Present Square Co.,Ltd. 小林 範久
書誌情報
2
AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning
(https://arxiv.org/abs/1911.12423)
タイトル:
著者: Ximeng Sun, Rameswar Panda, Rogerio Feris
( Boston University, IBM Research & MIT-IBM Watson AI Lab)
• 効率的なマルチタスク学習のための新しいアプローチを提案。
• マルチタスクネットワークにおいて、与えられたタスクに対してどの層を実行するかを選択するポリシー
を通して、共有パターンを学習する。
• 3つのベンチマークデータセットでSOTA。
概要:
アジェンダ
3
1. 概要
2. 先行研究
3. 提案手法
4. 実験結果
5. まとめ
• 一般的にマルチタスク学習は、 シングルタスク学習と比べて
訓練時間と推論時間を減少させることができ、関連タスク間
の共有表現を学習することで、汎化性能と予測精度を高め
ることが期待できる。
• 自動運転やモバイルプラットフォームのような資源が限られた
アプリケーションに対しても重要。
• しかし、どの層を共有するか否かを手動で調整したり、タスク
数が増加するとパラメータ数が比例して増加してしまう従来
の設計は、効率的ではない。
1. 概要
4
ネットワーク内のどの層をどのタスク間で共有すべきか、どの層をタスク固有にすべきかを決定することで、
高い精度を出しながら、メモリの使用量を抑えるスケーラブルで効率的なネットワークを設計したい
背景
画像出典:http://ruder.io/multi-task/
2. 先行研究
5
Hard-parameter Sharing
• タスク固有のネットワークと共有ネットワークとを組み合わせて使用。
⇒モデルのサイズが、タスクの数に対して線形に増加するため、効率的でない。
Soft-parameter Sharing
従来のマルチタスク学習
• 同じ初期層を使用し、アドホックポイントを手動で設計し、ネットワークを
タスク固有の分岐に分割する。
⇒深い層を有するDNに対して、最適な構成を手動で調整することは困難。
3. 提案手法
6
AdaShare
• 効率的なマルチタスク学習のための新しいアプローチ。
• マルチタスクネットワークにおいて、与えられたタスクに対してどの層
を実行するかを選択するポリシーを通して、共有パターンを学習
する。
• 高い精度を出しながら、メモリの使用量を抑えることができる。
(パラメータを削減できる。)
3. 提案手法
7
AdaShareの学習の概要
• 学習されたタスク固有のポリシー分布からサンプリングされた[Skip or Select] を予測することにより、複数のタスク間の重み
共有パターンを学習する。
• 各層は、2つのタスクで使用されている場合は重み共有され、1つのタスクのみで使用されている場合はタスク固有となる。
• Gumbel-Softmax Samplingを介した標準の逆伝播を使用して、ポリシーと重みパラメーターの両方を学習する。
• 訓練では、タスク固有の損失とポリシーの正規化(スパース性と共有を促進)を使用する。
3. 提案手法
8
アプローチ
:ポリシー [0, 1](Skip or Select)𝑢𝑙,𝑘
:タスク {𝑇1, 𝑇2,・・・ , 𝑇𝑘}𝑇𝑘
𝑙 :レイヤーの数
𝑊 :重み
ポリシー𝑈とネットワークの重み𝑊を共に学習させる。
• ポリシー𝑈の取りうる値は、層の数とタスクの数と共に指数関数的(2 𝐿×𝐾)に増加する。
• 重みWは誤差逆伝播で求めることができるが、ポリシーUは離散的で誤差逆伝播できない。
⇒Gumbel Softmax Samplingを採用することで、誤差逆伝播によって𝑈を最適化する。
𝑇1(𝑆𝑒𝑔)
𝑇2(𝑆𝑁)
レイヤー
1, 2, 3, ・・・ 𝑙 − 1, 𝑙
[1] [1] [0] [0] [1]
[1] [0] [1] [1] [1]
<例>
タスク
(1)
※各レイヤーの重みについて、skip or selectを選択する。
T1、T2でselect されていれば、重み共有となる。
3. 提案手法
9
Gumbel Softmax Sampling
(2)
:タスクT𝑘の 𝑙 番目 のブロックで選択される確率α𝑙,𝑘 :Gumbel DistributionG𝑙,𝑘
:Skip or Selectπ𝑙,𝑘 π𝑙,𝑘 = [1 − α𝑙,𝑘, α𝑙,𝑘]
※argmaxした時に異なるクラスが出力されるため、
疑似的にサンプリングを行うことができる。
:温度パラメータ(本論文では、𝜏 = 5を利用)τ
(3)
= 𝑠𝑜𝑓𝑡𝑚𝑎𝑥((log 𝜋 + 𝐺)/𝜏)
上記式について、離散分布のサンプリングから、Gumbel Softmax 分布を用いた微分可能サンプリングに変換。
3. 提案手法
10
𝑳 𝒔𝒑𝒂𝒓𝒔𝒊𝒕𝒚
(5)
(6)
(7)
𝑳 𝒔𝒉𝒂𝒓𝒊𝒏𝒈 重みの共有を推奨する損失。(重みが共有されていないと損失が増える。)
異なるタスクのポリシー間のL1距離の加重和。
初期層の共有を促進することを重点に置き、初期層で重みが共有されていない場合ほど、損失が大きくなる。
𝑳 𝒕𝒐𝒕𝒂𝒍
疎であることを推奨する損失。選択される確率が高くなるほど、損失が大きくなる。
(α𝑙,𝑘は、タスク𝑇𝑘の 𝑙 番目 のブロックで選択される確率。)
損失関数
(4)
:タスクT𝑘の 固有のLoss𝐿 𝑘𝑳 𝒕𝒂𝒔𝒌
3. 提案手法
11
学習
全体のネットワーク訓練を二つの段階に分けて学習。
第1段階
ネットワークの重みとポリシーを学習。
訓練データの80%を用いて、固定ポリシー分布からサンプリングされたポリシーを持つネットワークの重みを学習。
次に、訓練データの20%を用いて、ネットワーク重みを固定し、ポリシーを最適化。
第2段階
第1段階で学習した最良のポリシーを用いた上で、[Skip or Select] を学習する。
⇒このとき、決定空間のサイズが指数関数的にスケールするので、カリキュラム学習を採用。
決定空間を徐々に拡大し、訓練を安定させる。
具体的には、𝑙番目(𝑙 < 𝐿)のエポックに対しては,最後の𝑙ブロックのポリシー分布のみを学習する。そして、𝑙が増加する
につれて追加ブロックの分布パラメータを徐々に学習し、Lエポック以降ですべてのブロックの結合分布を学習する。
タスク間で各ブロックの重みを共有する形で、ネットワーク重みを学習させる。
AdaShareにおけるカリキュラム学習
※タスク数が増えた場合、新しいタスクに対してもL個の追加パラメータで済むため、スケーラブルなモデルになっている。
4. 実験結果
12
実験データ
• NYU v2データセット
• CityScapesデータセット
• Tiny-Taskonomy
以下の3種類のデータセットで検証
比較ベースライン
合計6つの異なるベースラインと比較する。
・単一タスク:タスク固有のバックボーンとタスク固有のヘッドを使用して、各タスクを個別にトレーニング
・マルチタスク:すべてのタスクがバックボーンネットワークを共有するが、最後に別々のタスク固有ヘッドを持つ
一般的なマルチタスクベースライン。(Hard Parameter Sharing)
・4つのSoft Parameter Sharing手法
・Cross‐Stitch Networks
・Sluice Networks
・NDDRCNN:タスク固有のバックボーン間に幾つかの特徴融合層を採用
・MTAN :MTLのための共有バックボーン上にタスク固有注意モジュールを導入したを最先端MTL
※公平な比較のために、すべての方法(提案アプローチを含む)で同じバックボーンとタスク固有のヘッドを使用。
バックボーンはDeeplab-ResNet、タスク固有ヘッドはASPPアーキテクチャを採用。
4. 実験結果
13
定性的評価
NYU v2 : 3タスク学習の比較(Multi-task、MTAN、AdaShare)
AdaShareは、セマンティックセグメンテーション(Seg)、表面法線予測(SN)、深度予測(Depth)で、より正確な
予測と明確な輪郭を提供。(赤いボックスは関心領域)
4. 実験結果
14
定量的評価
NYU v2データセット 2つのタスク(Semantic Segmentation、Surface Normal Prediction)
• 7つの評価指標のうち
4つで最高の精度を
達成。
• パラメータ数を約半減
させている。
4. 実験結果
15
定量的評価
CityScapesデータセット 2つのタスク(Semantic Segmentation、Depth Prediction)
7つの評価指標のうち5つで最高の精度
を達成。
1つの評価指標で2番目に優れた精度。
4. 実験結果
16
定量的評価
NYU v2 データセット 3つのタスク(Semantic Seg、Surface Normal Prediction 、Depth Prediction)
タスクが3つに増
えるとパラメータ
数は約1/3に減
10個の評価指
標で最高の精度
を達成。
4. 実験結果
17
定量的評価
タスクが5つに増えると約1/5程度のパラメータ数に削減。5つのタスクのうち3つでベースラインを上回る精度を達成。
Tiny-Taskonomy (5-Task Learning)
4. 実験結果
18
ポリシーの視覚化とタスクの相関関係
• 学習したα𝑙𝑘を4つの実験シナリオで三つのデータセット上に可視化。ブロックの濃さは、特定のタスクに対して選択
されているブロックの確率を表す。AdaShareの ポリシーUも表示。
• 例えば、NYU v2 2‐タスク学習 (a) では、Semantic SegmenationとSurface Normal Predictionの
タスクについて、6ブロックを共有する。
• (e) は、タスク相関(タスク固有データセット間のコサイン類似性)を表示する。
4. 実験結果
19
Ablation Studies (CityScapes 2-Task Learning )
Random#1 :全てのタスクでスキップされた数と同じ数をランダムにスキップさせて精度を確認
(各タスクごとにスキップされる数は制限しない)
Random#2 :各タスクでスキップされた数と同じ数をランダムにスキップさせて精度を確認
ランダムポリシーとの比較
損失関数、カリキュラム学習の評価
w/o curriculum:カリキュラム学習
w/o 𝑳 𝒔𝒑𝒂𝒓𝒔𝒊𝒕𝒚 : 𝐿 𝑠𝑝𝑎𝑟𝑠𝑖𝑡𝑦の損失
w/o 𝑳 𝒔𝒉𝒂𝒓𝒊𝒏𝒈 : 𝐿 𝑠ℎ𝑎𝑟𝑖𝑛𝑔 の損失
をそれぞれ評価
⇒各手法の有効性を確認
4. 実験結果
20
Ablation Studies(Ablation Studies in NYU v2 3-Task Learning )
5. まとめ
21
結論
• マルチタスク学習(MLT)における複数のタスクに渡る特徴共有ポリシーを決定するための、新たなアプ
ローチを提示。
• 標準の逆伝播を利用して、重み共有ポリシーとネットワークの重みを共同で学習する。
• パラメータを大幅に減らしたコンパクトなマルチタスクネットワークを学習するための2つの正則化
(𝐿 𝑠𝑝𝑎𝑟𝑠𝑖𝑡𝑦と𝐿 𝑠ℎ𝑎𝑟𝑖𝑛𝑔)を導入し、複数のタスクに渡って高い精度を実現。
• 3つのベンチマークデータセットで有効性を実証。
Appendix
参考文献
22
• [4] Yoshua Bengio, Jérôme Louradour, Ronan Collobert, and Jason Weston. Curriculum learning. In
Proceedings of the 26th annual international conference on machine learning, pages 41–48. ACM, 2009.
• [10] Marius Cordts, Mohamed Omran, Sebastian Ramos, Timo Rehfeld, Markus Enzweiler, Rodrigo Benenson,
Uwe Franke, Stefan Roth, and Bernt Schiele. The cityscapes dataset for semantic urban scene
understanding. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages
3213–3223, 2016.
• [15] Yuan Gao, Jiayi Ma, Mingbo Zhao, Wei Liu, and Alan L Yuille. Nddr-cnn: Layerwise feature fusing in
multi-task cnns by neural discriminative dimensionality reduction. In CVPR, 2019.
• [20] Laurent Jacob, Jean-philippe Vert, and Francis R Bach. Clustered multi-task learning: A convex
formulation. In NIPS, 2009.
• [23] Zhuoliang Kang, Kristen Grauman, and Fei Sha. Learning with whom to share in multi-task feature
learning. In ICML, 2011.
• [31] Shikun Liu, Edward Johns, and Andrew J Davison. End-to-end multi-task learning with attention. In
CVPR, 2019.
• [37] Pushmeet Kohli Nathan Silberman, Derek Hoiem and Rob Fergus. Indoor segmentation and support
inference from rgbd images. In ECCV, 2012.
• [47] Trevor Standley, Amir R Zamir, Dawn Chen, Leonidas Guibas, Jitendra Malik, and Silvio Savarese.
Which tasks should be learned together in multi-task learning? arXiv preprint arXiv:1905.07553, 2019.
• [60] Amir R Zamir, Alexander Sax, William Shen, Leonidas J Guibas, Jitendra Malik, and Silvio Savarese.
Taskonomy: Disentangling task transfer learning. In CVPR, 2018.

Contenu connexe

Tendances

近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine IntelligenceDeep Learning JP
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向Naoki Matsunaga
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs Deep Learning JP
 
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time SeriesDeep Learning JP
 
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP LatentsDeep Learning JP
 
MS COCO Dataset Introduction
MS COCO Dataset IntroductionMS COCO Dataset Introduction
MS COCO Dataset IntroductionShinagawa Seitaro
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)Deep Learning JP
 

Tendances (20)

近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
 
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
 
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
 
MS COCO Dataset Introduction
MS COCO Dataset IntroductionMS COCO Dataset Introduction
MS COCO Dataset Introduction
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
HiPPO/S4解説
HiPPO/S4解説HiPPO/S4解説
HiPPO/S4解説
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
 

Similaire à [DL輪読会]AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning

効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)cvpaper. challenge
 
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy GeneralizationDeep Learning JP
 
深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)ssuser441cb9
 
Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読poppyuri
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksDeep Learning JP
 
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender SystemTop-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender Systemharmonylab
 
レポート深層学習Day4
レポート深層学習Day4レポート深層学習Day4
レポート深層学習Day4ssuser9d95b3
 
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based ControlDeep Learning JP
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain GeneralizationDeep Learning JP
 
WWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえりWWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえりyyammt
 
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜Preferred Networks
 
20181119_ICON技術セミナー7_石坂
20181119_ICON技術セミナー7_石坂20181119_ICON技術セミナー7_石坂
20181119_ICON技術セミナー7_石坂ICT_CONNECT_21
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World ModelsDeep Learning JP
 
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement LearningDeep Learning JP
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative ModelingDeep Learning JP
 
ラビットチャレンジレポート 深層学習Day4
ラビットチャレンジレポート 深層学習Day4ラビットチャレンジレポート 深層学習Day4
ラビットチャレンジレポート 深層学習Day4HiroyukiTerada4
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 

Similaire à [DL輪読会]AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning (20)

効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)
 
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
 
深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)
 
Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
 
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender SystemTop-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender System
 
レポート深層学習Day4
レポート深層学習Day4レポート深層学習Day4
レポート深層学習Day4
 
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
 
WWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえりWWW2017 Recommender Systems ふりかえり
WWW2017 Recommender Systems ふりかえり
 
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
 
20181119_ICON技術セミナー7_石坂
20181119_ICON技術セミナー7_石坂20181119_ICON技術セミナー7_石坂
20181119_ICON技術セミナー7_石坂
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models
 
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
 
NeurIPS2019参加報告
NeurIPS2019参加報告NeurIPS2019参加報告
NeurIPS2019参加報告
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 
ラビットチャレンジレポート 深層学習Day4
ラビットチャレンジレポート 深層学習Day4ラビットチャレンジレポート 深層学習Day4
ラビットチャレンジレポート 深層学習Day4
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 

Plus de Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 

Plus de Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 

Dernier

論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 

Dernier (9)

論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 

[DL輪読会]AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning

  • 1. 1 DEEP LEARNING JP [DL Papers] http://deeplearning.jp/ AdaShare: LearningWhatTo Share For Efficient Deep Multi-Task Learning Present Square Co.,Ltd. 小林 範久
  • 2. 書誌情報 2 AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning (https://arxiv.org/abs/1911.12423) タイトル: 著者: Ximeng Sun, Rameswar Panda, Rogerio Feris ( Boston University, IBM Research & MIT-IBM Watson AI Lab) • 効率的なマルチタスク学習のための新しいアプローチを提案。 • マルチタスクネットワークにおいて、与えられたタスクに対してどの層を実行するかを選択するポリシー を通して、共有パターンを学習する。 • 3つのベンチマークデータセットでSOTA。 概要:
  • 3. アジェンダ 3 1. 概要 2. 先行研究 3. 提案手法 4. 実験結果 5. まとめ
  • 4. • 一般的にマルチタスク学習は、 シングルタスク学習と比べて 訓練時間と推論時間を減少させることができ、関連タスク間 の共有表現を学習することで、汎化性能と予測精度を高め ることが期待できる。 • 自動運転やモバイルプラットフォームのような資源が限られた アプリケーションに対しても重要。 • しかし、どの層を共有するか否かを手動で調整したり、タスク 数が増加するとパラメータ数が比例して増加してしまう従来 の設計は、効率的ではない。 1. 概要 4 ネットワーク内のどの層をどのタスク間で共有すべきか、どの層をタスク固有にすべきかを決定することで、 高い精度を出しながら、メモリの使用量を抑えるスケーラブルで効率的なネットワークを設計したい 背景 画像出典:http://ruder.io/multi-task/
  • 5. 2. 先行研究 5 Hard-parameter Sharing • タスク固有のネットワークと共有ネットワークとを組み合わせて使用。 ⇒モデルのサイズが、タスクの数に対して線形に増加するため、効率的でない。 Soft-parameter Sharing 従来のマルチタスク学習 • 同じ初期層を使用し、アドホックポイントを手動で設計し、ネットワークを タスク固有の分岐に分割する。 ⇒深い層を有するDNに対して、最適な構成を手動で調整することは困難。
  • 6. 3. 提案手法 6 AdaShare • 効率的なマルチタスク学習のための新しいアプローチ。 • マルチタスクネットワークにおいて、与えられたタスクに対してどの層 を実行するかを選択するポリシーを通して、共有パターンを学習 する。 • 高い精度を出しながら、メモリの使用量を抑えることができる。 (パラメータを削減できる。)
  • 7. 3. 提案手法 7 AdaShareの学習の概要 • 学習されたタスク固有のポリシー分布からサンプリングされた[Skip or Select] を予測することにより、複数のタスク間の重み 共有パターンを学習する。 • 各層は、2つのタスクで使用されている場合は重み共有され、1つのタスクのみで使用されている場合はタスク固有となる。 • Gumbel-Softmax Samplingを介した標準の逆伝播を使用して、ポリシーと重みパラメーターの両方を学習する。 • 訓練では、タスク固有の損失とポリシーの正規化(スパース性と共有を促進)を使用する。
  • 8. 3. 提案手法 8 アプローチ :ポリシー [0, 1](Skip or Select)𝑢𝑙,𝑘 :タスク {𝑇1, 𝑇2,・・・ , 𝑇𝑘}𝑇𝑘 𝑙 :レイヤーの数 𝑊 :重み ポリシー𝑈とネットワークの重み𝑊を共に学習させる。 • ポリシー𝑈の取りうる値は、層の数とタスクの数と共に指数関数的(2 𝐿×𝐾)に増加する。 • 重みWは誤差逆伝播で求めることができるが、ポリシーUは離散的で誤差逆伝播できない。 ⇒Gumbel Softmax Samplingを採用することで、誤差逆伝播によって𝑈を最適化する。 𝑇1(𝑆𝑒𝑔) 𝑇2(𝑆𝑁) レイヤー 1, 2, 3, ・・・ 𝑙 − 1, 𝑙 [1] [1] [0] [0] [1] [1] [0] [1] [1] [1] <例> タスク (1) ※各レイヤーの重みについて、skip or selectを選択する。 T1、T2でselect されていれば、重み共有となる。
  • 9. 3. 提案手法 9 Gumbel Softmax Sampling (2) :タスクT𝑘の 𝑙 番目 のブロックで選択される確率α𝑙,𝑘 :Gumbel DistributionG𝑙,𝑘 :Skip or Selectπ𝑙,𝑘 π𝑙,𝑘 = [1 − α𝑙,𝑘, α𝑙,𝑘] ※argmaxした時に異なるクラスが出力されるため、 疑似的にサンプリングを行うことができる。 :温度パラメータ(本論文では、𝜏 = 5を利用)τ (3) = 𝑠𝑜𝑓𝑡𝑚𝑎𝑥((log 𝜋 + 𝐺)/𝜏) 上記式について、離散分布のサンプリングから、Gumbel Softmax 分布を用いた微分可能サンプリングに変換。
  • 10. 3. 提案手法 10 𝑳 𝒔𝒑𝒂𝒓𝒔𝒊𝒕𝒚 (5) (6) (7) 𝑳 𝒔𝒉𝒂𝒓𝒊𝒏𝒈 重みの共有を推奨する損失。(重みが共有されていないと損失が増える。) 異なるタスクのポリシー間のL1距離の加重和。 初期層の共有を促進することを重点に置き、初期層で重みが共有されていない場合ほど、損失が大きくなる。 𝑳 𝒕𝒐𝒕𝒂𝒍 疎であることを推奨する損失。選択される確率が高くなるほど、損失が大きくなる。 (α𝑙,𝑘は、タスク𝑇𝑘の 𝑙 番目 のブロックで選択される確率。) 損失関数 (4) :タスクT𝑘の 固有のLoss𝐿 𝑘𝑳 𝒕𝒂𝒔𝒌
  • 11. 3. 提案手法 11 学習 全体のネットワーク訓練を二つの段階に分けて学習。 第1段階 ネットワークの重みとポリシーを学習。 訓練データの80%を用いて、固定ポリシー分布からサンプリングされたポリシーを持つネットワークの重みを学習。 次に、訓練データの20%を用いて、ネットワーク重みを固定し、ポリシーを最適化。 第2段階 第1段階で学習した最良のポリシーを用いた上で、[Skip or Select] を学習する。 ⇒このとき、決定空間のサイズが指数関数的にスケールするので、カリキュラム学習を採用。 決定空間を徐々に拡大し、訓練を安定させる。 具体的には、𝑙番目(𝑙 < 𝐿)のエポックに対しては,最後の𝑙ブロックのポリシー分布のみを学習する。そして、𝑙が増加する につれて追加ブロックの分布パラメータを徐々に学習し、Lエポック以降ですべてのブロックの結合分布を学習する。 タスク間で各ブロックの重みを共有する形で、ネットワーク重みを学習させる。 AdaShareにおけるカリキュラム学習 ※タスク数が増えた場合、新しいタスクに対してもL個の追加パラメータで済むため、スケーラブルなモデルになっている。
  • 12. 4. 実験結果 12 実験データ • NYU v2データセット • CityScapesデータセット • Tiny-Taskonomy 以下の3種類のデータセットで検証 比較ベースライン 合計6つの異なるベースラインと比較する。 ・単一タスク:タスク固有のバックボーンとタスク固有のヘッドを使用して、各タスクを個別にトレーニング ・マルチタスク:すべてのタスクがバックボーンネットワークを共有するが、最後に別々のタスク固有ヘッドを持つ 一般的なマルチタスクベースライン。(Hard Parameter Sharing) ・4つのSoft Parameter Sharing手法 ・Cross‐Stitch Networks ・Sluice Networks ・NDDRCNN:タスク固有のバックボーン間に幾つかの特徴融合層を採用 ・MTAN :MTLのための共有バックボーン上にタスク固有注意モジュールを導入したを最先端MTL ※公平な比較のために、すべての方法(提案アプローチを含む)で同じバックボーンとタスク固有のヘッドを使用。 バックボーンはDeeplab-ResNet、タスク固有ヘッドはASPPアーキテクチャを採用。
  • 13. 4. 実験結果 13 定性的評価 NYU v2 : 3タスク学習の比較(Multi-task、MTAN、AdaShare) AdaShareは、セマンティックセグメンテーション(Seg)、表面法線予測(SN)、深度予測(Depth)で、より正確な 予測と明確な輪郭を提供。(赤いボックスは関心領域)
  • 14. 4. 実験結果 14 定量的評価 NYU v2データセット 2つのタスク(Semantic Segmentation、Surface Normal Prediction) • 7つの評価指標のうち 4つで最高の精度を 達成。 • パラメータ数を約半減 させている。
  • 15. 4. 実験結果 15 定量的評価 CityScapesデータセット 2つのタスク(Semantic Segmentation、Depth Prediction) 7つの評価指標のうち5つで最高の精度 を達成。 1つの評価指標で2番目に優れた精度。
  • 16. 4. 実験結果 16 定量的評価 NYU v2 データセット 3つのタスク(Semantic Seg、Surface Normal Prediction 、Depth Prediction) タスクが3つに増 えるとパラメータ 数は約1/3に減 10個の評価指 標で最高の精度 を達成。
  • 18. 4. 実験結果 18 ポリシーの視覚化とタスクの相関関係 • 学習したα𝑙𝑘を4つの実験シナリオで三つのデータセット上に可視化。ブロックの濃さは、特定のタスクに対して選択 されているブロックの確率を表す。AdaShareの ポリシーUも表示。 • 例えば、NYU v2 2‐タスク学習 (a) では、Semantic SegmenationとSurface Normal Predictionの タスクについて、6ブロックを共有する。 • (e) は、タスク相関(タスク固有データセット間のコサイン類似性)を表示する。
  • 19. 4. 実験結果 19 Ablation Studies (CityScapes 2-Task Learning ) Random#1 :全てのタスクでスキップされた数と同じ数をランダムにスキップさせて精度を確認 (各タスクごとにスキップされる数は制限しない) Random#2 :各タスクでスキップされた数と同じ数をランダムにスキップさせて精度を確認 ランダムポリシーとの比較 損失関数、カリキュラム学習の評価 w/o curriculum:カリキュラム学習 w/o 𝑳 𝒔𝒑𝒂𝒓𝒔𝒊𝒕𝒚 : 𝐿 𝑠𝑝𝑎𝑟𝑠𝑖𝑡𝑦の損失 w/o 𝑳 𝒔𝒉𝒂𝒓𝒊𝒏𝒈 : 𝐿 𝑠ℎ𝑎𝑟𝑖𝑛𝑔 の損失 をそれぞれ評価 ⇒各手法の有効性を確認
  • 20. 4. 実験結果 20 Ablation Studies(Ablation Studies in NYU v2 3-Task Learning )
  • 21. 5. まとめ 21 結論 • マルチタスク学習(MLT)における複数のタスクに渡る特徴共有ポリシーを決定するための、新たなアプ ローチを提示。 • 標準の逆伝播を利用して、重み共有ポリシーとネットワークの重みを共同で学習する。 • パラメータを大幅に減らしたコンパクトなマルチタスクネットワークを学習するための2つの正則化 (𝐿 𝑠𝑝𝑎𝑟𝑠𝑖𝑡𝑦と𝐿 𝑠ℎ𝑎𝑟𝑖𝑛𝑔)を導入し、複数のタスクに渡って高い精度を実現。 • 3つのベンチマークデータセットで有効性を実証。
  • 22. Appendix 参考文献 22 • [4] Yoshua Bengio, Jérôme Louradour, Ronan Collobert, and Jason Weston. Curriculum learning. In Proceedings of the 26th annual international conference on machine learning, pages 41–48. ACM, 2009. • [10] Marius Cordts, Mohamed Omran, Sebastian Ramos, Timo Rehfeld, Markus Enzweiler, Rodrigo Benenson, Uwe Franke, Stefan Roth, and Bernt Schiele. The cityscapes dataset for semantic urban scene understanding. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 3213–3223, 2016. • [15] Yuan Gao, Jiayi Ma, Mingbo Zhao, Wei Liu, and Alan L Yuille. Nddr-cnn: Layerwise feature fusing in multi-task cnns by neural discriminative dimensionality reduction. In CVPR, 2019. • [20] Laurent Jacob, Jean-philippe Vert, and Francis R Bach. Clustered multi-task learning: A convex formulation. In NIPS, 2009. • [23] Zhuoliang Kang, Kristen Grauman, and Fei Sha. Learning with whom to share in multi-task feature learning. In ICML, 2011. • [31] Shikun Liu, Edward Johns, and Andrew J Davison. End-to-end multi-task learning with attention. In CVPR, 2019. • [37] Pushmeet Kohli Nathan Silberman, Derek Hoiem and Rob Fergus. Indoor segmentation and support inference from rgbd images. In ECCV, 2012. • [47] Trevor Standley, Amir R Zamir, Dawn Chen, Leonidas Guibas, Jitendra Malik, and Silvio Savarese. Which tasks should be learned together in multi-task learning? arXiv preprint arXiv:1905.07553, 2019. • [60] Amir R Zamir, Alexander Sax, William Shen, Leonidas J Guibas, Jitendra Malik, and Silvio Savarese. Taskonomy: Disentangling task transfer learning. In CVPR, 2018.