SlideShare une entreprise Scribd logo
1  sur  23
Learning Transferable Features with
Deep Adaptation Networks
DL Hacks Paper Reading
2015.11.05 D2 Yusuke IWASAWA
書誌情報
• “Learning Transferable Features with Deep Adaptatiopn
Networks”
• Mingsheng Long, Yue Cao, Jianmin Wang, Michel I. Jordan
• Tshinghua University(清華大学), China
– “USニューズの世界大学ランキング、工学分野で清華大がMITを
抜いて首位に―中国メディア”
– http://www.excite.co.jp/News/chn_soc/20151009/Xinhua_30221.html
• #Citations: 6
• 概要
– 従来は転移が難しいとされていたDeep Learningの深い層での転移を
行うモデルを提案
– 既存手法(TCA, GFK, CNN, LapCNN, DDC)と比較して複数のデー
タセットで良い精度が出ることを確認した
• データセットはどちらも画像
カーネル平均埋め込みについて
• この論文ではカーネル平均埋め込み、再生核ヒルベ
ルト空間に関する知識、特に、
– Gretton et al., “A kernel two-sample test”, 2012a
– Gretton et al., “Optimal kernel choice for large-scale two
sample test”
• の2つの論文の手法をガンガンこれ使ったよと言っ
た感じで使ってます
• が、力不足のためところどころ論文参照で済ませま
す
– ※1本目は51ページある
– ※特に2本目の1部が意味不明
– 基本的には、密度推定とかしないでkernel法の
枠組みでもろもろ統計量計算したいというモチベーショ
ンの中
Domain Adaptation
• 次のような状況を考える
– 複数のデータセットがそれぞれ異なる分布に従って生成
されている
– 片方のデータは多くの情報(典型的には教師データ)を
持っている
Image Net Pascal
Domain
Discrepancy
KnowledgeTransfer
Source Domain Target Domain
But How?
• 1つの方法は、複数のドメインで共通の特徴空間を学習する
こと
• ↑は、Domain Disperencyを何らかの方法で
定義して、それを一緒に最適化することで達成される
– いろんな研究がある(知りたい方は論文Intro2パラ
orRelated Workあたりに書いてあります
• Survey: [Pan et al. 2011]
– 最近はDeepにするのが流行(良い精度
• DeCAFなど
– ただし、単にDeepにするだけだといくつか問題
• 深い層に行くほどtransferabilityが下がる[Yosinski, 2014]
• 理論的な下界が決まっていない[Ben-David, 2010]
• 複数の層を転移する方法がない
How transferable are features in DNN?
[Yosinski, NIPS2014]
• 層が深いほど転移に
失敗する
Deep Adaptive Networks
1. 深い層のSとTの分布の不一致を低減させるように
学習する(普通の教師あり学習と同時に)
2. Domain Discrepancyの基準にはMK-MDDを利用
1. 理論的な下限を計算可能
(準備)再生核ヒルベルト空間RKHS
• ヒルベルト空間:完備な内積空間
– 完備:距離空間における任意のコーシー列がその空間内
の点に収束する
• 距離空間:任意の2点間の距離が定められた集合
• コーシー列:十分先の方でほとんど値が変化しない数列
– 内積空間:内積の定義されたベクトル空間
• ベクトル空間:和とスカラー倍が定義された集合
• 再生性:
– Hが再生核ヒルベルト空間の場合、H上の任意の元fとk(.,
x) の内積は、任意の関数fにおいてxを入力した時の値f(x)
になる
– CF. カーネルトリック
• この例が線形カーネルとかガウシアンカーネルとか
(準備)分布の違いの計測
• 二つの分布の違いを定義したい
– 情報理論の世界では普通コルモゴロフ・スミノフ検定と
かKLダイバージェンスを使う
– ただし、これらの方法は密度推定が必要->計算重い
• MMD(再生核ヒルベルト空間上での分布の距離)
を使う
(準備)Maximum Mean Discrepancy (MMD)
• MMD
– p, q: SourceとTargetの分布
– xs,xt: SourceとTargetのデータ
– 要は平均の差の最大値
– 直感的には全てのモーメントが一致すれば分布も一致し
てるよねという感じらしい
– fが入力空間から再生核ヒルベルト空間Hkへの写像である
時、 (多分再生性から)次が成り立つ
where
(多分左をカーネル
平均埋め込みという)
Multi-Kernel MMD (MK-MMD)
• MMDの問題点:
– kernelの選択が検出力やテスト誤差に大きく関わる
– 複数のKernel使いたい
• ->MK-MMD
– 多分この論文で定義している(確証はないです
– kernelを複数の正定値kernelの線形和に置き換えるだけ
線形和も正定値になるための制約
目的関数
• 普通の目的関数とMK-MMDを同時に学習する
• Dlはデータ点のl層目での表現
• DANの良いところは
1. 複数の高次元層をadaptできる
2. Multi-kernelである
普通の目的関数 複数層でのMK-MMDの和
(LayerWise)
CNNのパラメタθの学習
• MK-MMDそのままだと平均をとるのに複数のデー
タ点の和を取らなきゃいけない
– 計算がO(N^2)かかる、SGDがあんまり使いやすくない
• [Gretton,2012b]で提案されている方法に従ってMK-
MMDを推定
– これでO(N)になり、普通のSGDでできる
• 多分ここが[Gretton,2012b]
• おそらく2つのデータ点をまとめて1つの
データ点と見て学習する感じ
Learning β
• [Gretton,2012b]に従って最適化
• Type2の誤差を最小化するように学習
• QPで解ける
– ここが一番わからない
– 詳細は[Gretton,2012b]を読んでください
Reminder: Multi Kernel
こいつ
Target Taskでの誤差の上限
• Domain Adaptationに関する理論
+カーネル平均埋め込みに関する知識から次のよう
に決まる
Target
の誤差
Source
の誤差 MK-MMD 定数
Setup - Dataset (#12) -
• Office31: Domain Adaptationの標準Dataset
– 31種類の異なるドメインから取得した画像データ4652枚
– 例)Amazon(A), Webcam(W), DSLR(D)
– Deep Learningでよく試されるA->, D->W, W->Dに加えて、
A->D, D->A, W->Aも検証
• Office-10 + Caltech-10
– Office31とCaltech-256(C)で共通する10のカテゴリが存在
– Domain Adaptationの問題設定でよく使われている
– A->C, W->C, D->C, C->A, C->W, C->Dの6つを検証
Setup - Baselines -
Name Citation Domain
Adaptive?
Deep
Model?
Deep
Adaptive?
Multi
Kernel?
Multi
Layer
Adaptive?
TCA Pan et al. ,
2011
Yes No No No No
GFK Gong et al.,
2012
Yes
(Not MMD)
No No No No
CNN Krizhevsky
et al., 2012
No Yes No No No
Lap CNN Weston et
al., 2008
No Yes No? No No
DDC Tzeng et al.,
2012
Yes Yes Yes No No
DAN7 This Paper Yes Yes Yes Yes/No No
DAN8 This Paper Yes Yes Yes Yes No
DANsk This Paper Yes Yes Yes No No
DAN This Paper Yes Yes Yes Yes Yes
Setup - Others -
• Unsupervised Manner [Gong et al., 2013] & Semi
Supervised Manner [Saenko et al., 2010]
– よくわからないので時間あったら調べる
• MMDをベースにした方法について
– Gaussian Kernelを利用
– パラメタγはmedian heuristic(わからないので以下同
– Multi Kernelの場合には複数のGaussian Kernel
– パラメタは2-8γから28γ
• パラメタλはFine Tuningで決定可能
– MMDの最小化=two-sample classifierでの誤差最大化だから
• [Yosinski et al., 2014]でのFine Tuning Architectureを利
用(ImageNetベース)
– ただし、Conv1-Conv3は固定、Conv4-Conv5, Fc6-Fc8をFine
Tune(with Source Domain)
Result 1/2
1. ShallowよりDeep CNNが良い
2. Lap CNNはSemi-Supervisedなのに素のCNNとほとんど同
じ:単なる半教師では不十分
3. DDCはCNNより精度高い:高次元の特徴を適用される
意味大
結果の詳細は論文見てください!
精度のいいタスク、悪いタスクに
ついての説明は特になかったはず
です
Result 2/2
1. DAN7とDAN8がどちらもDDCをOutperform
1. Multi-Kernelの有効性が現れている(理由は[Gretton et al. 2012b])
2. DANskがDDCより良い
1. 複数の層を適用させると良さそう
3. DANはさらに精度向上
結果の詳細は論文見てください!
精度のいいタスク、悪いタスクに
ついての説明は特になかったはず
です
Empirical Analysis
1. DDCのTargetではクラスが綺麗に分かれてない
1. (b)と(d)の比較に対応
2. 同じクラスのDDCではSとTが離れたところにあっ
たりする
1. (a) <-> (b), (c) <-> (d)の対応の比較
Empirical Analysis
• Domain DiscrepancyはCNN>DAN>Raw
– 低いほど良い。つまりRawが最も良い。Deepにすると、
予測精度も上がるがドメイン依存度も上がる。
• パラメタλはBell Curve
– Domain Discrepancyを同時に学習することは妥当
Domain Discrepancyの
一般的な指標
どのくらい強く
Domain Discrepancyを考慮するか
Conclusion
• DANを提案
• Conv LayerのDomain Adaptationは今後の
課題

Contenu connexe

Tendances

DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...Deep Learning JP
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNNTakashi Abe
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)STAIR Lab, Chiba Institute of Technology
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
画像処理AIを用いた異常検知
画像処理AIを用いた異常検知画像処理AIを用いた異常検知
画像処理AIを用いた異常検知Hideo Terada
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )cvpaper. challenge
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Preferred Networks
 
[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...
[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...
[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...Deep Learning JP
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 

Tendances (20)

DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN論文紹介: Fast R-CNN&Faster R-CNN
論文紹介: Fast R-CNN&Faster R-CNN
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
数式からみるWord2Vec
数式からみるWord2Vec数式からみるWord2Vec
数式からみるWord2Vec
 
画像処理AIを用いた異常検知
画像処理AIを用いた異常検知画像処理AIを用いた異常検知
画像処理AIを用いた異常検知
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
 
[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...
[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...
[DL輪読会]A Simple Unified Framework for Detecting Out-of-Distribution Samples a...
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 

En vedette

Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"Yusuke Iwasawa
 
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memoryYusuke Iwasawa
 
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)Yusuke Iwasawa
 
FinalReport
FinalReportFinalReport
FinalReportKaty Lee
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじsleepy_yoshi
 
[ICLR2016] 採録論文の個人的まとめ
[ICLR2016] 採録論文の個人的まとめ[ICLR2016] 採録論文の個人的まとめ
[ICLR2016] 採録論文の個人的まとめYusuke Iwasawa
 
Neural_Programmer_Interpreter
Neural_Programmer_InterpreterNeural_Programmer_Interpreter
Neural_Programmer_InterpreterKaty Lee
 
[Dl輪読会]Censoring Representation with Adversary
[Dl輪読会]Censoring Representation with Adversary[Dl輪読会]Censoring Representation with Adversary
[Dl輪読会]Censoring Representation with AdversaryDeep Learning JP
 
Text Categorization
Text CategorizationText Categorization
Text Categorizationcympfh
 
20070702 Text Categorization
20070702 Text Categorization20070702 Text Categorization
20070702 Text Categorizationmidi
 
勉強会用スライド
勉強会用スライド勉強会用スライド
勉強会用スライドharmonylab
 
Paper Reading, "On Causal and Anticausal Learning", ICML-12
Paper Reading, "On Causal and Anticausal Learning", ICML-12Paper Reading, "On Causal and Anticausal Learning", ICML-12
Paper Reading, "On Causal and Anticausal Learning", ICML-12Yusuke Iwasawa
 
[DL輪読会]Learning What and Where to Draw (NIPS’16)
[DL輪読会]Learning What and Where to Draw (NIPS’16)[DL輪読会]Learning What and Where to Draw (NIPS’16)
[DL輪読会]Learning What and Where to Draw (NIPS’16)Deep Learning JP
 
Making neural programming architectures generalize via recursion
Making neural programming architectures generalize via recursionMaking neural programming architectures generalize via recursion
Making neural programming architectures generalize via recursionKaty Lee
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 
Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016
Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016
Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016MLconf
 
Deep Learning for Image Recognition in Python
Deep Learning for Image Recognition in PythonDeep Learning for Image Recognition in Python
Deep Learning for Image Recognition in PythonHideki
 
Chainerを使ったらカノジョができたお話
Chainerを使ったらカノジョができたお話Chainerを使ったらカノジョができたお話
Chainerを使ったらカノジョができたお話Hiroki Yamamoto
 

En vedette (20)

Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"
 
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
 
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
 
FinalReport
FinalReportFinalReport
FinalReport
 
It
ItIt
It
 
WaveNet
WaveNetWaveNet
WaveNet
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
[ICLR2016] 採録論文の個人的まとめ
[ICLR2016] 採録論文の個人的まとめ[ICLR2016] 採録論文の個人的まとめ
[ICLR2016] 採録論文の個人的まとめ
 
Neural_Programmer_Interpreter
Neural_Programmer_InterpreterNeural_Programmer_Interpreter
Neural_Programmer_Interpreter
 
[Dl輪読会]Censoring Representation with Adversary
[Dl輪読会]Censoring Representation with Adversary[Dl輪読会]Censoring Representation with Adversary
[Dl輪読会]Censoring Representation with Adversary
 
Text Categorization
Text CategorizationText Categorization
Text Categorization
 
20070702 Text Categorization
20070702 Text Categorization20070702 Text Categorization
20070702 Text Categorization
 
勉強会用スライド
勉強会用スライド勉強会用スライド
勉強会用スライド
 
Paper Reading, "On Causal and Anticausal Learning", ICML-12
Paper Reading, "On Causal and Anticausal Learning", ICML-12Paper Reading, "On Causal and Anticausal Learning", ICML-12
Paper Reading, "On Causal and Anticausal Learning", ICML-12
 
[DL輪読会]Learning What and Where to Draw (NIPS’16)
[DL輪読会]Learning What and Where to Draw (NIPS’16)[DL輪読会]Learning What and Where to Draw (NIPS’16)
[DL輪読会]Learning What and Where to Draw (NIPS’16)
 
Making neural programming architectures generalize via recursion
Making neural programming architectures generalize via recursionMaking neural programming architectures generalize via recursion
Making neural programming architectures generalize via recursion
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016
Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016
Harm van Seijen, Research Scientist, Maluuba at MLconf SF 2016
 
Deep Learning for Image Recognition in Python
Deep Learning for Image Recognition in PythonDeep Learning for Image Recognition in Python
Deep Learning for Image Recognition in Python
 
Chainerを使ったらカノジョができたお話
Chainerを使ったらカノジョができたお話Chainerを使ったらカノジョができたお話
Chainerを使ったらカノジョができたお話
 

Similaire à [DL Hacks] Learning Transferable Features with Deep Adaptation Networks

[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with StylesDeep Learning JP
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A SurveyDeep Learning JP
 
サブカルのためのWord2vec
サブカルのためのWord2vecサブカルのためのWord2vec
サブカルのためのWord2vecDeNA
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Preferred Networks
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題Kenta Oono
 
Survey on Test Time Adaptation.pptx
Survey on Test Time Adaptation.pptxSurvey on Test Time Adaptation.pptx
Survey on Test Time Adaptation.pptxKaito Sugiyama
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsDeep Learning JP
 
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and AudioToru Tamaki
 
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門Daiyu Hatakeyama
 
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)kunihikokaneko1
 
企業システムにアジャイルは必要か
企業システムにアジャイルは必要か企業システムにアジャイルは必要か
企業システムにアジャイルは必要かHiromasa Oka
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...de:code 2017
 
TokyoWebMining#18_nukamu
TokyoWebMining#18_nukamuTokyoWebMining#18_nukamu
TokyoWebMining#18_nukamunukamu
 
ICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaYuto Yamaguchi
 
企業等に蓄積されたデータを分析するための処理機能の提案
企業等に蓄積されたデータを分析するための処理機能の提案企業等に蓄積されたデータを分析するための処理機能の提案
企業等に蓄積されたデータを分析するための処理機能の提案Toshiyuki Shimono
 
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)Daichi Hayashi
 
[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...
[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...
[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...Insight Technology, Inc.
 
Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話Masaki Saito
 

Similaire à [DL Hacks] Learning Transferable Features with Deep Adaptation Networks (20)

[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
 
サブカルのためのWord2vec
サブカルのためのWord2vecサブカルのためのWord2vec
サブカルのためのWord2vec
 
IEEE/ACM SC2013報告
IEEE/ACM SC2013報告IEEE/ACM SC2013報告
IEEE/ACM SC2013報告
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
 
NeurIPS2019参加報告
NeurIPS2019参加報告NeurIPS2019参加報告
NeurIPS2019参加報告
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
 
Survey on Test Time Adaptation.pptx
Survey on Test Time Adaptation.pptxSurvey on Test Time Adaptation.pptx
Survey on Test Time Adaptation.pptx
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
 
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
2020/11/19 Global AI on Tour - Toyama プログラマーのための機械学習入門
 
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)
 
企業システムにアジャイルは必要か
企業システムにアジャイルは必要か企業システムにアジャイルは必要か
企業システムにアジャイルは必要か
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
 
TokyoWebMining#18_nukamu
TokyoWebMining#18_nukamuTokyoWebMining#18_nukamu
TokyoWebMining#18_nukamu
 
ICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaICDE2012勉強会:Social Media
ICDE2012勉強会:Social Media
 
企業等に蓄積されたデータを分析するための処理機能の提案
企業等に蓄積されたデータを分析するための処理機能の提案企業等に蓄積されたデータを分析するための処理機能の提案
企業等に蓄積されたデータを分析するための処理機能の提案
 
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
 
[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...
[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...
[db tech showcase Tokyo 2018] #dbts2018 #D24 『異種データベース間データ連携ウラ話 ~ 新しいデータベースを試...
 
Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話
 

Plus de Yusuke Iwasawa

JSAI2018 類似度学習を用いた敵対的訓練による 特徴表現の検閲
JSAI2018 類似度学習を用いた敵対的訓練による特徴表現の検閲JSAI2018 類似度学習を用いた敵対的訓練による特徴表現の検閲
JSAI2018 類似度学習を用いた敵対的訓練による 特徴表現の検閲Yusuke Iwasawa
 
"Universal Planning Networks" and "Composable Planning with Attributes"
"Universal Planning Networks" and "Composable Planning with Attributes""Universal Planning Networks" and "Composable Planning with Attributes"
"Universal Planning Networks" and "Composable Planning with Attributes"Yusuke Iwasawa
 
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)Yusuke Iwasawa
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...Yusuke Iwasawa
 
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習Yusuke Iwasawa
 
[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...
[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...
[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...Yusuke Iwasawa
 
[Paper Reading] Learning Distributed Representations for Structured Output Pr...
[Paper Reading] Learning Distributed Representations for Structured Output Pr...[Paper Reading] Learning Distributed Representations for Structured Output Pr...
[Paper Reading] Learning Distributed Representations for Structured Output Pr...Yusuke Iwasawa
 
[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)
[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)
[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)Yusuke Iwasawa
 
[DL Hacks] Self Paced Learning with Diversity
[DL Hacks] Self Paced Learning with Diversity[DL Hacks] Self Paced Learning with Diversity
[DL Hacks] Self Paced Learning with DiversityYusuke Iwasawa
 
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous ComputingYusuke Iwasawa
 
研究室輪読 Recommending Investors
for Crowdfunding Projects
研究室輪読 Recommending Investors
for Crowdfunding Projects研究室輪読 Recommending Investors
for Crowdfunding Projects
研究室輪読 Recommending Investors
for Crowdfunding ProjectsYusuke Iwasawa
 
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative ModelsDL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative ModelsYusuke Iwasawa
 

Plus de Yusuke Iwasawa (13)

JSAI2018 類似度学習を用いた敵対的訓練による 特徴表現の検閲
JSAI2018 類似度学習を用いた敵対的訓練による特徴表現の検閲JSAI2018 類似度学習を用いた敵対的訓練による特徴表現の検閲
JSAI2018 類似度学習を用いた敵対的訓練による 特徴表現の検閲
 
"Universal Planning Networks" and "Composable Planning with Attributes"
"Universal Planning Networks" and "Composable Planning with Attributes""Universal Planning Networks" and "Composable Planning with Attributes"
"Universal Planning Networks" and "Composable Planning with Attributes"
 
ICLR2018参加報告
ICLR2018参加報告ICLR2018参加報告
ICLR2018参加報告
 
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
 
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
 
[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...
[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...
[DL輪読会] Semi-Supervised Knowledge Transfer For Deep Learning From Private Tra...
 
[Paper Reading] Learning Distributed Representations for Structured Output Pr...
[Paper Reading] Learning Distributed Representations for Structured Output Pr...[Paper Reading] Learning Distributed Representations for Structured Output Pr...
[Paper Reading] Learning Distributed Representations for Structured Output Pr...
 
[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)
[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)
[DL Hacks輪読] Semi-Supervised Learning with Ladder Networks (NIPS2015)
 
[DL Hacks] Self Paced Learning with Diversity
[DL Hacks] Self Paced Learning with Diversity[DL Hacks] Self Paced Learning with Diversity
[DL Hacks] Self Paced Learning with Diversity
 
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
 
研究室輪読 Recommending Investors
for Crowdfunding Projects
研究室輪読 Recommending Investors
for Crowdfunding Projects研究室輪読 Recommending Investors
for Crowdfunding Projects
研究室輪読 Recommending Investors
for Crowdfunding Projects
 
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative ModelsDL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
 

Dernier

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 

Dernier (9)

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

[DL Hacks] Learning Transferable Features with Deep Adaptation Networks

  • 1. Learning Transferable Features with Deep Adaptation Networks DL Hacks Paper Reading 2015.11.05 D2 Yusuke IWASAWA
  • 2. 書誌情報 • “Learning Transferable Features with Deep Adaptatiopn Networks” • Mingsheng Long, Yue Cao, Jianmin Wang, Michel I. Jordan • Tshinghua University(清華大学), China – “USニューズの世界大学ランキング、工学分野で清華大がMITを 抜いて首位に―中国メディア” – http://www.excite.co.jp/News/chn_soc/20151009/Xinhua_30221.html • #Citations: 6 • 概要 – 従来は転移が難しいとされていたDeep Learningの深い層での転移を 行うモデルを提案 – 既存手法(TCA, GFK, CNN, LapCNN, DDC)と比較して複数のデー タセットで良い精度が出ることを確認した • データセットはどちらも画像
  • 3. カーネル平均埋め込みについて • この論文ではカーネル平均埋め込み、再生核ヒルベ ルト空間に関する知識、特に、 – Gretton et al., “A kernel two-sample test”, 2012a – Gretton et al., “Optimal kernel choice for large-scale two sample test” • の2つの論文の手法をガンガンこれ使ったよと言っ た感じで使ってます • が、力不足のためところどころ論文参照で済ませま す – ※1本目は51ページある – ※特に2本目の1部が意味不明 – 基本的には、密度推定とかしないでkernel法の 枠組みでもろもろ統計量計算したいというモチベーショ ンの中
  • 4. Domain Adaptation • 次のような状況を考える – 複数のデータセットがそれぞれ異なる分布に従って生成 されている – 片方のデータは多くの情報(典型的には教師データ)を 持っている Image Net Pascal Domain Discrepancy KnowledgeTransfer Source Domain Target Domain
  • 5. But How? • 1つの方法は、複数のドメインで共通の特徴空間を学習する こと • ↑は、Domain Disperencyを何らかの方法で 定義して、それを一緒に最適化することで達成される – いろんな研究がある(知りたい方は論文Intro2パラ orRelated Workあたりに書いてあります • Survey: [Pan et al. 2011] – 最近はDeepにするのが流行(良い精度 • DeCAFなど – ただし、単にDeepにするだけだといくつか問題 • 深い層に行くほどtransferabilityが下がる[Yosinski, 2014] • 理論的な下界が決まっていない[Ben-David, 2010] • 複数の層を転移する方法がない
  • 6. How transferable are features in DNN? [Yosinski, NIPS2014] • 層が深いほど転移に 失敗する
  • 7. Deep Adaptive Networks 1. 深い層のSとTの分布の不一致を低減させるように 学習する(普通の教師あり学習と同時に) 2. Domain Discrepancyの基準にはMK-MDDを利用 1. 理論的な下限を計算可能
  • 8. (準備)再生核ヒルベルト空間RKHS • ヒルベルト空間:完備な内積空間 – 完備:距離空間における任意のコーシー列がその空間内 の点に収束する • 距離空間:任意の2点間の距離が定められた集合 • コーシー列:十分先の方でほとんど値が変化しない数列 – 内積空間:内積の定義されたベクトル空間 • ベクトル空間:和とスカラー倍が定義された集合 • 再生性: – Hが再生核ヒルベルト空間の場合、H上の任意の元fとk(., x) の内積は、任意の関数fにおいてxを入力した時の値f(x) になる – CF. カーネルトリック • この例が線形カーネルとかガウシアンカーネルとか
  • 9. (準備)分布の違いの計測 • 二つの分布の違いを定義したい – 情報理論の世界では普通コルモゴロフ・スミノフ検定と かKLダイバージェンスを使う – ただし、これらの方法は密度推定が必要->計算重い • MMD(再生核ヒルベルト空間上での分布の距離) を使う
  • 10. (準備)Maximum Mean Discrepancy (MMD) • MMD – p, q: SourceとTargetの分布 – xs,xt: SourceとTargetのデータ – 要は平均の差の最大値 – 直感的には全てのモーメントが一致すれば分布も一致し てるよねという感じらしい – fが入力空間から再生核ヒルベルト空間Hkへの写像である 時、 (多分再生性から)次が成り立つ where (多分左をカーネル 平均埋め込みという)
  • 11. Multi-Kernel MMD (MK-MMD) • MMDの問題点: – kernelの選択が検出力やテスト誤差に大きく関わる – 複数のKernel使いたい • ->MK-MMD – 多分この論文で定義している(確証はないです – kernelを複数の正定値kernelの線形和に置き換えるだけ 線形和も正定値になるための制約
  • 12. 目的関数 • 普通の目的関数とMK-MMDを同時に学習する • Dlはデータ点のl層目での表現 • DANの良いところは 1. 複数の高次元層をadaptできる 2. Multi-kernelである 普通の目的関数 複数層でのMK-MMDの和 (LayerWise)
  • 13. CNNのパラメタθの学習 • MK-MMDそのままだと平均をとるのに複数のデー タ点の和を取らなきゃいけない – 計算がO(N^2)かかる、SGDがあんまり使いやすくない • [Gretton,2012b]で提案されている方法に従ってMK- MMDを推定 – これでO(N)になり、普通のSGDでできる • 多分ここが[Gretton,2012b] • おそらく2つのデータ点をまとめて1つの データ点と見て学習する感じ
  • 14. Learning β • [Gretton,2012b]に従って最適化 • Type2の誤差を最小化するように学習 • QPで解ける – ここが一番わからない – 詳細は[Gretton,2012b]を読んでください Reminder: Multi Kernel こいつ
  • 15. Target Taskでの誤差の上限 • Domain Adaptationに関する理論 +カーネル平均埋め込みに関する知識から次のよう に決まる Target の誤差 Source の誤差 MK-MMD 定数
  • 16. Setup - Dataset (#12) - • Office31: Domain Adaptationの標準Dataset – 31種類の異なるドメインから取得した画像データ4652枚 – 例)Amazon(A), Webcam(W), DSLR(D) – Deep Learningでよく試されるA->, D->W, W->Dに加えて、 A->D, D->A, W->Aも検証 • Office-10 + Caltech-10 – Office31とCaltech-256(C)で共通する10のカテゴリが存在 – Domain Adaptationの問題設定でよく使われている – A->C, W->C, D->C, C->A, C->W, C->Dの6つを検証
  • 17. Setup - Baselines - Name Citation Domain Adaptive? Deep Model? Deep Adaptive? Multi Kernel? Multi Layer Adaptive? TCA Pan et al. , 2011 Yes No No No No GFK Gong et al., 2012 Yes (Not MMD) No No No No CNN Krizhevsky et al., 2012 No Yes No No No Lap CNN Weston et al., 2008 No Yes No? No No DDC Tzeng et al., 2012 Yes Yes Yes No No DAN7 This Paper Yes Yes Yes Yes/No No DAN8 This Paper Yes Yes Yes Yes No DANsk This Paper Yes Yes Yes No No DAN This Paper Yes Yes Yes Yes Yes
  • 18. Setup - Others - • Unsupervised Manner [Gong et al., 2013] & Semi Supervised Manner [Saenko et al., 2010] – よくわからないので時間あったら調べる • MMDをベースにした方法について – Gaussian Kernelを利用 – パラメタγはmedian heuristic(わからないので以下同 – Multi Kernelの場合には複数のGaussian Kernel – パラメタは2-8γから28γ • パラメタλはFine Tuningで決定可能 – MMDの最小化=two-sample classifierでの誤差最大化だから • [Yosinski et al., 2014]でのFine Tuning Architectureを利 用(ImageNetベース) – ただし、Conv1-Conv3は固定、Conv4-Conv5, Fc6-Fc8をFine Tune(with Source Domain)
  • 19. Result 1/2 1. ShallowよりDeep CNNが良い 2. Lap CNNはSemi-Supervisedなのに素のCNNとほとんど同 じ:単なる半教師では不十分 3. DDCはCNNより精度高い:高次元の特徴を適用される 意味大 結果の詳細は論文見てください! 精度のいいタスク、悪いタスクに ついての説明は特になかったはず です
  • 20. Result 2/2 1. DAN7とDAN8がどちらもDDCをOutperform 1. Multi-Kernelの有効性が現れている(理由は[Gretton et al. 2012b]) 2. DANskがDDCより良い 1. 複数の層を適用させると良さそう 3. DANはさらに精度向上 結果の詳細は論文見てください! 精度のいいタスク、悪いタスクに ついての説明は特になかったはず です
  • 21. Empirical Analysis 1. DDCのTargetではクラスが綺麗に分かれてない 1. (b)と(d)の比較に対応 2. 同じクラスのDDCではSとTが離れたところにあっ たりする 1. (a) <-> (b), (c) <-> (d)の対応の比較
  • 22. Empirical Analysis • Domain DiscrepancyはCNN>DAN>Raw – 低いほど良い。つまりRawが最も良い。Deepにすると、 予測精度も上がるがドメイン依存度も上がる。 • パラメタλはBell Curve – Domain Discrepancyを同時に学習することは妥当 Domain Discrepancyの 一般的な指標 どのくらい強く Domain Discrepancyを考慮するか
  • 23. Conclusion • DANを提案 • Conv LayerのDomain Adaptationは今後の 課題