Submit Search
Upload
[DL輪読会]Learning by Association - A versatile semi-supervised training method for neural networks[CVPR2017]
•
Download as PPTX, PDF
•
3 likes
•
2,315 views
Deep Learning JP
Follow
2017/6/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
Read less
Read more
Technology
Report
Share
Report
Share
1 of 24
Download now
Recommended
PRML s1
PRML s1
eizoo3010
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
Yusuke Iwasawa
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
Daisuke Yoneoka
Vanishing Component Analysis
Vanishing Component Analysis
Koji Matsuda
NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder Networks
Eiichi Matsumoto
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
Recommended
PRML s1
PRML s1
eizoo3010
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
Yusuke Iwasawa
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
Daisuke Yoneoka
Vanishing Component Analysis
Vanishing Component Analysis
Koji Matsuda
NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder Networks
Eiichi Matsumoto
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
Mxnetによるデープラーニングでセミの抜け殻を識別する
Mxnetによるデープラーニングでセミの抜け殻を識別する
dokechin
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
sleepy_yoshi
機械学習 入門
機械学習 入門
Hayato Maki
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
Pythonによる機械学習
Pythonによる機械学習
Kimikazu Kato
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Yasutomo Kawanishi
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
Keiichirou Miyamoto
人工知能13 deep learning
人工知能13 deep learning
Hirotaka Hachiya
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
はじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
ディープニューラルネット入門
ディープニューラルネット入門
TanUkkii
Deep learning入門
Deep learning入門
magoroku Yamamoto
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
PRML1.3
PRML1.3
hiroki yamaoka
Tensorflow
Tensorflow
Hakky St
Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...
Shunsuke Kozawa
手書き数字文書の認識 (JOI夏期セミナー2016)
手書き数字文書の認識 (JOI夏期セミナー2016)
onkohdondo
[第2版]Python機械学習プログラミング 第13章
[第2版]Python機械学習プログラミング 第13章
Haruki Eguchi
20160329.dnn講演
20160329.dnn講演
Hayaru SHOUNO
もしその単語がなかったら
もしその単語がなかったら
Hiroshi Nakagawa
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
Hidekazu Oiwa
More Related Content
What's hot
Mxnetによるデープラーニングでセミの抜け殻を識別する
Mxnetによるデープラーニングでセミの抜け殻を識別する
dokechin
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
sleepy_yoshi
機械学習 入門
機械学習 入門
Hayato Maki
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
Pythonによる機械学習
Pythonによる機械学習
Kimikazu Kato
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Yasutomo Kawanishi
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
Keiichirou Miyamoto
人工知能13 deep learning
人工知能13 deep learning
Hirotaka Hachiya
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
はじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
ディープニューラルネット入門
ディープニューラルネット入門
TanUkkii
Deep learning入門
Deep learning入門
magoroku Yamamoto
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
PRML1.3
PRML1.3
hiroki yamaoka
Tensorflow
Tensorflow
Hakky St
Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...
Shunsuke Kozawa
手書き数字文書の認識 (JOI夏期セミナー2016)
手書き数字文書の認識 (JOI夏期セミナー2016)
onkohdondo
[第2版]Python機械学習プログラミング 第13章
[第2版]Python機械学習プログラミング 第13章
Haruki Eguchi
20160329.dnn講演
20160329.dnn講演
Hayaru SHOUNO
What's hot
(20)
Mxnetによるデープラーニングでセミの抜け殻を識別する
Mxnetによるデープラーニングでセミの抜け殻を識別する
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
機械学習 入門
機械学習 入門
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
Pythonによる機械学習
Pythonによる機械学習
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
人工知能13 deep learning
人工知能13 deep learning
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
はじめての人のためのDeep Learning
はじめての人のためのDeep Learning
ディープニューラルネット入門
ディープニューラルネット入門
Deep learning入門
Deep learning入門
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
PRML1.3
PRML1.3
Tensorflow
Tensorflow
Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...
手書き数字文書の認識 (JOI夏期セミナー2016)
手書き数字文書の認識 (JOI夏期セミナー2016)
[第2版]Python機械学習プログラミング 第13章
[第2版]Python機械学習プログラミング 第13章
20160329.dnn講演
20160329.dnn講演
Viewers also liked
もしその単語がなかったら
もしその単語がなかったら
Hiroshi Nakagawa
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
Hidekazu Oiwa
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
Takahiro Kubo
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
Deep Learning JP
20171024NL研報告スライド
20171024NL研報告スライド
Masatoshi TSUCHIYA
Dragon: A Distributed Object Storage at Yahoo! JAPAN (WebDB Forum 2017)
Dragon: A Distributed Object Storage at Yahoo! JAPAN (WebDB Forum 2017)
Yahoo!デベロッパーネットワーク
StanとRでベイズ統計モデリング読書会 Chapter 7(7.6-7.9) 回帰分析の悩みどころ ~統計の力で歌うまになりたい~
StanとRでベイズ統計モデリング読書会 Chapter 7(7.6-7.9) 回帰分析の悩みどころ ~統計の力で歌うまになりたい~
nocchi_airport
スキルチェックリスト 2017年版
スキルチェックリスト 2017年版
The Japan DataScientist Society
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
tanutarou
新規事業・起業を妨げる「ビジネスモデル症候群」とは
新規事業・起業を妨げる「ビジネスモデル症候群」とは
Lean Startup Japan LLC
確率的プログラミングライブラリEdward
確率的プログラミングライブラリEdward
Yuta Kashino
AWS Black Belt - AWS Glue
AWS Black Belt - AWS Glue
Amazon Web Services Japan
すべてを自動化せよ! 〜生産性向上チームの挑戦〜
すべてを自動化せよ! 〜生産性向上チームの挑戦〜
Jumpei Miyata
Tokyo webmining 2017-10-28
Tokyo webmining 2017-10-28
Kimikazu Kato
(DL hacks輪読)Bayesian Neural Network
(DL hacks輪読)Bayesian Neural Network
Masahiro Suzuki
本当は恐ろしい分散システムの話
本当は恐ろしい分散システムの話
Kumazaki Hiroki
Viewers also liked
(16)
もしその単語がなかったら
もしその単語がなかったら
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
20171024NL研報告スライド
20171024NL研報告スライド
Dragon: A Distributed Object Storage at Yahoo! JAPAN (WebDB Forum 2017)
Dragon: A Distributed Object Storage at Yahoo! JAPAN (WebDB Forum 2017)
StanとRでベイズ統計モデリング読書会 Chapter 7(7.6-7.9) 回帰分析の悩みどころ ~統計の力で歌うまになりたい~
StanとRでベイズ統計モデリング読書会 Chapter 7(7.6-7.9) 回帰分析の悩みどころ ~統計の力で歌うまになりたい~
スキルチェックリスト 2017年版
スキルチェックリスト 2017年版
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
新規事業・起業を妨げる「ビジネスモデル症候群」とは
新規事業・起業を妨げる「ビジネスモデル症候群」とは
確率的プログラミングライブラリEdward
確率的プログラミングライブラリEdward
AWS Black Belt - AWS Glue
AWS Black Belt - AWS Glue
すべてを自動化せよ! 〜生産性向上チームの挑戦〜
すべてを自動化せよ! 〜生産性向上チームの挑戦〜
Tokyo webmining 2017-10-28
Tokyo webmining 2017-10-28
(DL hacks輪読)Bayesian Neural Network
(DL hacks輪読)Bayesian Neural Network
本当は恐ろしい分散システムの話
本当は恐ろしい分散システムの話
Similar to [DL輪読会]Learning by Association - A versatile semi-supervised training method for neural networks[CVPR2017]
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
ベイズと深層学習について
ベイズと深層学習について
Tomohiro Mimura
2019年度 若手技術者向け講座 オブジェクト指向
2019年度 若手技術者向け講座 オブジェクト指向
keki3
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
Masahiro Suzuki
Deep learning survey(途中)
Deep learning survey(途中)
shunkimurakami
Deep learning survey
Deep learning survey
shunkimurakami
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
Similar to [DL輪読会]Learning by Association - A versatile semi-supervised training method for neural networks[CVPR2017]
(7)
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
ベイズと深層学習について
ベイズと深層学習について
2019年度 若手技術者向け講座 オブジェクト指向
2019年度 若手技術者向け講座 オブジェクト指向
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
Deep learning survey(途中)
Deep learning survey(途中)
Deep learning survey
Deep learning survey
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
More from Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Recently uploaded
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
Recently uploaded
(8)
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
[DL輪読会]Learning by Association - A versatile semi-supervised training method for neural networks[CVPR2017]
1.
Learning by Association A
versatile semi-supervised training method for neural networks 東京大学大学院 中山研究室 横田匡史
2.
Semi-Supervised Learning ‣ グラフベース データの類似グラフを作りラベルを伝搬 ‣
決定境界をデータから遠ざける(擬似データetc) 1.学習したモデルを用いて ラベルなしデータをラベル付け(pseudo-label etc.) 2.または、ラベル付きデータにノイズを入れる(VAT) ‣ 多様体学習 多様体の推定にラベル無しデータ用いる(Tanget Manifold Classifier) ‣ 生成モデル ラベルなしデータを特徴量学習に用いるか 不完全データとして学習に用いる(VAE etc.) →今回のテーマは、”グラフベース”と”決定境界をデータから遠ざける”の中間 (参考: https://www.slideshare.net/beam2d/semisupervised-learning-with-deep-generative-models)
3.
Idea 記憶 イヌ! 人間は、学習サンプルに関連付けて考えることができるので 少数サンプルでも正確に回答できる。 →学習サンプルとラベルなしデータを紐付けながら学習する 事で同じことができないか?
4.
Idea Labeled Unlabeled Labeled 同じクラスの2つのラベル付きデータの間に適切な ラベルなしデータを紐付けられるように学習する。
5.
Overview Unlabeled Label X Label Y walkerが「ラベル付き→ラベルなし→ラベル付き」と遷移させた時 にスタートとゴールのクラスが同じになるように学習させる。この 時のwalkerは類似度から算出される遷移確率に従い行動する。
6.
Method
7.
Method • A: ラベル付きデータ •
B: ラベルなしデータ • AiのデータとBjのデータの類似度Mij: 内積 • この類似度Mを元にwalkerの遷移確率を求める
8.
Method • Transaction Probability •
Round Trip Probability
9.
Walker Loss 同じクラス間のPathの確率は一様分布に、異なるクラス間のPathの 遷移確率が0にさせる。しかし、これだけだと難しいラベルなしデー タ(Ex. MNISTの1に似た7のラベルなし画像)の遷移確率も0に近づい てしまい、簡単なデータだけが残ってしまう。 (※H:
cross entropy)
10.
Visit Loss Unlabeled Label X Label
Y ここの微妙なポイントも 有効に活用したい。
11.
Visit Loss Aiから全てのBに対する遷移確率が一様分布にさせる →明らかなデータだけでなく難しいデータも遷移確率 が上がるようにする。 (※H: cross
entropy)
12.
Loss Function • は、通常の教師ありで用いる
softmax cross entropy。 • 実際にはVisit Lossには正則化の力が大きいので重 みをかけた方が良い結果が得られている(後述)。 Total Loss Function
13.
Experiment
14.
Experiment - 検証項目 ‣ 提案手法を用いて性能が上がるかどうか ‣
上手くラベルなしデータを関連付けできているか ‣ Domain Adaptation(SVHN→MNIST)への応用 - Dataset ‣ MNIST: (labeled: 100 or 1000 or All, unlabeled: labeledで使ってないデータ) ‣ STL-10: (labeled: 5k, unlabeled: 100k) ‣ SVHN: (labeled: 0 or 1000 or 2000 or All, unlabeled: labeledで使ってないデータ) ✓ 訓練用データの中のラベル付きデータを一部だけ使い、残りはラベル無しとし て学習を行う。
15.
Setting • Batch Size:
100 • Optimizer: Adam • 出力層以外の活性化関数: elu • 正則化項: L2 norm (重み:10-4)
16.
MNIST Result
17.
遷移確率の変化(MNIST) 学習前 学習後
18.
MNIST エラー分析 筆者らの主張では、ラベル付きデータにない特徴がテストに存 在したため(Ex. 4の上が閉じていて9に似ている)間違えてしまっ ている。 全ラベルデータ テストデータの 間違えた部分 テストデータの Confusion
Matrix
19.
SLT-10 学習データにないクラスのデータを入力しても、比較 的近いラベルなしデータの関連付けができている。
20.
SVHN Result 少ないサンプルにおいては、先行研究よりかは精度良い。
21.
SVHN ラベルなしデータの効果検証 ラベルなしデータが多くなるにつれて、精度は良 くなっている。
22.
Visit Lossの効果検証 Labeled Data
Size: 1000 Visit Lossが大きすぎるとモデルへの正則化が強すぎて、上 手く学習できない。データのバリアンスに応じて重みを調整 すべき。(Ex. labeledとunlabeledが似ていない場合、Visit Lossは小さくする。)
23.
Domain Adaptation DA: Domain-Adversarial
Training of Neural Network[2016 Ganin et. al.] DS: Domain separation networks [2016 Bousmalis et. al.] 教師あり 学習 教師あり 学習 Domain Adaptation
24.
まとめ • ラベルなしデータとラベルありデータに関連付ける ように学習する。 • ラベル付きデータが少なくても、比較的上手く学習 ができる。 •
Visit Lossは、データのバリアンスを見て設定する 。 • Domain Adaptationに応用しても上手くいった
Download now