Soumettre la recherche
Mettre en ligne
最近思った機械学習(PyTorch)のベストプラクティス
•
2 j'aime
•
1,912 vues
M
Masato Fujitake
Suivre
Stapy #51のLTで発表
Lire moins
Lire la suite
Ingénierie
Signaler
Partager
Signaler
Partager
1 sur 16
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜
SSII
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Recommandé
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜
SSII
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
モデル高速化百選
モデル高速化百選
Yusuke Uchida
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
Deep Learning JP
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
西岡 賢一郎
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
深層学習の数理
深層学習の数理
Taiji Suzuki
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
CatBoost on GPU のひみつ
CatBoost on GPU のひみつ
Takuji Tahara
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
Python エンジニアの作り方 2011.08 #pyconjp
Python エンジニアの作り方 2011.08 #pyconjp
Takeshi Komiya
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
Kimikazu Kato
Contenu connexe
Tendances
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
モデル高速化百選
モデル高速化百選
Yusuke Uchida
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
Deep Learning JP
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
西岡 賢一郎
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
深層学習の数理
深層学習の数理
Taiji Suzuki
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
CatBoost on GPU のひみつ
CatBoost on GPU のひみつ
Takuji Tahara
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
Tendances
(20)
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Transformer メタサーベイ
Transformer メタサーベイ
モデル高速化百選
モデル高速化百選
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
研究効率化Tips Ver.2
研究効率化Tips Ver.2
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
Optimizer入門&最新動向
Optimizer入門&最新動向
ドメイン適応の原理と応用
ドメイン適応の原理と応用
深層学習の数理
深層学習の数理
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
CatBoost on GPU のひみつ
CatBoost on GPU のひみつ
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Similaire à 最近思った機械学習(PyTorch)のベストプラクティス
Python エンジニアの作り方 2011.08 #pyconjp
Python エンジニアの作り方 2011.08 #pyconjp
Takeshi Komiya
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
Kimikazu Kato
S08 t0 orientation
S08 t0 orientation
Takeshi Akutsu
Why python
Why python
Mikio Kubo
From Scratch, let's start Deep Learning with Python (plus Text Processing, pr...
From Scratch, let's start Deep Learning with Python (plus Text Processing, pr...
Kiyoshi Ogawa
Pythonで自動化した話1
Pythonで自動化した話1
Masato Fujitake
Why python
Why python
Mikio Kubo
Pythonでターミナルに画像表示
Pythonでターミナルに画像表示
Masato Fujitake
弁理士が知っておきたいPython①
弁理士が知っておきたいPython①
Tajima Ryosuke
Python界隈の翻訳プロジェクト
Python界隈の翻訳プロジェクト
Tetsuya Morimoto
20230216_Python機械学習プログラミング.pdf
20230216_Python機械学習プログラミング.pdf
Shintaro Fukushima
GBDC 勉強会 #1 Python を用いたツール作成工数の最小化
GBDC 勉強会 #1 Python を用いたツール作成工数の最小化
Yutaka Kato
S06 t4 wrapup
S06 t4 wrapup
Takeshi Akutsu
正しいプログラミング言語の覚え方
正しいプログラミング言語の覚え方
Kimikazu Kato
210526 Power Automate Desktop Python
210526 Power Automate Desktop Python
Takuya Nishimoto
C言語講習会資料(前半)
C言語講習会資料(前半)
Yuki Sako
Pythonとベイズ統計
Pythonとベイズ統計
Hirofumi Watanabe
ゼロから学ぶPython勉強会
ゼロから学ぶPython勉強会
sekikazu
Python入門者の集い #6 Lightning Talk
Python入門者の集い #6 Lightning Talk
Katayanagi Nobuko
「Python 機械学習プログラミング」の挫折しない読み方
「Python 機械学習プログラミング」の挫折しない読み方
Hiroki Yamamoto
Similaire à 最近思った機械学習(PyTorch)のベストプラクティス
(20)
Python エンジニアの作り方 2011.08 #pyconjp
Python エンジニアの作り方 2011.08 #pyconjp
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
S08 t0 orientation
S08 t0 orientation
Why python
Why python
From Scratch, let's start Deep Learning with Python (plus Text Processing, pr...
From Scratch, let's start Deep Learning with Python (plus Text Processing, pr...
Pythonで自動化した話1
Pythonで自動化した話1
Why python
Why python
Pythonでターミナルに画像表示
Pythonでターミナルに画像表示
弁理士が知っておきたいPython①
弁理士が知っておきたいPython①
Python界隈の翻訳プロジェクト
Python界隈の翻訳プロジェクト
20230216_Python機械学習プログラミング.pdf
20230216_Python機械学習プログラミング.pdf
GBDC 勉強会 #1 Python を用いたツール作成工数の最小化
GBDC 勉強会 #1 Python を用いたツール作成工数の最小化
S06 t4 wrapup
S06 t4 wrapup
正しいプログラミング言語の覚え方
正しいプログラミング言語の覚え方
210526 Power Automate Desktop Python
210526 Power Automate Desktop Python
C言語講習会資料(前半)
C言語講習会資料(前半)
Pythonとベイズ統計
Pythonとベイズ統計
ゼロから学ぶPython勉強会
ゼロから学ぶPython勉強会
Python入門者の集い #6 Lightning Talk
Python入門者の集い #6 Lightning Talk
「Python 機械学習プログラミング」の挫折しない読み方
「Python 機械学習プログラミング」の挫折しない読み方
最近思った機械学習(PyTorch)のベストプラクティス
1.
最近思った機械学習(PyTorch) のベストプラクティス 1 2019年11月13日 みんなのPython勉強会 #51 Masato Fujitake(@Swall0wTech)
2.
自己紹介 2 名前: つばめ (Masato
FUJITAKE) Twitter : @Swall0wTech 専攻:Computer Vision(元ロボティクス 言語:c言語、C++,アセンブリ… Python:画像処理、機械学習等
3.
深層学習を始めて早4,5年... プロトタイプの作成に楽なPyTorchに行き着 いた... 3
4.
PyTorchとは ・Python向けのオープンソース機械学習ライブラリ (Tensorflowとの2大巨頭フレームワークの1つ) ・FacebookのAI研究チームと大学が開発 ・研究領域から開発されているので,最新の論文の実装が多く公開されている. 4
5.
リポジトリの数がだいぶ多くなった https://paperswithcode.com/trends 5
6.
深層学習研究の課題 •モデル以外の実装が多く大変 •訓練ループ •評価 •ロギング •実験管理が大変 •何のパラメータ変更した時の結果なのか •実験変更時の比較 6 PyTorch lightning Comet.ml
7.
実装の簡素化(PyTorch-lightning) PyTorchでの開発スピードを爆速にしてくれる! 7 青いところの領域だけを 実装すれば,後はよしな にやってくれる! • データセットアップ • モデル •
サンプリング • 1バッチあたりの訓練 • 1バッチあたりの評価 • 評価終わりの処理
8.
シンプル例 class CoolSystem(pl.LightningModule): def __init__(self): super(CoolSystem,
self).__init__() # not the best model... self.l1 = torch.nn.Linear(28 * 28, 10) def forward(self,x): return torch.relu(self.l1(x.view(x.size(0),-1))) def training_step(self,batch,batch_nb): # REQUIRED x, y = batch y_hat = self.forward(x) loss =F.cross_entropy(y_hat, y) tensorboard_logs = {'train_loss':loss} return {'loss':loss,'log':tensorboard_logs} @pl.data_loader def train_dataloader(self): # REQUIRED return DataLoader( MNIST(os.getcwd(), train=True, download=True, transform=transforms.ToTensor()), batch_size=32) 8 from pytorch_lightning import Trainer model = CoolSystem() # most basic trainer, uses good defaults trainer = Trainer() trainer.fit(model)
9.
ロギングとかも勝手にやってくれる 9
10.
おすすめ機能 •Trainerにあるデバッグ機能 •Train, Val, Testを1バッチのみ ループしてくれる •16bit
Mixed-precisionで高速化 10 # DEFAULT trainer = Trainer(fast_dev_run=True)
11.
実験管理を楽に 実験では1つづつ要素を変えて, 何が影響するのかを確認する. →変更ごとに実験管理が必要 11 以前はネ申エクエルで管理していた!!
12.
今はComet.mlにお世話に 機械学習のGithub化 12
13.
何ができるのか •差分が取れる •自動でロギングされる 13
14.
2つの実験の比較 14
15.
使い方 既存のコードに数行付け足すだけ 15
16.
まとめ 深層学習開発での課題 →ツールに頼りましょう! •モデル以外の実装が大変 •PyTorch-lightning •実験管理が大変 •Comet.ml •似たようなものにmlflowもある 16
Télécharger maintenant