Soumettre la recherche
Mettre en ligne
Densely Connected Convolutional Networks
•
Télécharger en tant que PPTX, PDF
•
2 j'aime
•
10,852 vues
H
harmonylab
Suivre
a
Lire moins
Lire la suite
Technologie
Affichage du diaporama
Signaler
Partager
Affichage du diaporama
Signaler
Partager
1 sur 29
Télécharger maintenant
Recommandé
画像認識と深層学習
画像認識と深層学習
Yusuke Uchida
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
【チュートリアル】コンピュータビジョンによる動画認識
【チュートリアル】コンピュータビジョンによる動画認識
Hirokatsu Kataoka
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
Recommandé
画像認識と深層学習
画像認識と深層学習
Yusuke Uchida
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
【チュートリアル】コンピュータビジョンによる動画認識
【チュートリアル】コンピュータビジョンによる動画認識
Hirokatsu Kataoka
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
Deep Learning JP
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
cvpaper. challenge
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
モデル高速化百選
モデル高速化百選
Yusuke Uchida
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
AlphaGoのしくみ
AlphaGoのしくみ
Hiroyuki Yoshida
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
【DL輪読会】Standardized Max Logits: A Simple yet Effective Approach for Identifyi...
【DL輪読会】Standardized Max Logits: A Simple yet Effective Approach for Identifyi...
Deep Learning JP
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
勉強会用スライド
勉強会用スライド
harmonylab
Mobilenet
Mobilenet
harmonylab
Contenu connexe
Tendances
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
Deep Learning JP
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
cvpaper. challenge
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
モデル高速化百選
モデル高速化百選
Yusuke Uchida
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
AlphaGoのしくみ
AlphaGoのしくみ
Hiroyuki Yoshida
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
【DL輪読会】Standardized Max Logits: A Simple yet Effective Approach for Identifyi...
【DL輪読会】Standardized Max Logits: A Simple yet Effective Approach for Identifyi...
Deep Learning JP
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
Tendances
(20)
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
モデル高速化百選
モデル高速化百選
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
AlphaGoのしくみ
AlphaGoのしくみ
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
【DL輪読会】Standardized Max Logits: A Simple yet Effective Approach for Identifyi...
【DL輪読会】Standardized Max Logits: A Simple yet Effective Approach for Identifyi...
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
En vedette
勉強会用スライド
勉強会用スライド
harmonylab
Mobilenet
Mobilenet
harmonylab
勉強会用スライド
勉強会用スライド
harmonylab
Ai勉強会20170127
Ai勉強会20170127
harmonylab
Deeply-Recursive Convolutional Network for Image Super-Resolution
Deeply-Recursive Convolutional Network for Image Super-Resolution
harmonylab
7月10日(月)dl
7月10日(月)dl
harmonylab
AI勉強会用スライド
AI勉強会用スライド
harmonylab
DLゼミ20170522
DLゼミ20170522
harmonylab
Deep voice
Deep voice
harmonylab
Globally and Locally Consistent Image Completion
Globally and Locally Consistent Image Completion
harmonylab
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
harmonylab
Deep Forest: Towards An Alternative to Deep Neural Networks
Deep Forest: Towards An Alternative to Deep Neural Networks
harmonylab
Generating Videos with Scene Dynamics
Generating Videos with Scene Dynamics
harmonylab
Colorful image colorization
Colorful image colorization
harmonylab
DeepLoco
DeepLoco
harmonylab
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
harmonylab
A3C解説
A3C解説
harmonylab
20160601画像電子学会
20160601画像電子学会
nlab_utokyo
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)
Hirokatsu Kataoka
【2016.01】(1/3)cvpaper.challenge2016
【2016.01】(1/3)cvpaper.challenge2016
cvpaper. challenge
En vedette
(20)
勉強会用スライド
勉強会用スライド
Mobilenet
Mobilenet
勉強会用スライド
勉強会用スライド
Ai勉強会20170127
Ai勉強会20170127
Deeply-Recursive Convolutional Network for Image Super-Resolution
Deeply-Recursive Convolutional Network for Image Super-Resolution
7月10日(月)dl
7月10日(月)dl
AI勉強会用スライド
AI勉強会用スライド
DLゼミ20170522
DLゼミ20170522
Deep voice
Deep voice
Globally and Locally Consistent Image Completion
Globally and Locally Consistent Image Completion
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
Deep Forest: Towards An Alternative to Deep Neural Networks
Deep Forest: Towards An Alternative to Deep Neural Networks
Generating Videos with Scene Dynamics
Generating Videos with Scene Dynamics
Colorful image colorization
Colorful image colorization
DeepLoco
DeepLoco
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
A3C解説
A3C解説
20160601画像電子学会
20160601画像電子学会
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)
【2016.01】(1/3)cvpaper.challenge2016
【2016.01】(1/3)cvpaper.challenge2016
Similaire à Densely Connected Convolutional Networks
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
Kazuki Adachi
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
KCS Keio Computer Society
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜
SSII
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
人工知能13 deep learning
人工知能13 deep learning
Hirotaka Hachiya
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
Deep Learning JP
Res netと派生研究の紹介
Res netと派生研究の紹介
masataka nishimori
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
Image net classification with deep convolutional neural network
Image net classification with deep convolutional neural network
ga sin
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Deep Learning JP
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Hiroki Nakahara
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
de:code 2017
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
Generative adversarial nets
Generative adversarial nets
Keisuke Hosaka
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
[論文紹介] Convolutional Neural Network(CNN)による超解像
[論文紹介] Convolutional Neural Network(CNN)による超解像
Rei Takami
DeepCas
DeepCas
Koichiro tamura
NeurIPS2019参加報告
NeurIPS2019参加報告
Masanari Kimura
研究を加速するChainerファミリー
研究を加速するChainerファミリー
Deep Learning Lab(ディープラーニング・ラボ)
Similaire à Densely Connected Convolutional Networks
(20)
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
人工知能13 deep learning
人工知能13 deep learning
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
Res netと派生研究の紹介
Res netと派生研究の紹介
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Image net classification with deep convolutional neural network
Image net classification with deep convolutional neural network
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Generative adversarial nets
Generative adversarial nets
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
[論文紹介] Convolutional Neural Network(CNN)による超解像
[論文紹介] Convolutional Neural Network(CNN)による超解像
DeepCas
DeepCas
NeurIPS2019参加報告
NeurIPS2019参加報告
研究を加速するChainerファミリー
研究を加速するChainerファミリー
Plus de harmonylab
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究 千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究 千坂知也
harmonylab
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
harmonylab
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
harmonylab
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
harmonylab
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
harmonylab
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
harmonylab
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
harmonylab
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
harmonylab
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
harmonylab
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Models
harmonylab
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
harmonylab
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
harmonylab
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
harmonylab
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
harmonylab
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
harmonylab
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
harmonylab
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
harmonylab
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
harmonylab
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
harmonylab
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
harmonylab
Plus de harmonylab
(20)
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究 千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究 千坂知也
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Models
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
Dernier
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Dernier
(7)
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Densely Connected Convolutional Networks
1.
Densely Connected Convolutional Networks Gao
Huang, Zhuang Liu, Kilian Q. Weinbeger, Laurens van der Maaten https://arxiv.org/abs/1608.06993v4 2017/10/26 DLゼミ B4 幡本昂平
2.
1 論文情報 • タイトル • Densely
Connected Convolutional Networks • 投稿日 • 2016/8/25(ver1) • 2016/11/29(ver2) • 2016/12/3(ver3) • 2017/8/27(ver4) • 発表学会 • CVPR2017 • Best Paper Awards
3.
2 • 新しいCNNアーキテクチャであるDenseNetを提案 • 従来よりもコンパクトなモデルでありながら高い性能 を実現 概要
4.
3 • 近年の計算機の発展により深いネットワークを訓練す ることが可能となり、CNNによる画像認識が進歩 • LeNet5:
5層 • VGG19: 19層 • ネットワークが深くなると勾配消失の問題が発生し、 学習がうまくいかないので更に層数を増やすのは難し かった • 2015年のResNetsなどの登場により100層以上のネッ トワークが構成できるようになり、更に精度が向上 Introduction
5.
4 • 入力をスキップさせて後の層の入力に足し込む ResNetなどのアイデア 出典: Deep
Residual Learning for Image Recogition(2015) Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun 他にも様々な方法でネットワークを深くできるように工夫したものが存在 Ex) Highway Networks, FractalNets
6.
5 • ResNet等のアーキテクチャに共通する考え方 浅い層から深い層へのパスを作っている • この論文ではこの点に着目し、層間の情報の伝達を 最大化するためにすべての同特徴量サイズの層を結合 させている •
Feed forwardを保つため、ある層より前の層の出力 を入力とする • 層間が密に結合している ことから、DenseNetと よぶ DenseNet
7.
6 DenseNetの基本構造 以下の要素で構成される • Initial Convolution •
Dense Block • Transition layer • Classification layer
8.
7 • 第𝑙層の出力を𝑥𝑙とすると、Dense Blockの第l層の出力は以下 の式で表される •
ここで𝐻𝑙は • Bacth normalization • ReLU • 3×3 Convolution の合成関数を表す • 上式は入力のテンソル 𝑥0, 𝑥1, … , 𝑥𝑙−1を結合して入力すること を表す • Ex) 𝑥𝑖が16×32×32のとき、入力は 入力のチャネル数 + ((𝑙 − 1) ×16) ×32×32 Dense Block
9.
8 • 前ページで示したDense Blockの式は特徴量マップの サイズが変わってしまうと使えない •
しかし、CNNの重要な要素であるマップサイズを変え るダウンサンプリングを行う層を入れないわけにはい かない Pooling層をどうするか
10.
9 • ネットワークをdense blockが複数結合した構造にし、 間にpoolingを行う層をいれる •
これをtransition layerと呼ぶ • 実験で使用したものは • Batch normalization • 1×1 convolution • 2×2 平均プーリング で構成される Transition layer
11.
10 • Dense blockの式で確認したように、𝐻𝑙がチャネル数𝑘 の特徴量マップを出力する場合、𝑙番目のレイヤへの 入力は
𝑘 × 𝑙 − 1 + 𝑘0となる (𝑘0はblockへ入力される画像のチャネル数) • ネットワークが大きくなりすぎるのを防ぐため𝑘は小 さい整数に設定 ex)𝑘 = 12 この𝑘をネットワークのgrowth rateと呼ぶ Growth rate
12.
11 • Bottleneckの導入 • Dense
blockの𝐻𝑙をBN-ReLU-Conv(1×1)-BN-ReLU- Conv(3×3)に変更 • Compression • Transition layerで特徴量マップの数を減らす • Transition layer内のconvolution層で出力マップサイズを 𝜃倍にする(0 < 𝜃 ≤ 1) • 今回の実験では𝜃 = 0.5とした 効率化手法 これらを導入したものと 導入していないものの両方について実験 出典: https://liuzhuang13.github.io/posters/DenseNet.pdf
13.
12 • CIFAR, SVHN用 •
ベーシックなdense net (𝐿 = 40) 実験で用いたネットワーク Layers detail Initial Convolution [3×3 conv (output channel=16)] Dense Block(1) [3×3 conv]×12 Transition(1) [1×1 conv] [2×2 average pool stride=2] Dense Block(2) [3×3 conv]×12 Transition(2) [1×1 conv] [2×2 average pool stride=2] Dense Block(3) [3×3 conv]×12 Classification [global average pool] [softmax] 3×3Conv層では ゼロパディング 𝐿は3𝑛 + 4でなければならない 3×Dense block + Initial conv + 2×transition + classification
14.
13 • 実験ではgrowth rate
𝑘 = 12, 24 𝐿 = 40,100のもので実験 • {𝐿 = 40, 𝑘 = 12}, {𝐿 = 100, 𝑘 = 12}, {𝐿 = 100, 𝑘 = 24} • Bottleneck layerを採用したものに対しては以下のような 設定で実験 • {𝐿 = 100, 𝑘 = 12}, {𝐿 = 250, 𝑘 = 24}, {𝐿 = 190, 𝑘 = 40} 実験で用いたネットワーク
15.
14 • ImageNet用 • DenseNet
with bottleneck and compressionを使用 • Dense blockの数は4 • 後述のResNetとの比較のため、最初のconv層と最 後の判別層の形を合わせてある 実験で用いたネットワーク
16.
15 • CIFARとSVHNに対して実験をおこなった • CIFAR •
32×32のカラー画像 • C10,C100に対して実験 • Train: 50000枚, Test: 10000枚 • Trainのうち5000枚をvalidationセットとした • データの拡張を行ったものとそうでないもの両 方について実験 実験1 CIFAR and SVHN
17.
16 • CIFARとSVHNに対して実験をおこなった • SVHN •
Street View House Numbers • Google street viewから抽出した数字の画像 • 32×32 カラー画像 • Train: 73257枚+531131枚, Test: 26032枚 • Trainのうち6000枚をvalidationに 実験1 CIFAR and SVHN
18.
17 • 最適化手法: SGD •
Mini-batchサイズ64 • エポック数 CIFAR: 300, SVHN:40 • 学習率は学習の進み具合で変化させる • 初期0.1, 50%学習後0.01, 75%学習後0.001 • 重み減衰10−4 • Nesterov momentum 0.9 • データの拡張を行っていないデータセットに対しては 各conv層の後に0.2のドロップアウト層を追加 訓練詳細
19.
18 結果 データ拡張を行ったもの エラー率パラメータ数 (重みの数)
20.
19 • Accuracy • CIFAR •
ResNetやその他のネットワークよりも低いエ ラー率を達成 • SVHN • L=100, k=24のDenseNetでResNetよりも低いエ ラー率 • DenseNet-BCではあまり性能が良くなっていな いが、これはSVHNが簡単な問題のためoverfitし やすいという理由が考えられる 結果について
21.
20 • Capacity • 基本的に𝐿,
𝑘が大きくなればなるほど性能が良く なっている • DenseNetでは大きく深いモデルの表現力を利用で きている • つまりoverfitting, 最適化の困難が発生しにくい 結果について
22.
21 • Parameter Efficiency 結果について DenseNet-BCはパラメータ 数に対するエラー率が DenseNetを比較した中で は最も低い 同程度の性能の ResNetよりもパラ メータ数が少ない ResNet-1001の90%パラ メータ数で同程度の性能を 実現
23.
22 • DenseNetにはOverfittingしにくいという特性がある • データ拡張をおこなっていないCIFARに対しても従来 よりも高い性能を発揮 •
パラメータ数を増やすことによりoverfittingをする傾向 が見られるが、bottleneckとcompressionで対処できる Overfitting
24.
23 • Train: 1.2million
validation: 50000 • データ拡張をおこなう • Validation setに対するエラー率を調査 • 訓練 • バッチサイズ256, 90エポック • 学習率は初期0.1,30エポック後0.01, 60エポック後 0.001 • GPUメモリの制約によりDenseNet-161ではバッチ サイズを128, エポック数を100に • 90エポック後に学習率を0.0001にする 実験2 ImageNet
25.
24 結果 ResNetより良いパラメータ効率・ 計算効率で同程度の性能を実現 ハイパーパラメータ設定はResNetに 最適化されたものを用いているので、 設定しなおせばより良い性能を発揮する 事も考えられる
26.
25 • 損失関数からの教師情報が各層に伝わりやすい • dense
blockでは浅い層と深い層が直接結合しているの で教師情報が直接伝播する なぜ性能がよくなったか 出典: https://liuzhuang13.github.io/posters/DenseNet.pdf
27.
26 • 特徴量の再利用性 • DenseNet(𝐿
= 40, 𝑘 = 12)をCIFAR10+で訓練した ときの各層の重みの平均値をヒートマップで可視化 なぜ性能がよくなったか
28.
27 特徴量の再利用性 • すべての層で重みが同ブロックの多くの入力に分散している • 浅い層の出力特徴量がdense
block全体で使われている • Transition layerでも重みが分散している • 最初の層の情報が直接最後の層に伝わっている • Dense block2,3ではtransition layerからの出力がほとんど利用されていない • Transition layerの出力は冗長 • DenseNet-BCで出力を圧縮してうまくいくことと合致している • Classification layerでは最後の方の出力を重視している • 最後の方の層で高レベルな特徴を抽出できている
29.
28 • 最適化が難しくなることなく100層以上のDenseNetを 作ることができる • パラメータを増やしてもoverfittingすることなく性能が よくなる傾向にある •
各データセットで従来よりも少ないパラメータ数で state of the art(2016年8月時点)の性能 • ハイパーパラメータの調整をすることでさらなる性能 を発揮することが期待できる • シンプルな結合規則にもかかわらず、高い性能を発揮 • よい特徴量抽出器であるといえるので、今後はこれを 用いた特徴量変換について研究する予定 まとめ
Télécharger maintenant