SlideShare une entreprise Scribd logo
1  sur  8
Télécharger pour lire hors ligne
深層学習 Day3Day4 レポート
深層学習 Day3
1:再帰型ニューラルネットワークの概念
再帰型ニューラルネットワークは、各入力は独立したものであると考える従来のニュー
ラルネットワークの仕組みに加え、中間層からの出力を再度入力として処理することで、
時間的なつながりを維持した状態で処理を可能にしたもの。RNN は自然言語分野で特に
よく用いられる。
確認テスト:サイズ 5×5 フィルタサイズ 3×3 ストライド 2 パディング 1 の畳み込
み出力サイズ
3×3
確認テスト:RNN の重みの 3 種類目は?
中間層から中間層に戻す際の重み
演習チャレンジ
(2)
確認テスト:dz/dx を求めよ
dz/dt =2t, dt/dx=1,
dz/dt・dt/dx = dz/dx = 2t = 2(x+y)
確認テスト:y1 を数式で表せ
y1=g(Wout・Win・x1+W・S0+b +c)
コード演習問題:
(2) delta_t.dot(U)
実装演習:leaning rate の違いによる変化を確認した
考察:learning rate を大きく設定した場合、非常に早く収束した。問題設定が
単純であったからか、発散することは無かった。
learning
rate
0.1 0.5 0.9
2:LSTM
長期的な依存関係を学習することのできる、再帰型ニューラルネットワーク(RNN)の一
種。CEC と呼ばれる中間層を持ちそこにこれまでの入力値、中間層の出力を保存してお
り、RNN では中間層の出力をそのまま次の中間層に渡していたが、LSTM ではこれをC
ECで記憶、入力ゲート・出力ゲートで処理することで、処理と記憶を分けている。
不要になったデータは忘却ゲートで削除される。
確認テスト:シグモイド関数を微分した際の最大値
(2) 0.25
演習チャレンジ:
(1) gradient * rate
確認テスト:無くなっても影響を及ぼさないものはどのゲートで処理されるか
忘却ゲート
演習チャレンジ
(2) input_gate * a + forget_gate * c
3:GRU
LSTM ではパラメータ数が多く計算負荷が高かった為、GRUではそのパラメータを大
幅に削減し、精度もLSTMと同等以上を確保した。LSTMと比べて出力ゲートを書く
ため、LSTMよりパラメータが少なくなり計算負荷が低くなる。
確認テスト:LSTMとCECが抱える問題
LSTMはパラメータ数が多く計算負荷が高い点が問題。CECは勾配が 1 となり学習
能力が無いため、それを補うためのパラメータが多く、LSTMの計算負荷が高くなる原
因となっている。
演習チャレンジ
(4) (1-z) * h + z * h_bar
確認テスト:LSTMとGRUの違い
LSTMは入力、出力、忘却ゲートとCECがある。GRUはCECが無く、更新ゲート
とリセットゲートを持つ。GRUの方がパラメータ数が少なく、計算量が少ない。
4:双方向 RNN
過去の情報だけではなく、未来の情報を加味することで制度を向上させるためのモデ
ル。機械翻訳や文書の推敲などに用いられ、文書は未来の情報も一度に入ってくるため、
それらの情報を使用して精度を向上させる。
演習チャレンジ:
(4) np.concatenate([h_f, h_b[::-1]], axis=1)
5:Seq2Seq
2 つのネットワークが合わさって使用される(Encoder-Decoder)、自然言語用のネット
ワーク。機械翻訳などに使用される。Encoder では文章を単語などのトークンに分割され
たものが蓄積され、最終的には文脈がベクトル表現で保持されたことになる。Decoder で
はその保持された情報をトークンごとに作り直す。英語→日本語の翻訳をイメージすると
理解しやすい。
確認テスト:seq2seq について説明している物
(2)
演習チャレンジ:(き)に当てはまるものはどれか
(1) E.dot(w)
確認テスト:Seq2Seq、HRED、VHRED の違い
Seq2Seq は文脈間の履歴(会話の流れ)は考慮されない。
HRED は Seq2Seq + Context RNN で、過去 n-1 個の発話から次の発話を生成する。前の
文脈に沿った応答を作成することができ、過去の発話の履歴を加味した返答ができる。
VHRED は HRED に VAE の潜在変数の概念を追加することで、単純な応答を返しがち
であった HRED の問題点を解決したもの。
確認テスト:VAE 穴埋め
確率分布
6:Word2vec
RNN では単語の様な可変長の文字列を NN に与えることはできなかったため、固定長
形式で単語を記述する必要があったが、学習データからボキャブラリを作成し、ボキャブ
ラリ×任意の単語のベクトル次元数の重み行列を作成することにより、大規模データの分
散表現の学習が現実的な計算速度とメモリ量で実現可能にした。
7:Attention Mechanism
Seq2Seq では単語の数に関わらず固定次元ベクトルの中に入力しなければならなかったた
め、長い文章への対応が難しかった。そこで Attension Mechanism では「入力と出力のど
の単語が関連しているのか」の関連度を学習する事で、一文の中で何が重要かを見つけ不
要なものを排除した。
確認テスト:RNN と word2vec、seq2seq、Attention の違い
RNN:時系列データを処理するのに適したネットワーク
word2vec:単語の分散表現ベクトルを得る手法
seq2seq:一つの時系列データから別の時系列データを得るネットワーク
Attention:時系列データの中身に対して関連性に重みを付ける手法
深層学習 Day4
1:強化学習
長期的に報酬を最大化できるように環境の中で行動を選択できるエージェントを作るこ
とを目標とする機械学習の一分野。行動の結果として与えられる利益(報酬)をもとに、行
動を決定する原理を改善していくことを目的とする。ある方策をとった時の価値を評価す
る為、方策関数と価値関数を学習させる。
2:AlphaGo
AlphaGo は囲碁に対して教師あり学習+強化学習を適用したもの。AlphaGo Lee は
PolicyNet(方策関数)と ValueNet(価値関数)を組み合わせ、探索法としてモンテカルロ木探
索を採用している。PolicyNet は囲碁のマス数(19*19)と 48 チャンネルの入力を畳み込
み、活性化関数(ReLU)、出力の活性化関数は SoftMax を利用し、19*19 のマスのどこの
マスに打つのが良いのかを出すネットワーク。ValueNet は 19*19 と 49 チャンネル。手番
についてのチャンネルが PolicyNet から増えている。出力は現局面での勝率を-1~1 で表し
たものを出力する。そのため、畳み込みのあとに全結合層を 2 つ挟み、1 次元の出力とし
ている。
AlphaGo Zero は、PolicyNet と ValueNet を 1 つのネットワークとし、ResidualNet を導
入、モンテカルロ木探索の中から RollOut シミュレーションをなくしたもの。ResidualNet
はネットワークにショートカットを作成し、勾配爆発、勾配消失を抑える効果を狙ってい
る。このことで 100 層を超えるネットワークでの安定した学習が可能になった。
3:軽量化・高速化技術
深層学習は多くのデータを使用したり、パラメータ調整の為に多くの時間を使用する
為、高速な計算が求められる。高速化技術としては、モデル並列、データ並列等の並列化
処理を行い、並列化したデータを並列処理が得意な GPU で処理させる GPGPU、モデル
の軽量化技術として、量子化(大量の重みパラメータの精度を落とす)、蒸留(学習済みの精
度の高いモデルの知識を軽量なモデルへ継承させる)、プルーニング(モデルの精度に寄与
が少なりニューロンを削減することでモデルの軽量化、高速化を行う)があげられる。
4:応用モデル
MobileNets:ディープラーニングのモデル軽量化、高速化、高精度化を目指した手法。
畳み込みレイヤーの計算量が多いことを解決する為、Depthwise
Convolution(入力マップのチャネルごとに特定のフィルタで畳み込みを実
施し、出力マップをそれらと結合。フィルタが減る分計算量が減る)と
Pointwise Convolution(1*1 のカーネルで畳み込む)を利用している。
DenseNet:DenseBlock で出力層に前の層の入力を足し合わせている。ResNet とよく似
ているが、ResNet はある層に与えられた信号をそれよりも少し上位の層の
出力に追加するスキップ接続により深いネットワークを訓練できるように
したもので、DenseNet は前方の層からの出力すべてが後方の層への入力
として用いられる。
Wavenet:音声生成モデル。時系列データに対して畳み込みを適用し、Dilated
convolution(層が深くなるにつれて畳み込むリンクを離し受容野を増やす)
を採用している。
確認問題:MobileNets の(い)と(う)に入る言葉
(い)H*W*C*K*K
(う)H*W*C*M
確認問題:Wavenet の(あ)、(い)に入る言葉
(あ)Dilated causal convolution
(い)パラメータ数に対する受容野が広い
5:Transformer
Seq2seq:系列を入力として系列を出力するモデル。
RNN のモデルでは間違いが起こると誤差が連鎖的に大きくなっていき、学
習が不安定になったり収束されなくなる問題があるが、TeacherForcing によ
って正解ラベルを直接 Decoder の入力にする等の工夫が考えられる。また
TeacherForcing では学習時と評価時に分布が異なってしまうデメリットがあ
るが、Scheduled Sampling 等と混ぜ合わせることで改善できる。
Transformer:エンコーダ、デコーダに RNN を使用せず、Attention のみを使用する
Attention は翻訳先の各単語を選択する際に翻訳元の文中の各単語の隠れ
状態を利用したもので、クエリに一致するキーを検索し、対応するバリ
ューを取り出す操作であるとみなすことができる。
実装演習:Seq2seq
Wheel のバージョン違いで動作しなかったようなので 0.34.1 に修正して実行した。
考察:プログラムを追っていくことで、Seq2seq による言語翻訳の動作の流れが非常に
よく理解できた。出来上がったものは、英語から全く別の日本語になってしまう
こともあるので信頼度は低いが、基本的な動きが理解できた点は良かった。
確認事項:
登録単語の確認
結果
実装演習:Transformer
考察:プログラムを追っていくことで、Transformer の Attention がどの段階で入って
動作するのかなど、動きがよく理解できた。また、実行結果も seq2seq よりはま
ともな文章になっており、信頼性も向上していることが確認できた。
実行結果:
6:物体検知・セグメンテーション
物体検知は入力画像から、何がどこにあるのかを出力するもの。出力はバウンディング
ボックスで、物体位置と物体のクラスと確信度が合わせて出力されることが多い。通常の
クラス分類問題では閾値を上げても出力の数は変わらなかったが、物体検知では確信度が
閾値を超えなかった場合は出力対象とならないので注意が必要。代表的なデータセットは
VOC12,ILSVRC17,MS COCO18,OICOD18 などがあげられる。手法としては AlexNet が
登場した後 SIFT→DCNN へと移り変わった。代表的なフレームワークは大きく 2 種類に
分けられ、2 段階検出器(候補領域の検出とクラス推定を別々に行い精度が高いが速度は遅
い)、1 段階検出器(検出とクラス推定を同時に行う。精度は低いが速度が速い。)。
セマンティックセグメンテーションは画像内の全画素にラベルやカテゴリを関連付ける
アルゴリズムで、畳み込みなどで落ちた画素数をアップサンプリングで戻す工夫がなされ
ている。アップサンプリングの手法として Deconvolution、Transposed convolution がある
が、畳み込みの逆演算ではない為、Pooling で失われた情報が復元されるわけでは無い。

Contenu connexe

Tendances

(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf
(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf
(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf
MbarkiIsraa
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
Takeshi Sakaki
 

Tendances (20)

Les reseaux profonds
Les reseaux profondsLes reseaux profonds
Les reseaux profonds
 
主成分分析
主成分分析主成分分析
主成分分析
 
PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247
 
Commandes usuelle linux
Commandes usuelle   linuxCommandes usuelle   linux
Commandes usuelle linux
 
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
 
(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf
(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf
(GLII-Spécification, vérification et qualité-chapitres 1 et 2-2013-2014.pdf
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
ΠΛΗ30 ΕΠΑΝΑΛΗΨΗ 2
ΠΛΗ30 ΕΠΑΝΑΛΗΨΗ 2ΠΛΗ30 ΕΠΑΝΑΛΗΨΗ 2
ΠΛΗ30 ΕΠΑΝΑΛΗΨΗ 2
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
La méthode z
La méthode zLa méthode z
La méthode z
 
Réseaux de neurones
Réseaux de neurones Réseaux de neurones
Réseaux de neurones
 
Chapitre 3 NP-complétude
Chapitre 3 NP-complétudeChapitre 3 NP-complétude
Chapitre 3 NP-complétude
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Forward-Forward Algorithm
Forward-Forward AlgorithmForward-Forward Algorithm
Forward-Forward Algorithm
 
POO Java Chapitre 1 Classe & Objet
POO Java Chapitre 1 Classe & ObjetPOO Java Chapitre 1 Classe & Objet
POO Java Chapitre 1 Classe & Objet
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 

Dernier

The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
koheioishi1
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
YukiTerazawa
 

Dernier (7)

東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 

ラビットチャレンジ Day3 day4レポート