Soumettre la recherche
Mettre en ligne
がんばろう!はじめてのDnn!
•
7 j'aime
•
4,772 vues
S
Shushi Namba
Suivre
Hijiyama.R(5/28)にて発表したスライドです。
Lire moins
Lire la suite
Sciences
Signaler
Partager
Signaler
Partager
1 sur 52
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
Deep learningの軽い紹介
Deep learningの軽い紹介
Yoshihisa Maruya
有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25
Minoru Chikamune
Deeplearningとは?
Deeplearningとは?
Yuto Suzuki
ニューラルネットワークの数理
ニューラルネットワークの数理
Task Ohmori
マシンパーセプション研究におけるChainer活用事例
マシンパーセプション研究におけるChainer活用事例
nlab_utokyo
一般向けのDeep Learning
一般向けのDeep Learning
Preferred Networks
全脳関西編(松尾)
全脳関西編(松尾)
Yutaka Matsuo
Lab introduction 2014
Lab introduction 2014
nlab_utokyo
Recommandé
Deep learningの軽い紹介
Deep learningの軽い紹介
Yoshihisa Maruya
有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25
Minoru Chikamune
Deeplearningとは?
Deeplearningとは?
Yuto Suzuki
ニューラルネットワークの数理
ニューラルネットワークの数理
Task Ohmori
マシンパーセプション研究におけるChainer活用事例
マシンパーセプション研究におけるChainer活用事例
nlab_utokyo
一般向けのDeep Learning
一般向けのDeep Learning
Preferred Networks
全脳関西編(松尾)
全脳関西編(松尾)
Yutaka Matsuo
Lab introduction 2014
Lab introduction 2014
nlab_utokyo
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
Kazuki Nakajima
人工知能の(過去・現在・)未来と倫理
人工知能の(過去・現在・)未来と倫理
National Institute of Informatics (NII)
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Ryosuke Okuta
Ibis2016okanohara
Ibis2016okanohara
Preferred Networks
Deeplearningと髪型レコメンドへの応用
Deeplearningと髪型レコメンドへの応用
taichi nishimura
20150414seminar
20150414seminar
nlab_utokyo
人工知能勉強会 第1回 人工知能研究の全体像
人工知能勉強会 第1回 人工知能研究の全体像
Takuya Ishioka
Py conkyushu2018
Py conkyushu2018
ssuseraac758
人間の思考、機械の思考
人間の思考、機械の思考
maruyama097
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
tm_2648
Cloud OSの進化を考える
Cloud OSの進化を考える
maruyama097
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
Yuya Unno
AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」
fukuoka.ex
CNNdayo
CNNdayo
SyuntaHoto
人工知能概論 1
人工知能概論 1
Tadahiro Taniguchi
人工知能をめぐる意識と環境と身体の理論(上)
人工知能をめぐる意識と環境と身体の理論(上)
Youichiro Miyake
人工知能をめぐる意識と環境と身体の理論(下)
人工知能をめぐる意識と環境と身体の理論(下)
Youichiro Miyake
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
Yuya Unno
Hands On OpenCV! 画像処理ライブラリを使って面白いプログラムを作ろう!
Hands On OpenCV! 画像処理ライブラリを使って面白いプログラムを作ろう!
Saya Katafuchi
ゼミ報告会20141203
ゼミ報告会20141203
Sayaka Mine
Contenu connexe
Tendances
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
Kazuki Nakajima
人工知能の(過去・現在・)未来と倫理
人工知能の(過去・現在・)未来と倫理
National Institute of Informatics (NII)
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Ryosuke Okuta
Ibis2016okanohara
Ibis2016okanohara
Preferred Networks
Deeplearningと髪型レコメンドへの応用
Deeplearningと髪型レコメンドへの応用
taichi nishimura
20150414seminar
20150414seminar
nlab_utokyo
人工知能勉強会 第1回 人工知能研究の全体像
人工知能勉強会 第1回 人工知能研究の全体像
Takuya Ishioka
Py conkyushu2018
Py conkyushu2018
ssuseraac758
人間の思考、機械の思考
人間の思考、機械の思考
maruyama097
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
tm_2648
Cloud OSの進化を考える
Cloud OSの進化を考える
maruyama097
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
Yuya Unno
AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」
fukuoka.ex
CNNdayo
CNNdayo
SyuntaHoto
人工知能概論 1
人工知能概論 1
Tadahiro Taniguchi
人工知能をめぐる意識と環境と身体の理論(上)
人工知能をめぐる意識と環境と身体の理論(上)
Youichiro Miyake
人工知能をめぐる意識と環境と身体の理論(下)
人工知能をめぐる意識と環境と身体の理論(下)
Youichiro Miyake
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
Yuya Unno
Tendances
(20)
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
人工知能の(過去・現在・)未来と倫理
人工知能の(過去・現在・)未来と倫理
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Ibis2016okanohara
Ibis2016okanohara
Deeplearningと髪型レコメンドへの応用
Deeplearningと髪型レコメンドへの応用
20150414seminar
20150414seminar
人工知能勉強会 第1回 人工知能研究の全体像
人工知能勉強会 第1回 人工知能研究の全体像
Py conkyushu2018
Py conkyushu2018
人間の思考、機械の思考
人間の思考、機械の思考
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
Cloud OSの進化を考える
Cloud OSの進化を考える
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
AI入門「第1回:AIの歴史とTensorFlow」
AI入門「第1回:AIの歴史とTensorFlow」
CNNdayo
CNNdayo
人工知能概論 1
人工知能概論 1
人工知能をめぐる意識と環境と身体の理論(上)
人工知能をめぐる意識と環境と身体の理論(上)
人工知能をめぐる意識と環境と身体の理論(下)
人工知能をめぐる意識と環境と身体の理論(下)
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
Similaire à がんばろう!はじめてのDnn!
Hands On OpenCV! 画像処理ライブラリを使って面白いプログラムを作ろう!
Hands On OpenCV! 画像処理ライブラリを使って面白いプログラムを作ろう!
Saya Katafuchi
ゼミ報告会20141203
ゼミ報告会20141203
Sayaka Mine
データ分析スクリプトのツール化入門 - PyConJP 2016
データ分析スクリプトのツール化入門 - PyConJP 2016
Akinori Kohno
CVPR2017 参加報告 速報版 本会議 2日目
CVPR2017 参加報告 速報版 本会議 2日目
Atsushi Hashimoto
深層学習よもやま話
深層学習よもやま話
Hiroshi Maruyama
第0回プログラミング講座
第0回プログラミング講座
happo31
参加者目線でトコトン考えてみる『成功するイベントの共通点』 【2013年/総括篇】
参加者目線でトコトン考えてみる『成功するイベントの共通点』 【2013年/総括篇】
剛彦 關
DMTC 最終プレゼン
DMTC 最終プレゼン
真悟 平山
2012ー1 TENTOプレゼン資料
2012ー1 TENTOプレゼン資料
TENTO_slide
[名古屋CV・PRML勉強会] ゼロからはじめたいDeep Learning
[名古屋CV・PRML勉強会] ゼロからはじめたいDeep Learning
Hiroshi Fukui
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
Similaire à がんばろう!はじめてのDnn!
(11)
Hands On OpenCV! 画像処理ライブラリを使って面白いプログラムを作ろう!
Hands On OpenCV! 画像処理ライブラリを使って面白いプログラムを作ろう!
ゼミ報告会20141203
ゼミ報告会20141203
データ分析スクリプトのツール化入門 - PyConJP 2016
データ分析スクリプトのツール化入門 - PyConJP 2016
CVPR2017 参加報告 速報版 本会議 2日目
CVPR2017 参加報告 速報版 本会議 2日目
深層学習よもやま話
深層学習よもやま話
第0回プログラミング講座
第0回プログラミング講座
参加者目線でトコトン考えてみる『成功するイベントの共通点』 【2013年/総括篇】
参加者目線でトコトン考えてみる『成功するイベントの共通点』 【2013年/総括篇】
DMTC 最終プレゼン
DMTC 最終プレゼン
2012ー1 TENTOプレゼン資料
2012ー1 TENTOプレゼン資料
[名古屋CV・PRML勉強会] ゼロからはじめたいDeep Learning
[名古屋CV・PRML勉強会] ゼロからはじめたいDeep Learning
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
Plus de Shushi Namba
回帰モデルとして見る信号検出理論
回帰モデルとして見る信号検出理論
Shushi Namba
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
表情から見た情動
表情から見た情動
Shushi Namba
今夜は動的モデリングよ~Dynrで簡単クッキング!~
今夜は動的モデリングよ~Dynrで簡単クッキング!~
Shushi Namba
Mental model for emotion
Mental model for emotion
Shushi Namba
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学
Shushi Namba
馬に蹴られるモデリング
馬に蹴られるモデリング
Shushi Namba
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
Shushi Namba
Rはいいぞ!むしろなぜ使わないのか!!
Rはいいぞ!むしろなぜ使わないのか!!
Shushi Namba
心理学における「再現性」の問題とBayes Factor
心理学における「再現性」の問題とBayes Factor
Shushi Namba
変数同士の関連_MIC
変数同士の関連_MIC
Shushi Namba
主成分分析(Pca)
主成分分析(Pca)
Shushi Namba
Psychophysical functions@BCM勉強会
Psychophysical functions@BCM勉強会
Shushi Namba
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Shushi Namba
Plus de Shushi Namba
(15)
回帰モデルとして見る信号検出理論
回帰モデルとして見る信号検出理論
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
表情から見た情動
表情から見た情動
今夜は動的モデリングよ~Dynrで簡単クッキング!~
今夜は動的モデリングよ~Dynrで簡単クッキング!~
Mental model for emotion
Mental model for emotion
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学
馬に蹴られるモデリング
馬に蹴られるモデリング
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
Rはいいぞ!むしろなぜ使わないのか!!
Rはいいぞ!むしろなぜ使わないのか!!
心理学における「再現性」の問題とBayes Factor
心理学における「再現性」の問題とBayes Factor
変数同士の関連_MIC
変数同士の関連_MIC
主成分分析(Pca)
主成分分析(Pca)
Psychophysical functions@BCM勉強会
Psychophysical functions@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
がんばろう!はじめてのDnn!
1.
はじめてのDNN 文系でもニューラル ネットワークがしたい! ・・・したくない? 難波 修史
2.
自己紹介 •難波 修史(なんば しゅうし) •広島大学大学院教育学研究科D1 •感情表情の表出・認知の研究してます。 •R歴:ちょこちょこ •twitter:@NSushi
3.
2012年のBig News • DNNによってコンピュータが猫を認識で きるようになった!! •
すごい • 実際の研究論文 ↓ http://static.googleusercontent.com/external_content/untr usted_dlcp/research.google.com/en//archive/unsupervised _icml2012.pdf
4.
どうやったの? • これは機械学習の一種であるDeep Neural Network
(以下DNN) ってやつの仕業なんだ! ※機械学習?=データの蓄積によって ルールを獲得するアルゴリズム。 詳しくはググるのが一番いい • 2012年の画像認識テストに おいて従来のComputer Vision (CV) 手法の成績を大きく上回 ったことで一躍有名に。
5.
しったときのわたし
6.
しかし最新の 表情研究は… わけわかんなさすぎて 瞳の輝きを失う発表者
7.
もちろん表情だけではない • あらゆる分野でDNNの話は出てくる • 画像処理,自然言語処理,人工知能,音声認識 など分野の枚挙には暇がなく,当然ビジネスで も応用されており適用場面はどんどん広がって きている。
8.
そこで! •本発表の目的:一緒にDNNの核とな る概念や要素を学び,Rを用いて実 装することで少しでもDNNと仲良く なることを目指しましょう! ※わけわかんなすぎてDNNを もっと嫌いになっても発表 者は責任をとれません。
9.
まずDNNってなんだ? • 事前にうまく特徴を抽出してくれる教師無 しニューラルネットワークをたくさんつな げて多層にしたもの(≒Deep Learningと も表現される) •
人の神経を模したネットワーク構造をいく つも重ねて構築した「機械が物事を理解す るための学習方法」と理解してください。 (図は後で
10.
いまじん • 一つのニューラル • 右図上:人の神経細胞 •
右図下:DNN内の一要素 • 右図下のやつらを多層にしたもの=DNN
11.
DNNを理解するぞー。 • 未経験のユーザー(我々…少なくとも私)にとって, DNNによる処理や結果は理解がしにくい。 • 今回はメカニズムや処理の観点から理解するため, ネットワークの作成をRを通してしっかり実践して みる。 •
既存のDNNパッケージさえあれば分析自体は可能 → しかしあえて各層の結果 (訓練による重みづ けの変化など) を可視化することで理解して いこう。 (Rの偏った知識もつくぞ!多分!
12.
基本の概念と要素 • この右図はFully connected neural networkというも のであり,いわ ゆるDNNである。 •
隣接するネット ワーク内の層 ( ) で完全にお互いを つないでいる。
13.
典型的なネットワーク • もっとも単純かつ典型的なネットワークは • 1つの入力層 •
2つの隠れ層(間の層) • 1つの出力層 からできている。 • ネットワークの構造というものは層の数,ニュー ロンの数,活性化・損失関数の種類,正則化(過 学習防いだりする追加の項)などをさす。
14.
重みづけとバイアス • 先ほどのDNN構造には3種類の重みづけポイント が存在する=入力→隠れ1;隠れ1→隠れ2;隠れ2→出力 • バイアスは入力以外の隠れ ノード及び出力とつながっ ている(右図の黒い●) •
今回は重みづけとバイアスは行列で示す。 • 初期値=正規分布からの乱数(初期値に関して: http://cs231n.github.io/neural-networks-2/#init)
15.
重みづけとバイアスのR code • Weight
<- 0.01*matrix (rnorm(入力特徴のニュー ロン数*隠れ層の数), nrow = 入力特徴のニュー ロン数, ncol = 隠れ層内のニューロン数) • #1次元行列で0とする。 • Bias <- matrix(0, nrow = 1, ncol = 隠れ層内の ニューロン数)
16.
ニューロン:Neuron 一つ一つのニューロンは線形回帰と同じように重 みと入力を掛け合わして足していき,結果は活性 化関数に渡される。 よく知られる活性化関数は sigmoid, Relu, Tanh,
Maxout などだが,今回はrectified Linear unit (ReLu:f(x) = max(0, x))を用いる。 ※他の活性化関数:http://cs231n.github.io/neural-networks-1/#actfun 入力 重み 活性化 関数 バイアス
17.
ReLu? • f(x) =
max(0, x) x > 0の時は f(x) = x x ≦ 0の時はf(x) = 0となる • 以上! • 詳しくは:http://en.wikipedia.org/wiki/Rectifier_(neural_networks)
18.
活性化関数含むニューロンの イメージ • ニューラルネットを構成するニューロンは,1 つ1つがある活性化関数を持つ。 • 各ニューロンが持つ活性化関数は“パラメータ” が少しずつ違い,同じ形ではない。 •
重みつきのノードでニューロン同士をつなぎ合 わせることで,複雑な関数を表現 参照: http://vaaaaaanquish.hatenablog. com/entry/2015/01/26/060622
19.
ニューロンのR code • #
やりたいこと neuron <- max(0, input %*% weight + bias) • # 入力特徴_dimenstion: 2x2 • input <- matrix(1:4, nrow=2, ncol=2) • # 重みづけ_dimenstion: 2x3 • weights <- matrix(1:6, nrow=2, ncol=3) • # バイアス_dimenstion: 1x3 • bias <- matrix(1:3, nrow=1, ncol=3)
20.
実装にむけたTips.1 • # 行列の積・和に関して※%*%は行列の積 •
# 次元の異なるinput %*% weightsとbiasは直接足 し合わせれないため,sweep()を用いる。 • input %*% weights + bias #まわらない • s1 <- sweep(input %*% weights, 2, bias, `+`) • sweep()がHelp見てもよくわからんって人に: http://entertainment-lab.blogspot.jp/2009/10/sweep.html
21.
実装にむけたTips.2 • # 行列内の要素ごとの最大値に関して •
print(s1) #もちろんprint()なくてもよい • max(0, s1) #max()は最大値を返す • # 行列構造なくして,s1内の最大値を並べる • pmax(0, s1) • #1つ目の引数にぶち込むと行列に戻す • pmax(s1, 0)
22.
層:Layer • 入力層:入力層は基本的に1層に固定されており, 入力データの特徴数と同じ単位になる。 • 隠れ層:DNNの中で主要かつ多様性のある要素。 •
一般的にはより複雑な問題 (非線形) に関してはよ り多くの隠れ層が必要となる。 • 出力層:回帰においては恣意的な実数値(一つの 出力ノード),分類においては特定のクラスを示 す(予測カテゴリー数と同数のノード)。
23.
つくってあそぼう! • 今まで:DNNの基本的概念の紹介 • 次からはネットワークの基本構造,トレーニン グネットワークを含むNNを作って,学習させた 後に新データに関する予測を行ってみよう。 •
以降ではみんな大好きIrisたんを使っていきます。
24.
まずデータを知ろう(irisたんとは?) • アヤメ(お花さんです)の計測データです。 • summary()
でみてみましょう
25.
ネットワークの基本構造 • 4つの特徴 (入力)
+3つの分類カテゴリー (出力) があ るようだ。そこで以下のDNN構造が考えられる。
26.
予測:Prediction • 予測 (classification
/ inferenceと呼ばれることも ある) はトレーニング (後に紹介) と比べると簡潔 なものである。 • 出力層では活性化関数は必要ない。分類では確 率がsoftmaxによって計算され,回帰では出力が 予測の実数値によって示される。 • このプロセスはfeed forward / feed propagation とも呼ばれる。
27.
予測:R code
28.
訓練:Training • 分類誤差・残差を最小化するプロセス。ネットワー ク構造下の最適パラメータ (重みづけ+バイアス)
を 探索する。 • 2種類のプロセス:Feed forward & back propagation • Feed-forward:(予測の時と同じように) 入力データ からネットワークを経由して損失関数によって出力 層におけるデータの損失 (予測ラベルと真のラベルと の不一致度) を計算する。 ※損失関数=推定の悪さを定義した関数 • 今回はsoftmax分類機で使用される交差エントロピー 関数を利用:http://cs231n.github.io/neural-networks-2/#losses参照
29.
訓練.2 • データの損失 (予測ラベルと真のラベルとの不一致度) を得た後,重みづけとバイアスを変更することによっ てそれらを最小化する必要がある。 •
back-propagation:各パラメータ (重みづけとバイア ス) に関するデータの損失の導函数を求める勾配降下 や確率的勾配降下法によってすべての層やニューロン に誤差逆伝播 (back-propagation) を行う。 • ※誤差逆伝播は各活性化関数により異なる。以下を参 照:http://mochajl.readthedocs.io/en/latest/user-guide/neuron.html さらに詳細:http://cs231n.github.io/neural-networks-3/
30.
すごい適当な訓練のイメージ feed-forward back-propagation data loss
31.
※注意!! こっからアホみたいに長いです。 余裕があるときにじっくり見て いただければと思います。
32.
トレーニング:R code (引数設定)
33.
トレーニング:R code (引数データからの入力)
34.
トレーニング:R code (modelの設定:初期値など)
35.
トレーニング:R code (モデルの各パラメータ)
36.
トレーニング:R code (訓練の中枢)
37.
トレーニング:R code (可視化用)
38.
トレーニング:R code (逆向きの計算)
39.
トレーニング:R code (更新)
40.
トレーニング:R code (仕上げ)
41.
よしやってみよう • これでDNNに必要な予測と訓練に関する関数 が完成した。 → 早速性能を試してみよう!
42.
set.seed() 乱数を設定: 結果を再現させる関数
43.
トレーニングだ! 左の値は損失=低いほどいい 右の値は正確性=高いほどいい iterationが増えるほどいい感じに なっていっているのがわかる。 ちなみにtrain.dnnの引数のx=入力の数,y=irisデータのラベルの列を指定しているよ
44.
結果の確認 setosa は満点 他もほぼあってる(すごい 値
45.
可視化:損失と正確性
46.
まとめ • 今回はDNNの主要な概念や要素の説明を行い, Rによるニューラルネットワークの実装も示しま した。 • Irisデータをかなり正確に分類するNetworkも作 れました。これをきっかけにどんどんDNNの勉 強をすすめていくと楽しいと思います。 •
ご指摘・ご意見ございましたらお手数ですが是 非@Nsushi ( twitter) までご連絡ください
47.
おまけ • 「Neural network
browser」でググるか • ↓にいくと • http://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle®D ataset=reg- plane&learningRate=0.03®ularizationRate=0&noise=0&networkShape=4,2&seed=0. 76541&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTime sY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=fa lse&collectStats=false&problem=classification&initZero=false • GUI(ボタンポチポチ操作)で簡単かつ視覚 的にNeural networkを楽しめるぞ!!
48.
画面(学習前
49.
画面(学習後
50.
おまけのまとめ • すんごい簡単にブラウザ上でDNNができる。 • まずはこれで色々遊んでみてもDNNと仲良くな れると思います。 もちろんRたんとも 仲良くしてね! ※発表者はRのこと を右図のようにイメ ―ジして日々楽しく勉強しています。
51.
参考文献 • 今回の内容は基本的にここを死ぬほど参考にし てます。 http://www.r-bloggers.com/r-for-deep-learning- i-build-fully-connected-neural-network-from- scratch/ • ちなみにCodeは以下にあります。 http://www.parallelr.com/materials/2_DNN/iris_d nn.R
52.
参考文献 Deep Learningの基礎: http://www.slideshare.net/kazoo04/deep-learning- 15097274 http://www.slideshare.net/pfi/deep-learning- 22350063 http://stonewashersjournal.com/2015/03/05/deeple arning1/ 活性化関数に関して: http://wpedia.goo.ne.jp/wiki/%E6%B4%BB%E6%80 %A7%E5%8C%96%E9%96%A2%E6%95%B0 http://sleepy- programmer.blogspot.jp/2015/02/2.html
Télécharger maintenant