Soumettre la recherche
Mettre en ligne
Mxnetで回帰 #TokyoR 53th
•
6 j'aime
•
5,689 vues
Akifumi Eguchi
Suivre
第53回 Tokyo.R LT資料です。
Lire moins
Lire la suite
Données & analyses
Signaler
Partager
Signaler
Partager
1 sur 19
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
いきなりAi tensor flow gpuによる画像分類と生成
いきなりAi tensor flow gpuによる画像分類と生成
Yoshi Sakai
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
Rで潜在ランク分析
Rで潜在ランク分析
Hiroshi Shimizu
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
Takashi Kitano
Dummiesパッケージ
Dummiesパッケージ
weda654
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
Rcppのすすめ
Rcppのすすめ
Masaki Tsuda
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Toru Imai
Recommandé
いきなりAi tensor flow gpuによる画像分類と生成
いきなりAi tensor flow gpuによる画像分類と生成
Yoshi Sakai
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
Rで潜在ランク分析
Rで潜在ランク分析
Hiroshi Shimizu
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
Takashi Kitano
Dummiesパッケージ
Dummiesパッケージ
weda654
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
Rcppのすすめ
Rcppのすすめ
Masaki Tsuda
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Toru Imai
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
R を起動するその前に
R を起動するその前に
Kosei ABE
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
Satoshi Kitajima
TokyoR42_around_chaining
TokyoR42_around_chaining
TokorosawaYoshio
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
Toru Imai
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
Atsushi Hayakawa
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
yutannihilation
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Yohei Sato
Tokyor42 ggplot2
Tokyor42 ggplot2
Yohei Sato
Tokyo r33 beginner
Tokyo r33 beginner
Takashi Minoda
Tokyo r30 anova
Tokyo r30 anova
Takashi Minoda
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Yohei Sato
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
Nagi Teramo
Tokyo r30 beginner
Tokyo r30 beginner
Takashi Minoda
アンサンブル学習
アンサンブル学習
Hidekazu Tanaka
はじめての「R」
はじめての「R」
Masahiro Hayashi
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
Hiroshi Shimizu
PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73
Akifumi Eguchi
High-order factorization machines with R #tokyor 61
High-order factorization machines with R #tokyor 61
Akifumi Eguchi
Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
Akifumi Eguchi
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本
Akifumi Eguchi
Contenu connexe
En vedette
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
R を起動するその前に
R を起動するその前に
Kosei ABE
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
Satoshi Kitajima
TokyoR42_around_chaining
TokyoR42_around_chaining
TokorosawaYoshio
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
Toru Imai
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
Atsushi Hayakawa
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
yutannihilation
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Yohei Sato
Tokyor42 ggplot2
Tokyor42 ggplot2
Yohei Sato
Tokyo r33 beginner
Tokyo r33 beginner
Takashi Minoda
Tokyo r30 anova
Tokyo r30 anova
Takashi Minoda
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Yohei Sato
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
Nagi Teramo
Tokyo r30 beginner
Tokyo r30 beginner
Takashi Minoda
アンサンブル学習
アンサンブル学習
Hidekazu Tanaka
はじめての「R」
はじめての「R」
Masahiro Hayashi
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
Hiroshi Shimizu
En vedette
(18)
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
R を起動するその前に
R を起動するその前に
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
TokyoR42_around_chaining
TokyoR42_around_chaining
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Tokyor42 ggplot2
Tokyor42 ggplot2
Tokyo r33 beginner
Tokyo r33 beginner
Tokyo r30 anova
Tokyo r30 anova
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
Tokyo r30 beginner
Tokyo r30 beginner
アンサンブル学習
アンサンブル学習
はじめての「R」
はじめての「R」
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
Plus de Akifumi Eguchi
PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73
Akifumi Eguchi
High-order factorization machines with R #tokyor 61
High-order factorization machines with R #tokyor 61
Akifumi Eguchi
Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
Akifumi Eguchi
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本
Akifumi Eguchi
Dslt祭り2夜
Dslt祭り2夜
Akifumi Eguchi
環境化学データ解析入門: 愛媛大講演資料 160728
環境化学データ解析入門: 愛媛大講演資料 160728
Akifumi Eguchi
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
Akifumi Eguchi
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
Akifumi Eguchi
ぞくパタ最終回: 13章「共クラスタリング」
ぞくパタ最終回: 13章「共クラスタリング」
Akifumi Eguchi
Deep learningもくもくハッカソンまとめup用
Deep learningもくもくハッカソンまとめup用
Akifumi Eguchi
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Akifumi Eguchi
第2回ぞくパタ
第2回ぞくパタ
Akifumi Eguchi
第一回ぞくパタ
第一回ぞくパタ
Akifumi Eguchi
ぞくパタ はじめに
ぞくパタ はじめに
Akifumi Eguchi
Tokyo.r #44 lt.pptx
Tokyo.r #44 lt.pptx
Akifumi Eguchi
Tokyo r #43
Tokyo r #43
Akifumi Eguchi
みどりぼん9章前半
みどりぼん9章前半
Akifumi Eguchi
みどりぼん3章前半
みどりぼん3章前半
Akifumi Eguchi
Tokyo R #39
Tokyo R #39
Akifumi Eguchi
Plus de Akifumi Eguchi
(19)
PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73
High-order factorization machines with R #tokyor 61
High-order factorization machines with R #tokyor 61
Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本
Dslt祭り2夜
Dslt祭り2夜
環境化学データ解析入門: 愛媛大講演資料 160728
環境化学データ解析入門: 愛媛大講演資料 160728
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
ぞくパタ最終回: 13章「共クラスタリング」
ぞくパタ最終回: 13章「共クラスタリング」
Deep learningもくもくハッカソンまとめup用
Deep learningもくもくハッカソンまとめup用
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
第2回ぞくパタ
第2回ぞくパタ
第一回ぞくパタ
第一回ぞくパタ
ぞくパタ はじめに
ぞくパタ はじめに
Tokyo.r #44 lt.pptx
Tokyo.r #44 lt.pptx
Tokyo r #43
Tokyo r #43
みどりぼん9章前半
みどりぼん9章前半
みどりぼん3章前半
みどりぼん3章前半
Tokyo R #39
Tokyo R #39
Mxnetで回帰 #TokyoR 53th
1.
MXNetで回帰 Michael A. Nielsen, "Neural Networks and Deep Learning", Determina<on Press, 2015 This work is licensed under a Crea<ve Commons AEribu<on-NonCommercial 3.0 Unported License. Tokyo.R #53@渋谷ファーストプレイス, TwiEer: @siero5335
2.
自己紹介 TwiEer ID: @siero5335 仕事: 化学物質曝露影響の解析 化学分析法の開発 専門: 環境化学、分析化学 興味: 生理活性物質の一斉分析
関連分野へのデータ解析応用 hoxo-m 2
3.
MXNet ? みんな大好きdmlc製のDeep learning用ライブラリ いろんな言語に対応, GPUも利用可 早い(らしい) 引用: hEps://github.com/dmlc/mxnet R-packageについてのドキュメントは最近移動した模様 hEp://mxnet.readthedocs.org/en/latest/packages/r/index.html
4.
hEp://tjo.hatenablog.com/entry/2016/03/29/180000 hEp://keiku.hatenablog.jp/entry/2016/03/31/172456 MXNetについての記事が続々と 畳み込みニューラルネットやKaggle Dataを使った実践など
5.
hEp://tjo.hatenablog.com/entry/2016/03/29/180000 hEp://keiku.hatenablog.jp/entry/2016/03/31/172456 MXNetについての記事が続々と 畳み込みニューラルネットやKaggle Dataを使った実践など 上記は判別の話だが自分がよく使うのは回帰なので調べてみた
6.
MXNetの線形回帰: データ読み込み・定義 library(mlbench) library(mxnet) #データ分割・読み込み data(BostonHousing, package="mlbench") train.ind = seq(1, 506, 3) train.x = data.matrix(BostonHousing[train.ind, -14]) train.y = BostonHousing[train.ind, 14] test.x = data.matrix(BostonHousing[-train.ind, -14]) test.y = BostonHousing[-train.ind, 14] # 入力データの定義 data <- mx.symbol.Variable("data”) 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
7.
#結合形式, data設定, 隠れ層の数指定 fc1 <- mx.symbol.FullyConnected(data, num_hidden=1) # 出力層を線形回帰に指定 lro <- mx.symbol.LinearRegressionOutput(fc1) mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) # testデータへの当てはめ preds1 = predict(model1, test.x) # RMSE算出 sqrt(mean((preds1-test.y)^2)) # モデルの図示 graph.viz(model1$symbol$as.json()) MXNetの線形回帰: パラメータ設定・結果確認1 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
8.
#結合形式, data設定, 隠れ層のユニット数指定 fc1 <- mx.symbol.FullyConnected(data, num_hidden=1) # 出力層を線形回帰に指定 lro <- mx.symbol.LinearRegressionOutput(fc1) mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) # testデータへの当てはめ preds1 = predict(model1, test.x) # RMSE算出 sqrt(mean((preds1-test.y)^2)) # モデルの図示 graph.viz(model1$symbol$as.json()) MXNetの線形回帰: パラメータ設定・結果確認2 回帰分析の場合、出力層直前の 隠れ層のユニット数は1でないとだめ 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
9.
#結合形式, data設定, 隠れ層のユニット数指定 fc1 <- mx.symbol.FullyConnected(data, num_hidden=1) # 出力層を線形回帰に指定 lro <- mx.symbol.LinearRegressionOutput(fc1) mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) # testデータへの当てはめ preds1 = predict(model1, test.x) # RMSE算出 sqrt(mean((preds1-test.y)^2)) # モデルの図示 graph.viz(model1$symbol$as.json()) MXNetの線形回帰: パラメータ設定・結果確認3 この他に mx.symbol.MAERegressionOutput mx.symbol.Logis<cRegressionOutput が関数として用意されている。 回帰分析の場合、出力層直前の 隠れ層のユニット数は1でないとだめ 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
10.
#結合形式, data設定, 隠れ層のユニット数指定 fc1 <- mx.symbol.FullyConnected(data, num_hidden=1) # 出力層を線形回帰に指定 lro <- mx.symbol.LinearRegressionOutput(fc1) mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) # testデータへの当てはめ preds1 = predict(model1, test.x) # RMSE算出 sqrt(mean((preds1-test.y)^2)) # モデルの図示 graph.viz(model1$symbol$as.json()) MXNetの線形回帰: パラメータ設定・結果確認4 パラメータの設定 この他に mx.symbol.MAERegressionOutput mx.symbol.Logis<cRegressionOutput が関数として用意されている。 回帰分析の場合、出力層直前の 隠れ層のユニット数は1でないとだめ 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
11.
#結合形式, data設定, 隠れ層のユニット数指定 fc1 <- mx.symbol.FullyConnected(data, num_hidden=1) # 出力層を線形回帰に指定 lro <- mx.symbol.LinearRegressionOutput(fc1) mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) # testデータへの当てはめ preds1 = predict(model1, test.x) # RMSE算出 sqrt(mean((preds1-test.y)^2)) # モデルの図示 graph.viz(model1$symbol$as.json()) MXNetの線形回帰: パラメータ設定・結果確認5 パラメータの設定 この他に mx.symbol.MAERegressionOutput mx.symbol.Logis<cRegressionOutput が関数として用意されている。 回帰分析の場合、出力層直前の 隠れ層のユニット数は1でないとだめ 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
12.
mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) Start training with 1 devices [1] Train-rmse=16.0632830097341 [2] Train-rmse=12.2792378026774 [3] Train-rmse=11.1984627690848 [4] Train-rmse=10.2645244456113 [5] Train-rmse=9.49711029707845 ・・・ [50] Train-rmse=8.24580523984314 MXNetの線形回帰: 実行結果 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
13.
mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) Start training with 1 devices [1] Train-rmse=16.0632830097341 [2] Train-rmse=12.2792378026774 [3] Train-rmse=11.1984627690848 [4] Train-rmse=10.2645244456113 [5] Train-rmse=9.49711029707845 ・・・ [50] Train-rmse=8.24580523984314 # RMSE算出 sqrt(mean((preds1-test.y)^2)) [1] 7.800502 MXNetの線形回帰: 実行結果 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
14.
mx.set.seed(0) model1 <- mx.model.FeedForward.create(lro, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) Start training with 1 devices [1] Train-rmse=16.0632830097341 [2] Train-rmse=12.2792378026774 [3] Train-rmse=11.1984627690848 [4] Train-rmse=10.2645244456113 [5] Train-rmse=9.49711029707845 ・・・ [50] Train-rmse=8.24580523984314 # RMSE算出 sqrt(mean((preds1-test.y)^2)) [1] 7.800502 MXNetの線形回帰: 実行結果 参照: “Neural Network with MXNet in Five Minutes” hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html # モデルの図示 graph.viz(model1$symbol$as.json())
15.
MXNetの線形回帰 + 深層ニューラルネットの場合 # 結合形式, data設定, 隠れ層の数指定 fc1 <- mx.symbol.FullyConnected(data, name="fc1", num_hidden=128) act1 <- mx.symbol.Ac<va<on(fc1, name="relu1", act_type="relu") drop1 <- mx.symbol.Dropout(act1, p = 0.5, name="drop1") fc2 <- mx.symbol.FullyConnected(drop1, name="fc2", num_hidden=64) act2 <- mx.symbol.Ac<va<on(fc2, name="relu2", act_type="relu") drop2 <- mx.symbol.Dropout(act2, p = 0.5, name="drop2") fc3 <- mx.symbol.FullyConnected(drop2, name="fc3", num_hidden=1) # 出力層を線形回帰に指定 lro2 <- mx.symbol.LinearRegressionOutput(fc3)
16.
mx.set.seed(0) model2 <- mx.model.FeedForward.create(lro2, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) Start training with 1 devices [1] Train-rmse=24.2765298493927 [2] Train-rmse=24.2690448139394 [3] Train-rmse=24.2609693838471 [4] Train-rmse=24.2502836327908 [5] Train-rmse=24.2384326028005 ・・・ [50] Train-rmse=10.7532270057404 # RMSE算出 sqrt(mean((preds2-test.y)^2)) [1] 8.511512 MXNetの線形回帰+ 深層ニューラルネット: 結果
17.
mx.set.seed(0) model2 <- mx.model.FeedForward.create(lro2, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) Start training with 1 devices [1] Train-rmse=24.2765298493927 [2] Train-rmse=24.2690448139394 [3] Train-rmse=24.2609693838471 [4] Train-rmse=24.2502836327908 [5] Train-rmse=24.2384326028005 ・・・ [50] Train-rmse=10.7532270057404 # RMSE算出 sqrt(mean((preds2-test.y)^2)) [1] 8.511512 MXNetの線形回帰+ 深層ニューラルネット: 結果 # モデルの図示 graph.viz(model2$symbol$as.json()) ちゃんとDeepになってる →
18.
mx.set.seed(0) model2 <- mx.model.FeedForward.create(lro2, X=train.x, y=train.y, ctx=mx.cpu(), num.round=50, array.batch.size=20, learning.rate=2e-6, momentum=0.9, eval.metric=mx.metric.rmse) Start training with 1 devices [1] Train-rmse=24.2765298493927 [2] Train-rmse=24.2690448139394 [3] Train-rmse=24.2609693838471 [4] Train-rmse=24.2502836327908 [5] Train-rmse=24.2384326028005 ・・・ [50] Train-rmse=10.7532270057404 # Model2のRMSE [1] 8.511512 # Model1のRMSE [1] 7.800502 MXNetの線形回帰+ 深層ニューラルネット: 結果 # モデルの図示 graph.viz(model2$symbol$as.json()) ちゃんとDeepになってる → Deepにしたらこの条件では性能が落ちてる… 安易に深くすりゃ良いわけではない ちゃんとしたチューニングや使い分けが必要
19.
Enjoy !
Télécharger maintenant