SlideShare une entreprise Scribd logo
1  sur  19
Télécharger pour lire hors ligne
MXNetで回帰	
Michael	A.	Nielsen,	"Neural	Networks	and	Deep	Learning",	Determina<on	Press,	2015		
This	work	is	licensed	under	a	Crea<ve	Commons	AEribu<on-NonCommercial	3.0	Unported	License.	
	
Tokyo.R	#53@渋谷ファーストプレイス,	TwiEer:	@siero5335
自己紹介
TwiEer	ID:	@siero5335	
	
仕事:	化学物質曝露影響の解析	
   化学分析法の開発	
   専門:	環境化学、分析化学	
	
興味:	生理活性物質の一斉分析	
   関連分野へのデータ解析応用	
											hoxo-m	
2
MXNet	?	
みんな大好きdmlc製のDeep	learning用ライブラリ	
	
いろんな言語に対応,	GPUも利用可	
	
早い(らしい)	
	
引用:	hEps://github.com/dmlc/mxnet	
R-packageについてのドキュメントは最近移動した模様	
hEp://mxnet.readthedocs.org/en/latest/packages/r/index.html
hEp://tjo.hatenablog.com/entry/2016/03/29/180000	
hEp://keiku.hatenablog.jp/entry/2016/03/31/172456	
	MXNetについての記事が続々と	
畳み込みニューラルネットやKaggle	Dataを使った実践など
hEp://tjo.hatenablog.com/entry/2016/03/29/180000	
hEp://keiku.hatenablog.jp/entry/2016/03/31/172456	
	MXNetについての記事が続々と	
畳み込みニューラルネットやKaggle	Dataを使った実践など	
	
上記は判別の話だが自分がよく使うのは回帰なので調べてみた
MXNetの線形回帰:	データ読み込み・定義	
library(mlbench)	
library(mxnet)	
	
#データ分割・読み込み	
data(BostonHousing,	package="mlbench")	
	
train.ind	=	seq(1,	506,	3)	
train.x	=	data.matrix(BostonHousing[train.ind,	-14])	
train.y	=	BostonHousing[train.ind,	14]	
test.x	=	data.matrix(BostonHousing[-train.ind,	-14])	
test.y	=	BostonHousing[-train.ind,	14]	
	
#	入力データの定義	
data	<-	mx.symbol.Variable("data”)	
	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
#結合形式,	data設定,	隠れ層の数指定	
fc1	<-	mx.symbol.FullyConnected(data,	num_hidden=1)	
	
#	出力層を線形回帰に指定	
lro	<-	mx.symbol.LinearRegressionOutput(fc1)	
	
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
#	testデータへの当てはめ	
preds1	=	predict(model1,	test.x)	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
	
#	モデルの図示	
graph.viz(model1$symbol$as.json())	
	MXNetの線形回帰:	パラメータ設定・結果確認1	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
#結合形式,	data設定,	隠れ層のユニット数指定	
fc1	<-	mx.symbol.FullyConnected(data,	num_hidden=1)	
	
#	出力層を線形回帰に指定	
lro	<-	mx.symbol.LinearRegressionOutput(fc1)	
	
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
#	testデータへの当てはめ	
preds1	=	predict(model1,	test.x)	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
	
#	モデルの図示	
graph.viz(model1$symbol$as.json())	
	MXNetの線形回帰:	パラメータ設定・結果確認2	
回帰分析の場合、出力層直前の	
隠れ層のユニット数は1でないとだめ	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
#結合形式,	data設定,	隠れ層のユニット数指定	
fc1	<-	mx.symbol.FullyConnected(data,	num_hidden=1)	
	
#	出力層を線形回帰に指定	
lro	<-	mx.symbol.LinearRegressionOutput(fc1)	
	
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
#	testデータへの当てはめ	
preds1	=	predict(model1,	test.x)	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
	
#	モデルの図示	
graph.viz(model1$symbol$as.json())	
	MXNetの線形回帰:	パラメータ設定・結果確認3	
この他に	
mx.symbol.MAERegressionOutput	
mx.symbol.Logis<cRegressionOutput	
が関数として用意されている。	
回帰分析の場合、出力層直前の	
隠れ層のユニット数は1でないとだめ	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
#結合形式,	data設定,	隠れ層のユニット数指定	
fc1	<-	mx.symbol.FullyConnected(data,	num_hidden=1)	
	
#	出力層を線形回帰に指定	
lro	<-	mx.symbol.LinearRegressionOutput(fc1)	
	
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
#	testデータへの当てはめ	
preds1	=	predict(model1,	test.x)	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
	
#	モデルの図示	
graph.viz(model1$symbol$as.json())	
	MXNetの線形回帰:	パラメータ設定・結果確認4	
パラメータの設定	
この他に	
mx.symbol.MAERegressionOutput	
mx.symbol.Logis<cRegressionOutput	
が関数として用意されている。	
回帰分析の場合、出力層直前の	
隠れ層のユニット数は1でないとだめ	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
#結合形式,	data設定,	隠れ層のユニット数指定	
fc1	<-	mx.symbol.FullyConnected(data,	num_hidden=1)	
	
#	出力層を線形回帰に指定	
lro	<-	mx.symbol.LinearRegressionOutput(fc1)	
	
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
#	testデータへの当てはめ	
preds1	=	predict(model1,	test.x)	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
	
#	モデルの図示	
graph.viz(model1$symbol$as.json())	
	MXNetの線形回帰:	パラメータ設定・結果確認5	
パラメータの設定	
この他に	
mx.symbol.MAERegressionOutput	
mx.symbol.Logis<cRegressionOutput	
が関数として用意されている。	
回帰分析の場合、出力層直前の	
隠れ層のユニット数は1でないとだめ	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
Start	training	with	1	devices	
[1]	Train-rmse=16.0632830097341	
[2]	Train-rmse=12.2792378026774	
[3]	Train-rmse=11.1984627690848	
[4]	Train-rmse=10.2645244456113	
[5]	Train-rmse=9.49711029707845	
・・・	
[50]	Train-rmse=8.24580523984314	
	
	MXNetの線形回帰:	実行結果	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
Start	training	with	1	devices	
[1]	Train-rmse=16.0632830097341	
[2]	Train-rmse=12.2792378026774	
[3]	Train-rmse=11.1984627690848	
[4]	Train-rmse=10.2645244456113	
[5]	Train-rmse=9.49711029707845	
・・・	
[50]	Train-rmse=8.24580523984314	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
[1]	7.800502	
	MXNetの線形回帰:	実行結果	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html
mx.set.seed(0)	
model1	<-	mx.model.FeedForward.create(lro,	X=train.x,	y=train.y,	
																																					ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																					learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
Start	training	with	1	devices	
[1]	Train-rmse=16.0632830097341	
[2]	Train-rmse=12.2792378026774	
[3]	Train-rmse=11.1984627690848	
[4]	Train-rmse=10.2645244456113	
[5]	Train-rmse=9.49711029707845	
・・・	
[50]	Train-rmse=8.24580523984314	
	
#	RMSE算出	
sqrt(mean((preds1-test.y)^2))	
[1]	7.800502	
	MXNetの線形回帰:	実行結果	
参照:	“Neural	Network	with	MXNet	in	Five	Minutes”	
hEp://mxnet.readthedocs.org/en/latest/packages/r/fiveMinutesNeuralNetwork.html	
#	モデルの図示	
graph.viz(model1$symbol$as.json())
MXNetの線形回帰	+	深層ニューラルネットの場合	
#	結合形式,	data設定,	隠れ層の数指定	
fc1	<-	mx.symbol.FullyConnected(data,	name="fc1",	num_hidden=128)	
act1	<-	mx.symbol.Ac<va<on(fc1,	name="relu1",	act_type="relu")	
drop1	<-	mx.symbol.Dropout(act1,	p	=	0.5,	name="drop1")	
	
fc2	<-	mx.symbol.FullyConnected(drop1,	name="fc2",	num_hidden=64)	
act2	<-	mx.symbol.Ac<va<on(fc2,	name="relu2",	act_type="relu")	
drop2	<-	mx.symbol.Dropout(act2,	p	=	0.5,	name="drop2")	
	
fc3	<-	mx.symbol.FullyConnected(drop2,	name="fc3",	num_hidden=1)	
	
#	出力層を線形回帰に指定	
lro2	<-	mx.symbol.LinearRegressionOutput(fc3)
mx.set.seed(0)	
model2	<-	mx.model.FeedForward.create(lro2,	X=train.x,	y=train.y,	
																																						ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																						learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
Start	training	with	1	devices	
[1]	Train-rmse=24.2765298493927	
[2]	Train-rmse=24.2690448139394	
[3]	Train-rmse=24.2609693838471	
[4]	Train-rmse=24.2502836327908	
[5]	Train-rmse=24.2384326028005	
・・・	
[50]	Train-rmse=10.7532270057404	
	
#	RMSE算出	
sqrt(mean((preds2-test.y)^2))	
[1]	8.511512	
	MXNetの線形回帰+	深層ニューラルネット:	結果
mx.set.seed(0)	
model2	<-	mx.model.FeedForward.create(lro2,	X=train.x,	y=train.y,	
																																						ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																						learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
Start	training	with	1	devices	
[1]	Train-rmse=24.2765298493927	
[2]	Train-rmse=24.2690448139394	
[3]	Train-rmse=24.2609693838471	
[4]	Train-rmse=24.2502836327908	
[5]	Train-rmse=24.2384326028005	
・・・	
[50]	Train-rmse=10.7532270057404	
	
#	RMSE算出	
sqrt(mean((preds2-test.y)^2))	
[1]	8.511512	
	MXNetの線形回帰+	深層ニューラルネット:	結果	
#	モデルの図示	
graph.viz(model2$symbol$as.json())	
	
																					ちゃんとDeepになってる →
mx.set.seed(0)	
model2	<-	mx.model.FeedForward.create(lro2,	X=train.x,	y=train.y,	
																																						ctx=mx.cpu(),	num.round=50,	array.batch.size=20,	
																																						learning.rate=2e-6,	momentum=0.9,	eval.metric=mx.metric.rmse)	
	
Start	training	with	1	devices	
[1]	Train-rmse=24.2765298493927	
[2]	Train-rmse=24.2690448139394	
[3]	Train-rmse=24.2609693838471	
[4]	Train-rmse=24.2502836327908	
[5]	Train-rmse=24.2384326028005	
・・・	
[50]	Train-rmse=10.7532270057404	
	
#	Model2のRMSE	
	[1]	8.511512	
	
#	Model1のRMSE	
[1]	7.800502	
	MXNetの線形回帰+	深層ニューラルネット:	結果	
#	モデルの図示	
graph.viz(model2$symbol$as.json())	
	
																					ちゃんとDeepになってる →	
Deepにしたらこの条件では性能が落ちてる…	
安易に深くすりゃ良いわけではない	
ちゃんとしたチューニングや使い分けが必要
Enjoy	!

Contenu connexe

En vedette

R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42Atsushi Hayakawa
 
R を起動するその前に
R を起動するその前にR を起動するその前に
R を起動するその前にKosei ABE
 
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリデータサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリSatoshi Kitajima
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1Nagi Teramo
 
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LTRで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LTToru Imai
 
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?最強のハードディスクはどれだ?
最強のハードディスクはどれだ?Atsushi Hayakawa
 
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)yutannihilation
 
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Yohei Sato
 
Tokyor42 ggplot2
Tokyor42 ggplot2Tokyor42 ggplot2
Tokyor42 ggplot2Yohei Sato
 
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -Yohei Sato
 
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法Nagi Teramo
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてHiroshi Shimizu
 

En vedette (18)

R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
 
R を起動するその前に
R を起動するその前にR を起動するその前に
R を起動するその前に
 
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリデータサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
 
TokyoR42_around_chaining
TokyoR42_around_chainingTokyoR42_around_chaining
TokyoR42_around_chaining
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
 
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LTRで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
 
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
 
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
 
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
 
Tokyor42 ggplot2
Tokyor42 ggplot2Tokyor42 ggplot2
Tokyor42 ggplot2
 
Tokyo r33 beginner
Tokyo r33 beginnerTokyo r33 beginner
Tokyo r33 beginner
 
Tokyo r30 anova
Tokyo r30 anovaTokyo r30 anova
Tokyo r30 anova
 
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
 
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
 
Tokyo r30 beginner
Tokyo r30 beginnerTokyo r30 beginner
Tokyo r30 beginner
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
はじめての「R」
はじめての「R」はじめての「R」
はじめての「R」
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 

Plus de Akifumi Eguchi

PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73Akifumi Eguchi
 
High-order factorization machines with R #tokyor 61
High-order factorization machines with R  #tokyor 61High-order factorization machines with R  #tokyor 61
High-order factorization machines with R #tokyor 61Akifumi Eguchi
 
Randomforestで高次元の変数重要度を見る #japanr LT
 Randomforestで高次元の変数重要度を見る #japanr LT Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LTAkifumi Eguchi
 
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本Akifumi Eguchi
 
環境化学データ解析入門: 愛媛大講演資料 160728
環境化学データ解析入門: 愛媛大講演資料 160728環境化学データ解析入門: 愛媛大講演資料 160728
環境化学データ解析入門: 愛媛大講演資料 160728Akifumi Eguchi
 
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
統計的学習の基礎, 副読本紹介: An Introduction to Statistical LearningAkifumi Eguchi
 
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測Akifumi Eguchi
 
ぞくパタ最終回: 13章「共クラスタリング」
ぞくパタ最終回: 13章「共クラスタリング」ぞくパタ最終回: 13章「共クラスタリング」
ぞくパタ最終回: 13章「共クラスタリング」Akifumi Eguchi
 
Deep learningもくもくハッカソンまとめup用
Deep learningもくもくハッカソンまとめup用Deep learningもくもくハッカソンまとめup用
Deep learningもくもくハッカソンまとめup用Akifumi Eguchi
 
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"Akifumi Eguchi
 
第2回ぞくパタ
第2回ぞくパタ第2回ぞくパタ
第2回ぞくパタAkifumi Eguchi
 
第一回ぞくパタ
第一回ぞくパタ第一回ぞくパタ
第一回ぞくパタAkifumi Eguchi
 
ぞくパタ はじめに
ぞくパタ はじめにぞくパタ はじめに
ぞくパタ はじめにAkifumi Eguchi
 
みどりぼん9章前半
みどりぼん9章前半みどりぼん9章前半
みどりぼん9章前半Akifumi Eguchi
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半Akifumi Eguchi
 

Plus de Akifumi Eguchi (19)

PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73PlaidML Kerasでやっていく #TokyoR 73
PlaidML Kerasでやっていく #TokyoR 73
 
High-order factorization machines with R #tokyor 61
High-order factorization machines with R  #tokyor 61High-order factorization machines with R  #tokyor 61
High-order factorization machines with R #tokyor 61
 
Randomforestで高次元の変数重要度を見る #japanr LT
 Randomforestで高次元の変数重要度を見る #japanr LT Randomforestで高次元の変数重要度を見る #japanr LT
Randomforestで高次元の変数重要度を見る #japanr LT
 
統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本統計的学習の基礎6章前半 #カステラ本
統計的学習の基礎6章前半 #カステラ本
 
Dslt祭り2夜
Dslt祭り2夜Dslt祭り2夜
Dslt祭り2夜
 
環境化学データ解析入門: 愛媛大講演資料 160728
環境化学データ解析入門: 愛媛大講演資料 160728環境化学データ解析入門: 愛媛大講演資料 160728
環境化学データ解析入門: 愛媛大講演資料 160728
 
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
 
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
 
ぞくパタ最終回: 13章「共クラスタリング」
ぞくパタ最終回: 13章「共クラスタリング」ぞくパタ最終回: 13章「共クラスタリング」
ぞくパタ最終回: 13章「共クラスタリング」
 
Deep learningもくもくハッカソンまとめup用
Deep learningもくもくハッカソンまとめup用Deep learningもくもくハッカソンまとめup用
Deep learningもくもくハッカソンまとめup用
 
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
 
第2回ぞくパタ
第2回ぞくパタ第2回ぞくパタ
第2回ぞくパタ
 
第一回ぞくパタ
第一回ぞくパタ第一回ぞくパタ
第一回ぞくパタ
 
ぞくパタ はじめに
ぞくパタ はじめにぞくパタ はじめに
ぞくパタ はじめに
 
Tokyo.r #44 lt.pptx
Tokyo.r #44 lt.pptxTokyo.r #44 lt.pptx
Tokyo.r #44 lt.pptx
 
Tokyo r #43
Tokyo r #43Tokyo r #43
Tokyo r #43
 
みどりぼん9章前半
みどりぼん9章前半みどりぼん9章前半
みどりぼん9章前半
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半
 
Tokyo R #39
Tokyo R #39Tokyo R #39
Tokyo R #39
 

Mxnetで回帰 #TokyoR 53th