SlideShare une entreprise Scribd logo
1  sur  28
Télécharger pour lire hors ligne
による分類木 入門
による分類木 入門
※いろいろなサイト・本を
 自分なりにまとめてみました。
What’s classification tree?
•  結果を分類するためにそのほかの値を見比べ、
最もきれいに2分割できる条件を探していく手
法
•  分岐の過程を図示することができるため,  
分析結果の可読性が高い
•  分類木と回帰木がある
3
生成・生長 剪定
枝を伸ばす いらない枝を切り落とす
What’s classification tree?
生成・生長 剪定
枝を伸ばす いらない枝を切り落とす
What’s classification tree?
Example…
商品を サイズ 色 見た回数
買った M 普通 10
買った L 好き 5
買わない M 嫌い 3
買った M 好き 6
買わない L 好き 3
買わない M 普通 10
買わない M 嫌い 4
買った L 好き 6
目的変数がカテゴリカル(質的)な場合
6
Example…
生成・生長
7
・今回はCART(Classification And Regression Trees)という
 目的変数を2つの集合に分岐させる方法を紹介する
・具体的にはジニ係数(GI : Gini index)やエントロピー(entropy)
               という分類の不純度を計算する
How to classify.
8
Example…
商品を サイズ 色 見た回数
買った M 普通 10
買った L 好き 5
買わない M 嫌い 3
買った M 好き 6
買わない L 好き 3
買わない M 普通 10
買わない M 嫌い 4
買った L 好き 6
目的変数がカテゴリカル(質的)な場合
10
ex.)
M L 好き 普通・嫌い
色
4.5 <4.5
見た回数
ジニ係数(不純度)の一番低い分岐点を採用
データ
  買った
  買わない
説明変数
サイズ
ジニ係数
0.48 0.375 0.375 0.32 0.00.44
0.465 0.375 0.2
加重平均 加重平均 加重平均
11
生成・生長 剪定
枝を伸ばす いらない枝を切り落とす
What’s classification tree?
つまり
っていう枝を探すってこと
交差検証法(cross validation)
How to prune?
⑴データをテストデータと	
  
  トレーニングデータに分ける	
  
⑵トレーニングデータだけで	
  
  モデルをつくる	
  
⑶できたモデルとテストデータを比較し、
答え合わせをして、精度を求める	
  
⑷⑴〜⑶をn回繰り返し、平均する	
  
14
交差検証法(cross validation)
How to prune?
⑴データをテストデータと	
  
  トレーニングデータに分ける	
  
⑵トレーニングデータだけで	
  
  モデルをつくる	
  
⑶できたモデルとテストデータを比較し、
答え合わせをして、精度を求める	
  
⑷⑴〜⑶をn回繰り返し、平均する	
  
これを各ノードで行い、
制度の低いところを剪定する
15
Demonstration
with
16
①
③②
⑥ ⑦
⑫ ⑬
>	
  library(mvpart)	
  
>	
  #	
  決定木のplot	
  
>	
  iris.rp	
  <-­‐	
  rpart(Species~.,	
  data=iris)	
  
>	
  iris.rp	
  
n=	
  150	
  	
  
	
  
node),	
  split,	
  n,	
  loss,	
  yval,	
  (yprob)	
  
	
  	
  	
  	
  	
  	
  *	
  denotes	
  terminal	
  node	
  
	
  
	
  1)	
  root	
  150	
  100	
  setosa	
  (0.33333333	
  0.33333333	
  0.33333333)	
  	
  	
  
	
  	
  	
  2)	
  Petal.Length<	
  2.45	
  50	
  	
  	
  0	
  setosa	
  (1.00000000	
  0.00000000	
  0.00000000)	
  *	
  
	
  	
  	
  3)	
  Petal.Length>=2.45	
  100	
  	
  50	
  versicolor	
  (0.00000000	
  0.50000000	
  0.50000000)	
  	
  	
  
	
  	
  	
  	
  	
  6)	
  Petal.Width<	
  1.75	
  54	
  	
  	
  5	
  versicolor	
  (0.00000000	
  0.90740741	
  0.09259259)	
  	
  	
  
	
  	
  	
  	
  	
  	
  12)	
  Petal.Length<	
  4.95	
  48	
  	
  	
  1	
  versicolor	
  (0.00000000	
  0.97916667	
  0.02083333)	
  *	
  
	
  	
  	
  	
  	
  	
  13)	
  Petal.Length>=4.95	
  6	
  	
  	
  2	
  virginica	
  (0.00000000	
  0.33333333	
  0.66666667)	
  *	
  
	
  	
  	
  	
  	
  7)	
  Petal.Width>=1.75	
  46	
  	
  	
  1	
  virginica	
  (0.00000000	
  0.02173913	
  0.97826087)	
  *	
  
>	
  plot(iris.rp,uniform=T,branch=0.6,margin=0)	
  
>	
  text(iris.rp,uniform=T,use.n=T,all=T)	
  
	
  
剪定前
17
もう少しシンプルにきれいにしたかったら・・・
>	
  library(partykit)	
  
>	
  plot(as.party(iris.rp),uniform=T,branch=0.6,margin=0.5)
18
過学習してないか調べる
>	
  printcp(iris.rp)	
  
	
  
Classification	
  tree:	
  
rpart(formula	
  =	
  Species	
  ~	
  .,	
  data	
  =	
  
iris)	
  
	
  
Variables	
  actually	
  used	
  in	
  tree	
  
construction:	
  
[1]	
  Petal.Length	
  Petal.Width	
  	
  
	
  
Root	
  node	
  error:	
  100/150	
  =	
  0.66667	
  
	
  
n=	
  150	
  	
  
	
  
	
  	
  	
  	
  CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
>	
  plotcp(iris.rp)
19
過学習してないか調べる
>	
  printcp(iris.rp)	
  
	
  
Classification	
  tree:	
  
rpart(formula	
  =	
  Species	
  ~	
  .,	
  data	
  =	
  
iris)	
  
	
  
Variables	
  actually	
  used	
  in	
  tree	
  
construction:	
  
[1]	
  Petal.Length	
  Petal.Width	
  	
  
	
  
Root	
  node	
  error:	
  100/150	
  =	
  0.66667	
  
	
  
n=	
  150	
  	
  
	
  
	
  	
  	
  	
  CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
>	
  plotcp(iris.rp)
20
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
21
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
22
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
23
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
どちらかの
値で剪定
24
①
③②
⑥ ⑦>	
  iris.rp2_1	
  <-­‐	
  prune(iris.rp,cp=0.02)	
  
>	
  iris.rp2_1	
  
n=	
  150	
  	
  
	
  
node),	
  split,	
  n,	
  loss,	
  yval,	
  (yprob)	
  
	
  	
  	
  	
  	
  	
  *	
  denotes	
  terminal	
  node	
  
	
  
1)	
  root	
  150	
  100	
  setosa	
  (0.33333333	
  0.33333333	
  0.33333333)	
  	
  	
  
	
  	
  2)	
  Petal.Length<	
  2.45	
  50	
  	
  	
  0	
  setosa	
  (1.00000000	
  0.00000000	
  0.00000000)	
  *	
  
	
  	
  3)	
  Petal.Length>=2.45	
  100	
  	
  50	
  versicolor	
  (0.00000000	
  0.50000000	
  0.50000000)	
  	
  	
  
	
  	
  	
  	
  6)	
  Petal.Width<	
  1.75	
  54	
  	
  	
  5	
  versicolor	
  (0.00000000	
  0.90740741	
  0.09259259)	
  *	
  
	
  	
  	
  	
  7)	
  Petal.Width>=1.75	
  46	
  	
  	
  1	
  virginica	
  (0.00000000	
  0.02173913	
  0.97826087)	
  *	
  
>	
  plot(iris.rp2_1,uniform=T,branch=0.6,margin=0)	
  
>	
  text(iris.rp2_1,uniform=T,use.n=T,all=T)	
  
剪定後
25
①
③②
⑥ ⑦>	
  iris.rp2_2	
  <-­‐	
  prune(iris.rp,cp=0.094)	
  
>	
  iris.rp2_2	
  
n=	
  150	
  	
  
	
  
node),	
  split,	
  n,	
  loss,	
  yval,	
  (yprob)	
  
	
  	
  	
  	
  	
  	
  *	
  denotes	
  terminal	
  node	
  
	
  
1)	
  root	
  150	
  100	
  setosa	
  (0.33333333	
  0.33333333	
  0.33333333)	
  	
  	
  
	
  	
  2)	
  Petal.Length<	
  2.45	
  50	
  	
  	
  0	
  setosa	
  (1.00000000	
  0.00000000	
  0.00000000)	
  *	
  
	
  	
  3)	
  Petal.Length>=2.45	
  100	
  	
  50	
  versicolor	
  (0.00000000	
  0.50000000	
  0.50000000)	
  	
  	
  
	
  	
  	
  	
  6)	
  Petal.Width<	
  1.75	
  54	
  	
  	
  5	
  versicolor	
  (0.00000000	
  0.90740741	
  0.09259259)	
  *	
  
	
  	
  	
  	
  7)	
  Petal.Width>=1.75	
  46	
  	
  	
  1	
  virginica	
  (0.00000000	
  0.02173913	
  0.97826087)	
  *	
  
>	
  plot(iris.rp2_2,uniform=T,branch=0.6,margin=0)	
  
>	
  text(iris.rp2_2,uniform=T,use.n=T,all=T)	
  
剪定後
26
上と下の剪定基準値の間に両方あるから
結局、結果は同じ・・・
27※詳細はよくわかりません m(_ _)m
分類木の精度を測りたいなら・・・
28
最後に
>	
  iris.tre	
  <-­‐	
  iris[2*(1:75)-­‐1,]	
  #	
  奇数行	
  
>	
  iris.test	
  <-­‐	
  iris[-­‐(2*(1:75)-­‐1),]	
  #	
  偶数行	
  
#	
  奇数行だけで分類木の生成	
  
>	
  iris.tre	
  <-­‐	
  rpart(Species~.,	
  data=iris.tre,method="class")	
  
>	
  pred	
  <-­‐	
  predict(iris.tre,	
  iris.test,	
  type="class")	
  
#	
  偶数行でテストしてみる	
  
>	
  table(pred,	
  iris.test$Species)	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  
pred	
  	
  	
  	
  	
  	
  	
  	
  	
  setosa	
  versicolor	
  virginica	
  
	
  	
  setosa	
  	
  	
  	
  	
  	
  	
  	
  	
  25	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  	
  	
  	
  0	
  
	
  	
  versicolor	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  	
  	
  	
  24	
  	
  	
  	
  	
  	
  	
  	
  	
  3	
  
	
  	
  virginica	
  	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  	
  	
  22	
  

Contenu connexe

Tendances

2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
入門 異常検知 -これを読めば異常検知がわかる-
入門 異常検知 -これを読めば異常検知がわかる-入門 異常検知 -これを読めば異常検知がわかる-
入門 異常検知 -これを読めば異常検知がわかる-Natsuki Hirota
 
岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02goony0101
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来Preferred Networks
 
多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料Tomoshige Nakamura
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-Tomoshige Nakamura
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析logics-of-blue
 
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)Mizumoto Atsushi
 
Nagoya.R #12 非線形の相関関係を検出する指標の算出
Nagoya.R #12 非線形の相関関係を検出する指標の算出Nagoya.R #12 非線形の相関関係を検出する指標の算出
Nagoya.R #12 非線形の相関関係を検出する指標の算出Yusaku Kawaguchi
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半Akifumi Eguchi
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)Shuyo Nakatani
 
Convolutionl Neural Network 入門
Convolutionl Neural Network 入門Convolutionl Neural Network 入門
Convolutionl Neural Network 入門maruyama097
 
Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定Hiroki Matsui
 
バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析sesejun
 

Tendances (20)

2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
入門 異常検知 -これを読めば異常検知がわかる-
入門 異常検知 -これを読めば異常検知がわかる-入門 異常検知 -これを読めば異常検知がわかる-
入門 異常検知 -これを読めば異常検知がわかる-
 
岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
 
多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析
 
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)
 
Nagoya.R #12 非線形の相関関係を検出する指標の算出
Nagoya.R #12 非線形の相関関係を検出する指標の算出Nagoya.R #12 非線形の相関関係を検出する指標の算出
Nagoya.R #12 非線形の相関関係を検出する指標の算出
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
 
Convolutionl Neural Network 入門
Convolutionl Neural Network 入門Convolutionl Neural Network 入門
Convolutionl Neural Network 入門
 
Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定
 
バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析
 

Similaire à Rによる分類木 入門

【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しようUnity Technologies Japan K.K.
 
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」de:code 2017
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
CRC-32
CRC-32CRC-32
CRC-327shi
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333Issei Kurahashi
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理cltt2tarumi
 
条件分岐とcmovとmaxps
条件分岐とcmovとmaxps条件分岐とcmovとmaxps
条件分岐とcmovとmaxpsMITSUNARI Shigeo
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5KazuhiroSato8
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Nagi Teramo
 
「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーター「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーターJun Umezawa
 
Lotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and TechniquesLotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and TechniquesHiroaki Komine
 
入門機械学習読書会9章
入門機械学習読書会9章入門機械学習読書会9章
入門機械学習読書会9章Kazufumi Ohkawa
 
テーマ「最適化」
テーマ「最適化」テーマ「最適化」
テーマ「最適化」technocat
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2hirokazutanaka
 

Similaire à Rによる分類木 入門 (20)

Listを串刺し
Listを串刺しListを串刺し
Listを串刺し
 
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
 
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
 
20140920 tokyo r43
20140920 tokyo r4320140920 tokyo r43
20140920 tokyo r43
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
CRC-32
CRC-32CRC-32
CRC-32
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333
 
R_note_02_ver1.0
R_note_02_ver1.0R_note_02_ver1.0
R_note_02_ver1.0
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
 
Bee Style:vol.039
Bee Style:vol.039Bee Style:vol.039
Bee Style:vol.039
 
条件分岐とcmovとmaxps
条件分岐とcmovとmaxps条件分岐とcmovとmaxps
条件分岐とcmovとmaxps
 
LLVM最適化のこつ
LLVM最適化のこつLLVM最適化のこつ
LLVM最適化のこつ
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
 
CheckMATE 実習
CheckMATE 実習CheckMATE 実習
CheckMATE 実習
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法
 
「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーター「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーター
 
Lotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and TechniquesLotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and Techniques
 
入門機械学習読書会9章
入門機械学習読書会9章入門機械学習読書会9章
入門機械学習読書会9章
 
テーマ「最適化」
テーマ「最適化」テーマ「最適化」
テーマ「最適化」
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
 

Rによる分類木 入門

  • 3. What’s classification tree? •  結果を分類するためにそのほかの値を見比べ、 最もきれいに2分割できる条件を探していく手 法 •  分岐の過程を図示することができるため,   分析結果の可読性が高い •  分類木と回帰木がある 3
  • 6. Example… 商品を サイズ 色 見た回数 買った M 普通 10 買った L 好き 5 買わない M 嫌い 3 買った M 好き 6 買わない L 好き 3 買わない M 普通 10 買わない M 嫌い 4 買った L 好き 6 目的変数がカテゴリカル(質的)な場合 6
  • 8. ・今回はCART(Classification And Regression Trees)という  目的変数を2つの集合に分岐させる方法を紹介する ・具体的にはジニ係数(GI : Gini index)やエントロピー(entropy)                という分類の不純度を計算する How to classify. 8
  • 9.
  • 10. Example… 商品を サイズ 色 見た回数 買った M 普通 10 買った L 好き 5 買わない M 嫌い 3 買った M 好き 6 買わない L 好き 3 買わない M 普通 10 買わない M 嫌い 4 買った L 好き 6 目的変数がカテゴリカル(質的)な場合 10
  • 11. ex.) M L 好き 普通・嫌い 色 4.5 <4.5 見た回数 ジニ係数(不純度)の一番低い分岐点を採用 データ   買った   買わない 説明変数 サイズ ジニ係数 0.48 0.375 0.375 0.32 0.00.44 0.465 0.375 0.2 加重平均 加重平均 加重平均 11
  • 14. 交差検証法(cross validation) How to prune? ⑴データをテストデータと     トレーニングデータに分ける   ⑵トレーニングデータだけで     モデルをつくる   ⑶できたモデルとテストデータを比較し、 答え合わせをして、精度を求める   ⑷⑴〜⑶をn回繰り返し、平均する   14
  • 15. 交差検証法(cross validation) How to prune? ⑴データをテストデータと     トレーニングデータに分ける   ⑵トレーニングデータだけで     モデルをつくる   ⑶できたモデルとテストデータを比較し、 答え合わせをして、精度を求める   ⑷⑴〜⑶をn回繰り返し、平均する   これを各ノードで行い、 制度の低いところを剪定する 15
  • 17. ① ③② ⑥ ⑦ ⑫ ⑬ >  library(mvpart)   >  #  決定木のplot   >  iris.rp  <-­‐  rpart(Species~.,  data=iris)   >  iris.rp   n=  150       node),  split,  n,  loss,  yval,  (yprob)              *  denotes  terminal  node      1)  root  150  100  setosa  (0.33333333  0.33333333  0.33333333)            2)  Petal.Length<  2.45  50      0  setosa  (1.00000000  0.00000000  0.00000000)  *        3)  Petal.Length>=2.45  100    50  versicolor  (0.00000000  0.50000000  0.50000000)                6)  Petal.Width<  1.75  54      5  versicolor  (0.00000000  0.90740741  0.09259259)                  12)  Petal.Length<  4.95  48      1  versicolor  (0.00000000  0.97916667  0.02083333)  *              13)  Petal.Length>=4.95  6      2  virginica  (0.00000000  0.33333333  0.66666667)  *            7)  Petal.Width>=1.75  46      1  virginica  (0.00000000  0.02173913  0.97826087)  *   >  plot(iris.rp,uniform=T,branch=0.6,margin=0)   >  text(iris.rp,uniform=T,use.n=T,all=T)     剪定前 17
  • 18. もう少しシンプルにきれいにしたかったら・・・ >  library(partykit)   >  plot(as.party(iris.rp),uniform=T,branch=0.6,margin=0.5) 18
  • 19. 過学習してないか調べる >  printcp(iris.rp)     Classification  tree:   rpart(formula  =  Species  ~  .,  data  =   iris)     Variables  actually  used  in  tree   construction:   [1]  Petal.Length  Petal.Width       Root  node  error:  100/150  =  0.66667     n=  150              CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 >  plotcp(iris.rp) 19
  • 20. 過学習してないか調べる >  printcp(iris.rp)     Classification  tree:   rpart(formula  =  Species  ~  .,  data  =   iris)     Variables  actually  used  in  tree   construction:   [1]  Petal.Length  Petal.Width       Root  node  error:  100/150  =  0.66667     n=  150              CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 >  plotcp(iris.rp) 20
  • 21.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 21
  • 22.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 22
  • 23.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 23
  • 24.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 どちらかの 値で剪定 24
  • 25. ① ③② ⑥ ⑦>  iris.rp2_1  <-­‐  prune(iris.rp,cp=0.02)   >  iris.rp2_1   n=  150       node),  split,  n,  loss,  yval,  (yprob)              *  denotes  terminal  node     1)  root  150  100  setosa  (0.33333333  0.33333333  0.33333333)          2)  Petal.Length<  2.45  50      0  setosa  (1.00000000  0.00000000  0.00000000)  *      3)  Petal.Length>=2.45  100    50  versicolor  (0.00000000  0.50000000  0.50000000)              6)  Petal.Width<  1.75  54      5  versicolor  (0.00000000  0.90740741  0.09259259)  *          7)  Petal.Width>=1.75  46      1  virginica  (0.00000000  0.02173913  0.97826087)  *   >  plot(iris.rp2_1,uniform=T,branch=0.6,margin=0)   >  text(iris.rp2_1,uniform=T,use.n=T,all=T)   剪定後 25
  • 26. ① ③② ⑥ ⑦>  iris.rp2_2  <-­‐  prune(iris.rp,cp=0.094)   >  iris.rp2_2   n=  150       node),  split,  n,  loss,  yval,  (yprob)              *  denotes  terminal  node     1)  root  150  100  setosa  (0.33333333  0.33333333  0.33333333)          2)  Petal.Length<  2.45  50      0  setosa  (1.00000000  0.00000000  0.00000000)  *      3)  Petal.Length>=2.45  100    50  versicolor  (0.00000000  0.50000000  0.50000000)              6)  Petal.Width<  1.75  54      5  versicolor  (0.00000000  0.90740741  0.09259259)  *          7)  Petal.Width>=1.75  46      1  virginica  (0.00000000  0.02173913  0.97826087)  *   >  plot(iris.rp2_2,uniform=T,branch=0.6,margin=0)   >  text(iris.rp2_2,uniform=T,use.n=T,all=T)   剪定後 26
  • 28. 分類木の精度を測りたいなら・・・ 28 最後に >  iris.tre  <-­‐  iris[2*(1:75)-­‐1,]  #  奇数行   >  iris.test  <-­‐  iris[-­‐(2*(1:75)-­‐1),]  #  偶数行   #  奇数行だけで分類木の生成   >  iris.tre  <-­‐  rpart(Species~.,  data=iris.tre,method="class")   >  pred  <-­‐  predict(iris.tre,  iris.test,  type="class")   #  偶数行でテストしてみる   >  table(pred,  iris.test$Species)                             pred                  setosa  versicolor  virginica      setosa                  25                    0                  0      versicolor            0                  24                  3      virginica              0                    1                22