SlideShare une entreprise Scribd logo
1  sur  64
Télécharger pour lire hors ligne
機械学習を用いた
予測モデルの構築・評価
2014年4月19日
第38回Tokyo.R
@sfchaos
自己紹介
 TwitterID: @sfchaos
 お仕事: 人工知能的な何か
(データマイニング,
セマンティックWeb, オントロジー, etc.)
1
RDF
OWL
SPARQL
自己紹介
 TwitterID: @sfchaos
 お仕事: 人工知能的な何か
(データマイニング,
セマンティックWeb, オントロジー, etc.)
2
DF
OWL(アール〔アウル〕と読むっぽい)
SPA QL
アジェンダ
1. イントロダクション
2. 予測モデル構築・評価の考え方
3. 予測モデル構築・評価 基礎編
4. 予測モデル構築・評価 発展編
5. まとめ
3
1. イントロダクション
4
はじめての予測モデル
5
アヤメの種類を予測する
モデルが欲しいのよ.
明日の朝までに至急
作ってちょうだい.
データがこうスッと来たら
バァッといってガーンと
作ればできるでしょ?
更け行く夜・・・
6
できたー!!
7
> library(rpart)
> library(rattle)
> fit.rp <- rpart(Species ~., data=iris)
> fancyRpartPlot(fit.rp)
数日後・・・
8
明日の朝までに
至急作り直してちょうだい
あんたが作った予測モデル
全然あたらないじゃないのよ!
☆◎×??
失敗原因は重要な作業を怠ったこと
汎化性能の検証
9
ハイパーパラメータのチューニング
属性選択
詳細については,後に詳しく説明します
またしても更け行く夜・・・
10
できたー!!
11
さらに数日後・・・
12
そういえば,世の中には
いろんな機械学習の
アルゴリズムが
あるらしいわね.
全部やってちょうだい.
精度はまあまあ
出るようにはなってきたわ.
でも・・・何かが足りないわ.
It’s very hard…
13
本日の発表のテーマ
14
caretパッケージの使い方を交えながら,
機械学習を用いた予測モデル構築・評価の
お話をします
caretパッケージを用いることにより
機械学習の様々なアルゴリズムに対して
統一したフレームワークでモデル構築・評価が
できるようになります
2. 予測モデル構築・評価の
考え方
15
予測モデル
16
目的変数 説明変数
xy
)(xfy 
予測モデル f
説明変数 x から目的変数 y を予測する
結果 原因
未知のデータに対する高
い予測力(汎化性能)と
安定性が求められる
予測モデル
17
目的変数 y 予測の例
回帰 連続値 売上予測,電力量予測, etc.
クラス分類 離散値 退会者予測,故障予測, etc.
特徴量作成
(feature engineering/construction)
18
データ
目的変数 説明変数
機械学習の文脈では
特徴量,属性(feature)
と呼ばれることが多い
xy
特徴量生成は予測モデル構築における最重要項目の一つ
モデル構築・評価のスキーム
(ホールドアウト検定)
19
データ
訓練
データ
検証
データ
モデル
構築
予測
モデル
モデル
検証
検証
結果
モデルを評価する
フェーズ
データを訓練用と検証用に分けて予測精度を検証
モデルを構築する
フェーズ
モデル構築・評価のスキーム
(リサンプリング/クロスバリデーション・ブートストラップ)
20
データ
訓練
データ
検証
データ
モデル
構築
予測
モデル
モデル
検証
検証
結果
訓練
データ
検証
データ
モデル
構築
予測
モデル
モデル
検証
検証
結果
・
・
・
訓練データと
検証データを
複数セット作成
検証
結果の
統合
複数セットの訓練・検証データに対して予測モデルを構築し
評価
ハイパーパラメータの最適化
 機械学習のアルゴリズムには,ハイパーパラメータというもの
があり,最適な設定値を求める必要がある.
 実際は最適値ではなく,指定した探索範囲の値から最も
適切なものを選ぶことが多い.
21
ハイパーパラメータの例:
決定木の複雑さは?
モデルの評価
22
適合率(Precision) = TP/(TP + FP)
再現率(Recall) = TP/(TP +FN)
正解率(Accuracy) = (TP + TN)/(TP + FP + FN + TN)
特異度(Specificity) = TN/(TN + FP)
 クラス分類問題のモデルは,検証データに対して
ROC曲線や分割表による評価を行うことが多い.
実績
正例 負例
予測
正例 TP FP
負例 FN TN
予測モデル構築の流れ
23
ハイパーパラメー
タの探索範囲の
決定
各ハイパーパラ
メータに対する処
理
評価指標の
算出
最適な
ハイパーパラメー
タの決定
データの
リサンプリング
モデルの
フィッティング
検証データに
対する予測
特徴量の
作成
3. 予測モデル構築・評価 基礎編
24
caretパッケージ
(Classification And Regression )
25
http://caret.r-forge.r-project.org/
機械学習の予測モデル構築・評価を
予測モデルの種類によらず統一フレームワークで実行
carrot?
作者はPfizerのデータ分析者
Max Kuhn氏
26
http://www.predictiveanalyticsworld.c
om/boston/2012/speakers.php
インストールとロード
27
> install.packages(“caret”)
> library(caret)
> library(mlbench)
> data(Sonar)
> dim(Sonar)
[1] 208 61
> Sonar[1:5, c(1:5, 61)]
V1 V2 V3 V4 V5 Class
1 0.0200 0.0371 0.0428 0.0207 0.0954 R
2 0.0453 0.0523 0.0843 0.0689 0.1183 R
3 0.0262 0.0582 0.1099 0.1083 0.0974 R
4 0.0100 0.0171 0.0623 0.0205 0.0205 R
5 0.0762 0.0666 0.0481 0.0394 0.0590 R
使用するデータ
28
本スライドではmlbenchパッケージの
Sonarデータセットを使用
> inTrain <- createDataPartition(Sonar$Class, p=.8,
list=FALSE)
> Sonar.train <- Sonar[inTrain, ]
> dim(Sonar.train)
[1] 167 61
> Sonar.test <- Sonar[-inTrain, ]
> dim(Sonar.test)
[1] 41 61
使用するデータ
29
訓練データと検証データに
分割する
train関数
(予測モデルの構築・評価)
30
train(x, y, …)
x: 説明変数
y: 目的変数
train関数の使用方法
31
> fit.svm <-
+ train(Class ~., data=Sonar.train,
+ method="svmRadial",
+ tuneGrid=expand.grid(
+ C=seq(0.5, 1.5, by=0.5),
+ sigma=c(0.01, 0.02)),
+ trControl=trainControl(
+ method="cv", number=10)
+ )
train関数の使用方法
(予測モデルの指定)
32
> fit.svm <-
+ train(Class ~., data=Sonar.train,
+ method="svmRadial",
+ tuneGrid=expand.grid(
+ C=seq(0.5, 1.5, by=0.5),
+ sigma=c(0.01, 0.02)),
+ trControl=trainControl(
+ method="cv", number=10)
+ )
予測モデルの名称を引数methodに指定
train関数の使用方法
(予測モデルの指定)
33
> # modelLookup関数で予測モデルの名称を参照可能
> ml <- modelLookup()
> ml[1:5, 1:5]
model parameter label forReg forClass
1 ada iter #Trees FALSE TRUE
2 ada maxdepth Max Tree Depth FALSE TRUE
3 ada nu Learning Rate FALSE TRUE
4 AMORE layer1 Layer 1 Units TRUE TRUE
5 AMORE layer2 Layer 2 Units TRUE TRUE
> length(unique(ml$model))
[1] 149
149個のモデルが利用可能
予測モデルの名称
利用可能なモデル数
train関数の使用方法
(ハイパーパラメータの探索範囲の指定)
34
> fit.svm <-
+ train(Class ~., data=Sonar.train,
+ method="svmRadial",
+ tuneGrid=expand.grid(
+ C=seq(0.5, 1.5, by=0.5),
+ sigma=c(0.01, 0.02)),
+ trControl=trainControl(
+ method="cv", number=10)
+ )
ハイパーパラメータの探索範囲を引数tuneGridに指定
train関数の使用方法
(リサンプリング方法の指定)
35
> fit.svm <-
+ train(Class ~., data=Sonar.train,
+ method="svmRadial",
+ tuneGrid=expand.grid(
+ C=seq(0.5, 1.5, by=0.5),
+ sigma=c(0.01, 0.02)),
+ trControl=trainControl(
+ method="cv", number=10)
+ )
リサンプリング方法・回数をtrControl引数に指定
10-foldの
クロスバリデーション
train関数の実行結果
36
> fit.svm
Support Vector Machines with Radial Basis Function Kernel
146 samples
60 predictors
2 classes: 'M', 'R'
No pre-processing
Resampling: Cross-Validated (10 fold)
Summary of sample sizes: 131, 131, 131, 132, 132, 131, ...
Resampling results across tuning parameters:
C sigma Accuracy Kappa Accuracy SD Kappa SD
0.5 0.01 0.779 0.543 0.0887 0.183
0.5 0.02 0.787 0.562 0.0761 0.153
1 0.01 0.801 0.595 0.0937 0.187
1 0.02 0.849 0.693 0.0969 0.195
1.5 0.01 0.829 0.653 0.079 0.158
1.5 0.02 0.836 0.666 0.0726 0.146
Accuracy was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.02 and C = 1.
train関数の実行結果
37
> fit.svm
Support Vector Machines with Radial Basis Function Kernel
146 samples
60 predictors
2 classes: 'M', 'R'
No pre-processing
Resampling: Cross-Validated (10 fold)
Summary of sample sizes: 131, 131, 131, 132, 132, 131, ...
Resampling results across tuning parameters:
C sigma Accuracy Kappa Accuracy SD Kappa SD
0.5 0.01 0.779 0.543 0.0887 0.183
0.5 0.02 0.787 0.562 0.0761 0.153
1 0.01 0.801 0.595 0.0937 0.187
1 0.02 0.849 0.693 0.0969 0.195
1.5 0.01 0.829 0.653 0.079 0.158
1.5 0.02 0.836 0.666 0.0726 0.146
Accuracy was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.02 and C = 1.
ハイパーパラメータの
値ごとの評価結果
train関数の実行結果
38
> fit.svm
Support Vector Machines with Radial Basis Function Kernel
146 samples
60 predictors
2 classes: 'M', 'R'
No pre-processing
Resampling: Cross-Validated (10 fold)
Summary of sample sizes: 131, 131, 131, 132, 132, 131, ...
Resampling results across tuning parameters:
C sigma Accuracy Kappa Accuracy SD Kappa SD
0.5 0.01 0.779 0.543 0.0887 0.183
0.5 0.02 0.787 0.562 0.0761 0.153
1 0.01 0.801 0.595 0.0937 0.187
1 0.02 0.849 0.693 0.0969 0.195
1.5 0.01 0.829 0.653 0.079 0.158
1.5 0.02 0.836 0.666 0.0726 0.146
Accuracy was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.02 and C = 1.
Accuracyが
最大のモデルを
最適モデルと判断
ハイパーパラメータの決定
39
> fit.svm$bestTune
sigma C
4 0.02 1
> fit.svm$finalModel
Support Vector Machine object of class "ksvm"
SV type: C-svc (classification)
parameter : cost C = 1
Gaussian Radial Basis kernel function.
Hyperparameter : sigma = 0.02
Number of Support Vectors : 121
Objective Function Value : -56.594
Training error : 0
最適な
ハイパーパラメータ
(C=1,sigma=0.02)
最適なハイパーパラメー
タを用いてデータ全体に
対して
構築したモデル
4. 予測モデルの構築・評価 発展編
40
発展編のトピック
 評価指標の変更
 属性選択
 不均衡データへの対応
41
評価指標の変更
(デフォルトの評価指標設定の構造理解)
42
> fit.svm
Support Vector Machines with Radial Basis Function Kernel
146 samples
60 predictors
2 classes: 'M', 'R'
No pre-processing
Resampling: Cross-Validated (10 fold)
Summary of sample sizes: 131, 131, 131, 132, 132, 131, ...
Resampling results across tuning parameters:
C sigma Accuracy Kappa Accuracy SD Kappa SD
0.5 0.01 0.779 0.543 0.0887 0.183
0.5 0.02 0.787 0.562 0.0761 0.153
1 0.01 0.801 0.595 0.0937 0.187
1 0.02 0.849 0.693 0.0969 0.195
1.5 0.01 0.829 0.653 0.079 0.158
1.5 0.02 0.836 0.666 0.0726 0.146
Accuracy was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.02 and C = 1.
デフォルトでは
Accuracy,
Kappaを出力
デフォルトでは
Accuracy最大の
モデルを選択
評価指標の変更
(デフォルトの評価指標設定の構造理解)
43
> args(train.default)
function (x, y,
method = "rf",
preProcess = NULL, ...,
weights = NULL,
metric = ifelse(is.factor(y), "Accuracy", "RMSE"),
maximize = ifelse(metric == "RMSE", FALSE, TRUE),
trControl = trainControl(),
tuneGrid = NULL,
tuneLength = 3)
評価指標は,
内部で呼ばれる
train.default関数の
引数metricに指定
引数trControlの
デフォルト値は
trainControl関数の
引数のデフォルト値
> args(trainControl)
function (method = "boot",
number = ifelse(method %in% c(“cv”, "repeatedcv"),
10, 25),
repeats = ifelse(method %in% c("cv", "repeatedcv"),
1, number),
p = 0.75, initialWindow = NULL,
horizon = 1, fixedWindow = TRUE, verboseIter = FALSE,
returnData = TRUE,
returnResamp = "final", savePredictions = FALSE,
classProbs = FALSE,
summaryFunction = defaultSummary,
selectionFunction = "best",
preProcOptions = list(thresh = 0.95, ICAcomp = 3, k = 5),
index = NULL, indexOut = NULL, timingSamps = 0,
predictionBounds = rep(FALSE, 2), seeds = NA,
allowParallel = TRUE)
評価指標の変更
(デフォルトの評価指標設定の構造理解)
44
trainControl関数の
引数summaryFunctionが
評価結果をまとめる
評価指標の変更
(評価指標の変更の方針)
45
Accuracyを採用
trainControl関数の引数
summaryFunction,
train関数の引数metricに
評価指標を指定
Kappaを採用
特別な設定は不要
Yes
train関数の
引数metric=“Kappa”
No
Yes No
評価指標の変更
(関数twoClassSummaryを用いた評価)
 caretパッケージが提供するもう一つの要約関数
twoClassSummaryを使用する.
 twoClassSummaryは,予測モデルが出力するクラスの
確率に基づいて,AUC, Sensitivity, Specificityを計
算する.
46
評価指標の変更
(関数twoClassSummaryを用いた評価)
47
> fit.svm.tcs <-
+ train(Class ~., data=Sonar.train,
+ method="svmRadial",
+ tuneGrid=expand.grid(C=seq(0.5, 1.5, by=0.5),
+ sigma=c(0.01, 0.02)),
+ trControl=trainControl(method="cv", number=10,
+ summaryFunction=twoClassSummary,
+ classProbs=TRUE),
+ metric="Sens")
評価指標の変更
(関数twoClassSummaryを用いた評価)
48
> svmFit.tcs
Support Vector Machines with Radial Basis Function Kernel
800 samples
41 predictors
2 classes: 'Bad', 'Good'
No pre-processing
Resampling: Cross-Validated (10 fold)
Summary of sample sizes: 720, 720, 720, 720, 720, 720, ...
Resampling results across tuning parameters:
C ROC Sens Spec ROC SD Sens SD Spec SD
0.25 0.785 0.512 0.845 0.0591 0.0857 0.0484
0.5 0.786 0.496 0.864 0.0584 0.0888 0.0492
1 0.787 0.458 0.886 0.0618 0.106 0.0423
Tuning parameter 'sigma' was held constant at a value of 0.01399623
Sens was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.014 and C = 0.25.
評価指標が
ROC(AUC),
Sensitivity,
Specityになった!
モデルの選択に
使用する評価指標
がSensitivityに
なった!
評価指標の変更
(独自の評価関数の作成)
 Precision, Recall, Accuracyを算出できるように,自
作の評価関数を用意する.
49
> my.summary <- function (data, lev = NULL, model = NULL)
+ {
+ if (is.character(data$obs))
+ data$obs <- factor(data$obs, levels = lev)
+ conf.mat <- table(data$pred, data$obs) # 分割表
+ prec <- conf.mat[1,1]/sum(conf.mat[1, ]) # Precision
+ rec <- conf.mat[1,1]/sum(conf.mat[, 1]) # Recall
+ acc <- sum(diag(conf.mat))/sum(conf.mat) # Accuracy
+ res <- c(`Precision`=prec, `Recall`=rec,
+ `F-Value`=2*prec*rec/(prec+rec), `Accuracy`=acc)
+ res
+ }
評価指標の変更
(独自の評価関数の作成)
50
> fit.svm.my.sm <-
+ train(Class ~., data=Sonar.train,
+ method="svmRadial",
+ tuneGrid=expand.grid(C=seq(0.5, 1.5, by=0.5),
+ sigma=c(0.01, 0.02)),
+ trControl=trainControl(method="cv",
+ number=10, summaryFunction=my.summary),
+ metric="Precision")
trainControl関数の引
数summaryFunction
に自作の要約関数を指
定
最適なモデルを選択する
指標をPrecisionに設定
評価指標の変更
(独自の評価関数の作成)
51
> fit.svm.my.sm
Support Vector Machines with Radial Basis Function Kernel
146 samples
60 predictors
2 classes: 'M', 'R'
No pre-processing
Resampling: Cross-Validated (10 fold)
Summary of sample sizes: 131, 132, 131, 131, 131, 131, ...
Resampling results across tuning parameters:
C sigma Precision Recall F.Value Accuracy Precision SD
0.5 0.01 0.759 0.925 0.825 0.79 0.0958
0.5 0.02 0.736 0.95 0.826 0.783 0.0785
1 0.01 0.807 0.912 0.849 0.825 0.111
1 0.02 0.818 0.938 0.869 0.844 0.106
1.5 0.01 0.827 0.912 0.861 0.838 0.118
1.5 0.02 0.834 0.912 0.867 0.845 0.124
Recall SD F.Value SD Accuracy SD
0.121 0.0749 0.0942
0.0645 0.0558 0.0788
0.119 0.089 0.104
0.0659 0.0698 0.0939
0.103 0.0854 0.105
0.0844 0.091 0.114
Precision was used to select the optimal model using the largest value.
The final values used for the model were sigma = 0.02 and C = 1.5.
評価指標が
Precision,
Recall, F値,
Accuracyになっ
た!
モデルの選択に
使用する評価指標
がPrecisionになっ
た!
属性選択
(feature selection)
 予測モデルが過学習(overfitting)しないように,属性を
選択する.
 属性選択については,前回のTokyo.Rの@srctadaさん
の発表が詳しい.
52
属性選択
(feature selection)
 caretは,recursive feature eliminationというラッ
パー法のアルゴリズムを用意している.
 日本語訳は「再帰的属性削減」?
53
属性選択
(feature selection)
54
rfe(x, y, …)
x: 説明変数
y: 目的変数
属性選択
(feature selection)
55
> rfectrl <- rfeControl(method=“cv“,
+ verbose=TRUE,
+ returnResamp="final")
> trctrl <- trainControl(method="cv",
+ number=10)
> fit.svm.rfe <- rfe(x, y, method="svmRadial",
+ metric="Precision",
+ sizes=c(30, 50),
+ rfeControl=ctrl,
+ trControl=trctrl)
属性選択
(feature selection)
56
> fit.svm.rfe
Recursive feature selection
Outer resampling method: Cross-Validated (10 fold)
Resampling performance over subset size:
Variables Precision Recall F-Value Accuracy PrecisionSD RecallSD
30 0.7397 0.8446 0.7758 0.7407 0.1314 0.1520
50 0.7797 0.9089 0.8309 0.8027 0.1093 0.1244
60 0.7833 0.9071 0.8284 0.8017 0.1195 0.1458
F-ValueSD AccuracySD Selected
0.09202 0.1104
0.07347 0.0887
0.08789 0.1010 *
The top 5 variables (out of 60):
V11, V12, V10, V49, V9
属性数30, 50,
60のときの
評価指標
属性選択
(feature selection)
57
> fit.svm.rfe$optVariables
[1] "V11" "V12" "V10" "V49" "V9" "V13" "V47" "V48" "V36" "V21" "V44"
[12] "V45" "V46" "V35" "V52" "V4" "V37" "V20" "V51" "V22" "V1" "V5"
[23] "V43" "V31" "V6" "V8" "V34" "V14" "V33" "V23" "V2" "V50" "V3"
[34] "V42" "V32" "V19" "V58" "V7" "V28" "V53" "V27" "V59" "V15" "V38"
[45] "V24" "V54" "V39" "V26" "V55" "V56" "V30" "V17" "V29" "V40" "V41"
[56] "V18" "V16" "V57" "V25" "V60"
評価指標がPrecision,
Recall, F値, Accuracyに
なった!
不均衡データへの対応
 クラス分類問題で扱うデータは,往々にしてクラスのサンプ
ル数に偏りがある.
 このような不均衡データに対して予測モデルを構築すると,
負例の特徴を学習し,負例と予測するモデルになりやすい.
 不均衡データへの代表的な対応方法は,
 コスト考慮型学習
 サンプリング(正例のアップサンプリング/負例のダウンサンプリング/
ハイブリッド)
58
不均衡データへの対応
SVMのコスト考慮型学習,ハイブリッドのサンプリングの代
表的な手法であるSMOTEについては,以下のスライドを
参照.
59
@sfchaos, 不均衡データのクラス分類,
第20回Tokyo.R
4. まとめ
60
 機械学習を用いて予測モデル構築・評価するにはcaret
パッケージが便利!!
61
参考文献
 Max Kuhn and Kjell Johnson,
Applied predictive modeling, Springer, 2012.
62
参考文献
 @dichika, caretパッケージ紹介
63
http://www.slideshare.net/dichika/tokyo-
r11caret

Contenu connexe

Tendances

Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編Hiroshi Shimizu
 
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Koichiro Gibo
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデルHiroshi Shimizu
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章Shuyo Nakatani
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデルYohei Sato
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデルMasashi Komori
 
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)Hiroshi Shimizu
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)itoyan110
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング. .
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章nocchi_airport
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギーHiroshi Shimizu
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!takehikoihayashi
 
重回帰分析で交互作用効果
重回帰分析で交互作用効果重回帰分析で交互作用効果
重回帰分析で交互作用効果Makoto Hirakawa
 

Tendances (20)

Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデル
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
次元の呪い
次元の呪い次元の呪い
次元の呪い
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
重回帰分析で交互作用効果
重回帰分析で交互作用効果重回帰分析で交互作用効果
重回帰分析で交互作用効果
 

En vedette

Amazon Machine Learning
Amazon Machine LearningAmazon Machine Learning
Amazon Machine LearningYuta Imai
 
データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016
データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016
データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016Tokoroten Nakayama
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 

En vedette (6)

Amazon Machine Learning
Amazon Machine LearningAmazon Machine Learning
Amazon Machine Learning
 
KDD2016論文読み会資料(DeepIntent)
KDD2016論文読み会資料(DeepIntent) KDD2016論文読み会資料(DeepIntent)
KDD2016論文読み会資料(DeepIntent)
 
KDD2016勉強会 資料
KDD2016勉強会 資料KDD2016勉強会 資料
KDD2016勉強会 資料
 
データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016
データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016
データ分析グループの組織編制とその課題 マーケティングにおけるKPI設計の失敗例 ABテストの活用と、機械学習の導入 #CWT2016
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 

Similaire à 機械学習を用いた予測モデル構築・評価

画像認識で物を見分ける
画像認識で物を見分ける画像認識で物を見分ける
画像認識で物を見分けるKazuaki Tanida
 
Kashiwa.R#1 画像解析とパターン認識における R の利用
Kashiwa.R#1 画像解析とパターン認識における R の利用Kashiwa.R#1 画像解析とパターン認識における R の利用
Kashiwa.R#1 画像解析とパターン認識における R の利用nmaro
 
20190625 OpenACC 講習会 第1部
20190625 OpenACC 講習会 第1部20190625 OpenACC 講習会 第1部
20190625 OpenACC 講習会 第1部NVIDIA Japan
 
ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介Takahiro Katagiri
 
C++によるソート入門
C++によるソート入門C++によるソート入門
C++によるソート入門AimingStudy
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3Yohei Sato
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎Daiyu Hatakeyama
 
C base design methodology with s dx and xilinx ml
C base design methodology with s dx and xilinx ml C base design methodology with s dx and xilinx ml
C base design methodology with s dx and xilinx ml ssuser3a4b8c
 
プログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けー
プログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けープログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けー
プログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けーTanUkkii
 
OpenCVの拡張ユーティリティ関数群
OpenCVの拡張ユーティリティ関数群OpenCVの拡張ユーティリティ関数群
OpenCVの拡張ユーティリティ関数群Norishige Fukushima
 
科学技術計算関連Pythonパッケージの概要
科学技術計算関連Pythonパッケージの概要科学技術計算関連Pythonパッケージの概要
科学技術計算関連Pythonパッケージの概要Toshihiro Kamishima
 
200730material fujita
200730material fujita200730material fujita
200730material fujitaRCCSRENKEI
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3Teruyuki Sakaue
 
20190625 OpenACC 講習会 第3部
20190625 OpenACC 講習会 第3部20190625 OpenACC 講習会 第3部
20190625 OpenACC 講習会 第3部NVIDIA Japan
 
今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)
今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)
今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)YoheiOkuyama
 
最新C++事情 C++14-C++20 (2018年10月)
最新C++事情 C++14-C++20 (2018年10月)最新C++事情 C++14-C++20 (2018年10月)
最新C++事情 C++14-C++20 (2018年10月)Akihiko Matuura
 

Similaire à 機械学習を用いた予測モデル構築・評価 (20)

Boost Tour 1.50.0 All
Boost Tour 1.50.0 AllBoost Tour 1.50.0 All
Boost Tour 1.50.0 All
 
画像認識で物を見分ける
画像認識で物を見分ける画像認識で物を見分ける
画像認識で物を見分ける
 
Kashiwa.R#1 画像解析とパターン認識における R の利用
Kashiwa.R#1 画像解析とパターン認識における R の利用Kashiwa.R#1 画像解析とパターン認識における R の利用
Kashiwa.R#1 画像解析とパターン認識における R の利用
 
20190625 OpenACC 講習会 第1部
20190625 OpenACC 講習会 第1部20190625 OpenACC 講習会 第1部
20190625 OpenACC 講習会 第1部
 
ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介
 
C++によるソート入門
C++によるソート入門C++によるソート入門
C++によるソート入門
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
 
C base design methodology with s dx and xilinx ml
C base design methodology with s dx and xilinx ml C base design methodology with s dx and xilinx ml
C base design methodology with s dx and xilinx ml
 
プログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けー
プログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けープログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けー
プログラミング言語のパラダイムシフトーScalaから見る関数型と並列性時代の幕開けー
 
OpenCVの拡張ユーティリティ関数群
OpenCVの拡張ユーティリティ関数群OpenCVの拡張ユーティリティ関数群
OpenCVの拡張ユーティリティ関数群
 
My code
My codeMy code
My code
 
科学技術計算関連Pythonパッケージの概要
科学技術計算関連Pythonパッケージの概要科学技術計算関連Pythonパッケージの概要
科学技術計算関連Pythonパッケージの概要
 
Boost tour 1_40_0
Boost tour 1_40_0Boost tour 1_40_0
Boost tour 1_40_0
 
200730material fujita
200730material fujita200730material fujita
200730material fujita
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
 
20190625 OpenACC 講習会 第3部
20190625 OpenACC 講習会 第3部20190625 OpenACC 講習会 第3部
20190625 OpenACC 講習会 第3部
 
今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)
今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)
今さら聞けないHadoop勉強会第3回 セントラルソフト株式会社(20120327)
 
Tokyo r #43
Tokyo r #43Tokyo r #43
Tokyo r #43
 
最新C++事情 C++14-C++20 (2018年10月)
最新C++事情 C++14-C++20 (2018年10月)最新C++事情 C++14-C++20 (2018年10月)
最新C++事情 C++14-C++20 (2018年10月)
 

Plus de Shintaro Fukushima

20230216_Python機械学習プログラミング.pdf
20230216_Python機械学習プログラミング.pdf20230216_Python機械学習プログラミング.pdf
20230216_Python機械学習プログラミング.pdfShintaro Fukushima
 
機械学習品質管理・保証の動向と取り組み
機械学習品質管理・保証の動向と取り組み機械学習品質管理・保証の動向と取り組み
機械学習品質管理・保証の動向と取り組みShintaro Fukushima
 
Materials Informatics and Python
Materials Informatics and PythonMaterials Informatics and Python
Materials Informatics and PythonShintaro Fukushima
 
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-Shintaro Fukushima
 
Why dont you_create_new_spark_jl
Why dont you_create_new_spark_jlWhy dont you_create_new_spark_jl
Why dont you_create_new_spark_jlShintaro Fukushima
 
Rユーザのためのspark入門
Rユーザのためのspark入門Rユーザのためのspark入門
Rユーザのためのspark入門Shintaro Fukushima
 
Juliaによる予測モデル構築・評価
Juliaによる予測モデル構築・評価Juliaによる予測モデル構築・評価
Juliaによる予測モデル構築・評価Shintaro Fukushima
 
データサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみるデータサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみるShintaro Fukushima
 
data.tableパッケージで大規模データをサクッと処理する
data.tableパッケージで大規模データをサクッと処理するdata.tableパッケージで大規模データをサクッと処理する
data.tableパッケージで大規模データをサクッと処理するShintaro Fukushima
 
アクションマイニングを用いた最適なアクションの導出
アクションマイニングを用いた最適なアクションの導出アクションマイニングを用いた最適なアクションの導出
アクションマイニングを用いた最適なアクションの導出Shintaro Fukushima
 
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用Shintaro Fukushima
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
mmapパッケージを使ってお手軽オブジェクト管理
mmapパッケージを使ってお手軽オブジェクト管理mmapパッケージを使ってお手軽オブジェクト管理
mmapパッケージを使ってお手軽オブジェクト管理Shintaro Fukushima
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 

Plus de Shintaro Fukushima (20)

20230216_Python機械学習プログラミング.pdf
20230216_Python機械学習プログラミング.pdf20230216_Python機械学習プログラミング.pdf
20230216_Python機械学習プログラミング.pdf
 
機械学習品質管理・保証の動向と取り組み
機械学習品質管理・保証の動向と取り組み機械学習品質管理・保証の動向と取り組み
機械学習品質管理・保証の動向と取り組み
 
Materials Informatics and Python
Materials Informatics and PythonMaterials Informatics and Python
Materials Informatics and Python
 
BPstudy sklearn 20180925
BPstudy sklearn 20180925BPstudy sklearn 20180925
BPstudy sklearn 20180925
 
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-
 
Why dont you_create_new_spark_jl
Why dont you_create_new_spark_jlWhy dont you_create_new_spark_jl
Why dont you_create_new_spark_jl
 
Rユーザのためのspark入門
Rユーザのためのspark入門Rユーザのためのspark入門
Rユーザのためのspark入門
 
Juliaによる予測モデル構築・評価
Juliaによる予測モデル構築・評価Juliaによる予測モデル構築・評価
Juliaによる予測モデル構築・評価
 
Juliaで並列計算
Juliaで並列計算Juliaで並列計算
Juliaで並列計算
 
データサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみるデータサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみる
 
data.tableパッケージで大規模データをサクッと処理する
data.tableパッケージで大規模データをサクッと処理するdata.tableパッケージで大規模データをサクッと処理する
data.tableパッケージで大規模データをサクッと処理する
 
アクションマイニングを用いた最適なアクションの導出
アクションマイニングを用いた最適なアクションの導出アクションマイニングを用いた最適なアクションの導出
アクションマイニングを用いた最適なアクションの導出
 
R3.0.0 is relased
R3.0.0 is relasedR3.0.0 is relased
R3.0.0 is relased
 
外れ値
外れ値外れ値
外れ値
 
Rでreproducible research
Rでreproducible researchRでreproducible research
Rでreproducible research
 
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
mmapパッケージを使ってお手軽オブジェクト管理
mmapパッケージを使ってお手軽オブジェクト管理mmapパッケージを使ってお手軽オブジェクト管理
mmapパッケージを使ってお手軽オブジェクト管理
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
Rで学ぶロバスト推定
Rで学ぶロバスト推定Rで学ぶロバスト推定
Rで学ぶロバスト推定
 

Dernier

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 

Dernier (8)

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 

機械学習を用いた予測モデル構築・評価