SlideShare une entreprise Scribd logo
1  sur  25
Télécharger pour lire hors ligne
特徴パターンを用いた
機械学習の説明手法
第33回 人工知能学会全国大会
東北大学 情報科学研究科
浅野孝平
• 研究背景
• 分類問題における解釈性/説明性
• 分類モデルの予測結果への説明
• 先行研究
• 提案手法
• 計算機実験
• まとめ
機械学習の普及
• スマートフォンの顔認証システム
• スマートスピーカーの話者識別 などなど...
機械学習モデルのブラックボックス化
• 高い識別能力をもつ一方,モデルが複雑化
• モデルがブラックボックス化し,モデルの結論の根拠が説明できない
• 医療,司法などの説明責任が求められる分野への応用が困難
研究背景
機械学習に対して,解釈性・説明性が求められている
解釈可能 / 説明可能な機械学習として研究が活発化
1
• 解釈性・・・人間が理解できる挙動の分類モデルを構築(例:決定木,ルールモデル)
• 説明性・・・ブラックボックスな分類モデルの結論の根拠となる特徴を予測
分類問題における解釈性/説明性
分類モデル𝑓
例:CNN
入力: インスタンス𝑥
出力: 𝑓(𝑥)
𝑥の予測クラス
ガチョウ (𝑝 = 0.96)
本研究では説明性について考える
2
• 研究背景
• 先行研究
• Local Interpretable Model-agnostic Explanations (LIME)
• 解釈可能なデータ表現
• LIMEの問題点
• 提案手法
• 計算機実験
• まとめ
• 分類モデル𝑓がインスタンス𝑥のクラスを予測する際の根拠となる特
徴の予測
Local Interpretable Model-agnostic Explanations
(LIME)
LIME
分類モデル𝑓
(例:CNN, SVM)
説明がほしい
インスタンス 𝑥
特徴
重要度
1 2 3 4 5 6
入力 出力
3
• ブラックボックスな分類モデルの決定関数 (赤と
青の境界線) を 線形モデル(破線) で近似
𝑔 𝐱 = 𝐰⊤ 𝐱
• 線形モデルは近傍のデータを用いて学習
• 線形モデルの重みから特徴の重要度を測る
LIME
LIMEの特長
• インスタンスの近傍で分類モデルを近似 (Local Interpretable)
• 分類モデルの入出力関係だけから線形モデルを構築
→ モデル依存性がない (Model-agnostic)
𝑔
4
解釈可能なデータ表現
LIMEでは,インスタンス𝑥をバイナリベクトル𝐱に変換して扱う.
• 𝑥 → 𝐱 = (1, 1,1, . . . , 1) d次元の1ベクトル
• 𝐱′ ← 𝐱の1の要素をランダムに0に変換
• 𝑥′
← 𝐱′
= (0,0,1, … , 1) d次元の{0,1} ベクトル
• 𝑥′: 𝑥の近傍インスタンス
• { 𝐱 𝐢
′
, 𝑓 𝑥𝑖
′
: 𝑖 = 1, … , 𝑁}: 訓練データ
バイナリベクトルへの変換方法
• 数値データ
• 数値を区間化する
• 画像データ
• 領域分割によってバイナリデータに変換 例:スーパーピクセル
による領域分割
5
画像の場合の𝑥′
0に対応する箇所は
黒塗り化
LIMEの説明: 𝐰⊤ 𝐱 (線形モデルの重み=特徴の重要度)
• 個々の特徴の重要度はわかるが,特徴の組み合わせ的な重要度は測れない.
• 重要な特徴だけからなるインスタンスが必ずしも元のインスタンスと同じクラスに
分類されるとは限らない.
LIMEの問題点
特徴
重要度
1 2 3 4 5 6
6
← 2羽のダチョウの画像に対す
るLIMEの説明
この画像を再度,CNNに入力す
ると,ペーパータオルとして分類
される.
• 研究背景
• 先行研究
• 提案手法
• 重要な特徴パターンの定義
• 極小パターンの探索
• 複数の極小パターンの探索
• 計算機実験
• まとめ
提案手法
記法
• 𝑑 = {1, … , 𝑑}:特徴
• 𝑒 ∈ 2[𝑑]
∖ ∅:特徴パターン
• 𝑥 𝑒:パターン𝑒に対応するインスタンス
• 𝑓 𝑥 ∼ 𝑓 𝑥 𝑒 :𝑓が𝑥と𝑥 𝑒を同じクラスだと分類する
予測の根拠となる特徴の組み合わせがわかる説明手法の提案
• 複数の重要な特徴パターン(特徴の集合)を用いて説明
• 重要な特徴パターンから,予測結果を再現できる説明
7
LIMEの解釈可能な表現に対応
重要な特徴パターンの定義
「𝑓が𝑥の予測クラスの導出に使う必要最低限な特徴からなるパターン」
を重要な特徴パターンとし,極小パターンと呼ぶ
→ 提案手法をMinimal Pattern LIME (MP-LIME) と呼ぶ
極小パターン𝒆 𝐦𝐢𝐧の定義
特徴パターン𝑒のうち,𝑥 𝑒が𝑥と同じクラスに分類され,𝑒のいずれか
ひとつの特徴を取り除いたインスタンス𝑥 𝑒∖ 𝑖 が,𝑥と異なるクラスに
分類されるもの.
𝑓(𝑥 𝑒min
) ∼ 𝑓(𝑥)
∀𝑖 ∈ 𝑒min, 𝑓(𝑥 𝑒min∖ 𝑖 )
8
極小パターンの探索
1. {1, … , 𝑑}を初期状態として,近傍パターン
𝑒 ∖ 𝑖 をモデル𝑓で評価
• 𝑓(𝑥 𝑒∖ 𝑖 )を計算
2. 近傍パターンのうち,最も評価値の高いパ
ターンを次の状態として,再度,近傍パ
ターンを評価
• 評価値:確率や決定関数値などの出力
3. 評価パターン𝑒が極小であるとき,𝑒を出力
𝑓(𝑥 𝑒 ) ∼ 𝑓(𝑥)
∀𝑖 ∈ 𝑒, 𝑓 𝑥 𝑒∖ 𝑖
赤枠:𝑥と異なるクラスに分類
青枠:𝑥と同じクラスに分類
𝑑 = 4の場合
9
複数の極小パターンの探索
• 極小パターンは複数個存在しうる
• 複数の特徴パターンが,予測に影響
している場合には,ひとつの極小パ
ターンの提示では不十分
→ ただし,全部見つけるのは困難.全特
徴パターンは2 𝑑
通りある
• そこで,極小パターンを 𝐿個見つける
まで探索を行う.
→ 𝐿 ∈ ℕはパラメータ赤枠:𝑥と異なるクラスに分類
青枠:𝑥と同じクラスに分類
10
複数の極小パターンの探索
• 極小パターンになりえないパターンを探索
空間から削除する.
𝑒min ⊂ 𝑒
• 探索空間のなかで,次に評価値の高いパ
ターンから,再度探索を行う.
• 既に評価したパターンは評価しない.
• 最大L個の極小パターンを説明として出力
11
複数の極小パターンの探索
• 極小パターンになりえないパターンを探索
空間から削除する.
𝑒min ⊂ 𝑒
• 探索空間のなかで,次に評価値の高いパ
ターンから,再度探索を行う.
• 既に評価したパターンは評価しない.
• 最大L個の極小パターンを説明として出力
11
• 研究背景
• 先行研究
• 提案手法
• 計算機実験
• 説明能力の定量評価
• 画像分類への応用
• まとめ
計算機実験
実験内容
• 説明能力の定量評価
• 画像分類への応用
先行研究のLIMEと提案手法の
MP-LIMEの説明結果の比較
実装
• プログラミング言語:Python 3.6
• ライブラリ:numpy, scipy, scikit-learn
• 計算機仕様
• OS: Ubuntu 18.04
• CPU: Intel Core i7-6700 (3.40 GHz)
• RAM: 8.0 GB
12
説明能力の定量評価 (設定)
実験概要
• レビューデータ (book, DVD) の評価 (良い/悪い) を予測する決定木を構築
• レビューデータはWord-One-Hot表現でベクトル化
• 予測にどの特徴を用いるかを説明器で予測
評価指標
Recall =
|𝑇 ∩ 𝑃|
|𝑇|
Precision =
|𝑇 ∩ 𝑃|
|𝑃|
• T={実際に予測に寄与した特徴},P={説明器が予測した特徴}
Time = 1つのインスタンスの説明にかかる時間[sec]
パラメータ:
LIME:𝑁 = 10000 (近傍データ数), MP-LIME: 𝐿 = 5
13
説明能力の定量評価 (結果)
LIME MP-LIME
Book 19.03 3.87
DVD 18.26 2.38
Recall
Precision
Time [sec]
LIME MP-LIME
Book 0.115 0.750
DVD 0.109 0.715
LIME MP-LIME
Book 0.922 0.869
DVD 0.924 0.878
RecallはLIMEがやや高い
Recallが高い
→ 実際に使われた特徴を予測できている
PrecisionはMP-LIMEが高い
Precisionが高い
→ 予測した特徴が実際に予測に使われている
MP-LIMEが高速
14
画像分類への応用 (設定)
• 左の画像を画像分類モデル
(Inception-v3)で識別.
• ガチョウとして識別(𝑝 = 0.96)
• スーパーピクセルで領域分割 して解
釈可能な表現として扱う (𝑑 = 40)
• 𝑝goose > 0.2ならば,ガチョウと識別さ
れたとみなす.
𝑓 𝑥 𝑒 ∼ 𝑓 𝑥 ⇔ 𝑝goose > 0.2
15
画像分類への応用 (結果)
• 2羽のガチョウがそれぞれ極小パ
ターンとして出力されている.
• 複数の特徴パターンが予測に影響して
いる場合でも,それぞれのパターンを検
知できる.
• 各パターンがそれぞれガチョウとして
識別される.
• 極小パターン1:𝑝 = 0.40
• 極小パターン2:𝑝 = 0.56
← MP-LIMEの説明
LIMEの説明 →
16
• 研究背景
• 先行研究
• 提案手法
• 計算機実験
• まとめ
まとめ
• 複数の極小パターンを用いた説明手法の提案
• 予測の根拠となる特徴パターンを提示できる.
• 複数の特徴パターンが予測に寄与している場合でも対応できる
• 説明能力の定量評価では,Precisionの改善と,計算時間の高速化
を確認
• 画像分類への応用での有効性の検証
17
Appendix
AppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixApp
endixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendi
xAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAp
pendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppen
dixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixA
ppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppe
ndixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix
AppendixAppendixAppendixAppendixAppindixAppendixAppendixAppendixAppendixAppe
ndixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix
AppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixApp
endixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendi
xAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAp
pendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppen
dixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixA
ppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppe
ndixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix
AppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix

Contenu connexe

Tendances

最尤推定法(NNでの応用)
最尤推定法(NNでの応用)最尤推定法(NNでの応用)
最尤推定法(NNでの応用)MatsuiRyo
 
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章Hakky St
 
機械学習を民主化する取り組み
機械学習を民主化する取り組み機械学習を民主化する取り組み
機械学習を民主化する取り組みYoshitaka Ushiku
 
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural ProcessesDeep Learning JP
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeep Learning JP
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究Satoshi Hara
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだことnishio
 
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例  〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例  〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』The Japan DataScientist Society
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsTakuya Akiba
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...西岡 賢一郎
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章Kota Matsui
 
線形?非線形?
線形?非線形?線形?非線形?
線形?非線形?nishio
 
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口Yuki Yamada
 
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Yuichi Yoshida
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半Prunus 1350
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 

Tendances (20)

最尤推定法(NNでの応用)
最尤推定法(NNでの応用)最尤推定法(NNでの応用)
最尤推定法(NNでの応用)
 
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
 
機械学習を民主化する取り組み
機械学習を民主化する取り組み機械学習を民主化する取り組み
機械学習を民主化する取り組み
 
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
 
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例  〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例  〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
線形?非線形?
線形?非線形?線形?非線形?
線形?非線形?
 
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
 
異常検知
異常検知異常検知
異常検知
 
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 

Similaire à 特徴パターンを用いた機械学習の説明手法 (JSAI2019)

Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1Takuma Yagi
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)okku apot
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 
解説#82 記号論理学
解説#82 記号論理学解説#82 記号論理学
解説#82 記号論理学Ruo Ando
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
確率的自己位置推定
確率的自己位置推定確率的自己位置推定
確率的自己位置推定Horiguchi Shuhei
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -Yutaka KATAYAMA
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するかSAKAUE, Tatsuya
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...Deep Learning JP
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門Hiroyoshi Komatsu
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライドMizumoto Atsushi
 
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムTakuya Akiba
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 

Similaire à 特徴パターンを用いた機械学習の説明手法 (JSAI2019) (20)

Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
解説#82 記号論理学
解説#82 記号論理学解説#82 記号論理学
解説#82 記号論理学
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
確率的自己位置推定
確率的自己位置推定確率的自己位置推定
確率的自己位置推定
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
 
Jsai2020
Jsai2020Jsai2020
Jsai2020
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライド
 
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 

特徴パターンを用いた機械学習の説明手法 (JSAI2019)