SlideShare a Scribd company logo
Soumettre la recherche
Mettre en ligne
SHAP値の考え方を理解する(木構造編)
Signaler
Partager
K
Kazuyuki Wakasugi
none à Mitsubishi Heavy Industries
Suivre
•
6 j'aime
•
12,591 vues
1
sur
12
SHAP値の考え方を理解する(木構造編)
•
6 j'aime
•
12,591 vues
Signaler
Partager
Télécharger maintenant
Télécharger pour lire hors ligne
Données & analyses
SHAPライブラリの計算の仕組みを知るために、木構造を対象とした論文を読み、理解できた内容をまとめた。
Lire la suite
K
Kazuyuki Wakasugi
none à Mitsubishi Heavy Industries
Suivre
Recommandé
グラフィカルモデル入門 par
グラフィカルモデル入門
Kawamoto_Kazuhiko
117.8K vues
•
67 diapositives
深層学習の不確実性 - Uncertainty in Deep Neural Networks - par
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
11.7K vues
•
137 diapositives
機械学習モデルの判断根拠の説明(Ver.2) par
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
47.9K vues
•
81 diapositives
【DL輪読会】ViT + Self Supervised Learningまとめ par
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
4K vues
•
52 diapositives
BlackBox モデルの説明性・解釈性技術の実装 par
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
22.5K vues
•
96 diapositives
AHC-Lab M1勉強会 論文の読み方・書き方 par
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
47.5K vues
•
65 diapositives
Contenu connexe
Tendances
BERT入門 par
BERT入門
Ken'ichi Matsui
7.5K vues
•
36 diapositives
全力解説!Transformer par
全力解説!Transformer
Arithmer Inc.
9.5K vues
•
43 diapositives
深層生成モデルと世界モデル par
深層生成モデルと世界モデル
Masahiro Suzuki
16.6K vues
•
57 diapositives
Bayesian Neural Networks : Survey par
Bayesian Neural Networks : Survey
tmtm otm
5K vues
•
68 diapositives
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 par
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
16K vues
•
38 diapositives
【メタサーベイ】数式ドリブン教師あり学習 par
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
5.9K vues
•
33 diapositives
Tendances
(20)
BERT入門 par Ken'ichi Matsui
BERT入門
Ken'ichi Matsui
•
7.5K vues
全力解説!Transformer par Arithmer Inc.
全力解説!Transformer
Arithmer Inc.
•
9.5K vues
深層生成モデルと世界モデル par Masahiro Suzuki
深層生成モデルと世界モデル
Masahiro Suzuki
•
16.6K vues
Bayesian Neural Networks : Survey par tmtm otm
Bayesian Neural Networks : Survey
tmtm otm
•
5K vues
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 par Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
•
16K vues
【メタサーベイ】数式ドリブン教師あり学習 par cvpaper. challenge
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
•
5.9K vues
画像キャプションの自動生成 par Yoshitaka Ushiku
画像キャプションの自動生成
Yoshitaka Ushiku
•
58K vues
グラフニューラルネットワーク入門 par ryosuke-kojima
グラフニューラルネットワーク入門
ryosuke-kojima
•
51.4K vues
【DL輪読会】Scaling Laws for Neural Language Models par Deep Learning JP
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
•
3.5K vues
【論文紹介】How Powerful are Graph Neural Networks? par Masanao Ochi
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
•
3.9K vues
機械学習による統計的実験計画(ベイズ最適化を中心に) par Kota Matsui
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
•
13.1K vues
最適化超入門 par Takami Sato
最適化超入門
Takami Sato
•
174.7K vues
Transformer メタサーベイ par cvpaper. challenge
Transformer メタサーベイ
cvpaper. challenge
•
27.3K vues
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat... par 西岡 賢一郎
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
•
1.9K vues
最適輸送入門 par joisino
最適輸送入門
joisino
•
11.5K vues
[DL輪読会]Understanding Black-box Predictions via Influence Functions par Deep Learning JP
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
•
6.1K vues
機械学習のためのベイズ最適化入門 par hoxo_m
機械学習のためのベイズ最適化入門
hoxo_m
•
185.6K vues
Optimizer入門&最新動向 par Motokawa Tetsuya
Optimizer入門&最新動向
Motokawa Tetsuya
•
23K vues
cvpaper.challenge 研究効率化 Tips par cvpaper. challenge
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
•
21.3K vues
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) par RyuichiKanoh
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
•
25.6K vues
SHAP値の考え方を理解する(木構造編)
1.
SHAP値の考え方を理解する 木構造編
2.
概要 SHAPライブラリの計算の仕組みを知るために、木構造 を対象とした以下の論文を読んだ Consistent Individualized
Feature Attribution for Tree Ensembles https://arxiv.org/pdf/1802.03888.pdf まだ理解できていない部分はあるが、重要そうな考え方 は理解できたので本資料を作成してみた
3.
SHAP値って何? SHapley Additive
exPlanationsの略 ゲーム理論で用いられる考え方をベースにしている 予測の時にどの説明変数が影響したかを示すことがで きる(Feature importances_の予測バージョン) https://github.com/slundberg/shap より 例えば、PTRATIOが15.3であ ることやLSTATが4.98であるこ とは 予測値を増やす要因となってい ることが読み取れる
4.
SHAPの使い方 Pip install
shapから簡単に使える。以下のURL等を参 照 公式ドキュメント https://github.com/slundberg/shap https://shap.readthedocs.io/en/latest/# 自作ブログ https://own-search-and-study.xyz/2019/10/05/shap-all- methods/
5.
SHAP値の計算に必要なこと 「ある特徴量は予測にどう貢献したか」を計算する必要 がある ⇒ゲーム理論の考え方(Shapley value)を使う(次ページ) 特徴量Aなしの 予測値⇒0.5 特徴量Aありの 予測値⇒0.8 特徴量AのSHAP 値⇒0.3 この部分をどう算出するか?
6.
SHAP値の基本的な考え方 特徴量iがあることで、予測がどのように変わったかを全 組み合わせについて算出して平均をとる https://ja.wikipedia.org/wiki/%E3%82%B7%E3%83%A3%E3%83%BC%E3%83%97%E3%83%AC%E3%82%A4% E5%80%A4 より 特徴量iのSHAP値 S+iの特徴量で予測した 場合の結果と、Sの特徴 量で予測した結果の差正規化係数 iを使わないすべて の組み合わせ i:SHAP値を求めたい特徴量 M:特徴量の総数 N:特徴量の全組み合わせの集合(順番考慮) S:特徴量iを含まない全組み合わせの集合の1つ(順番考慮) fx:予測モデル
7.
Sのイメージ 特徴量A,B,Cがあり、CのSHAP値を求めたいとするとS は以下の候補がある(Φは空集合) Cがどのような状況で追加されたかの全てを考慮すると いう考え方 Case
順番 S 1 ABC {A, B} 2 ACB {A} 3 BAC {B, A} 4 BCA {B} 5 CAB {Φ} 6 CBA {Φ} 全順列を考えて、 Cより前にあるもの を抽出したのがS
8.
何故Shapley valueの考え方が必要なのか? https://arxiv.org/pdf/1802.03888.pdf より
論文では、Shapley valueの考え方がないと、似たような モデルで一貫性のある結果が出ないと主張している ほぼ同じことを表した2つのモデル (熱と咳が出るなら風邪) 影響度の解釈が、モデルA/BでSHAPは一貫しているが、 従来ロジック(Saabas)では倍半分違う
9.
ここまでの流れをドラゴンボールで説明 悟空(G)、ピッコロ(P)、ヤムチャ(Y)が交代でフリーザ軍 1000人を相手にするシチュエーションにおいてヤムチャ の貢献を定量化したい。 単純にはヤムチャが何人倒すかを見ればよさそうだ。
ヤムチャが何番目に登場するかで貢献度は変わる。 Case 順番 S Fx(S) Fx(S∪Y) ヤムチャが 倒した人数 1 GPY {G, P} 1000人 1000人 0人 2 GYP {G} 1000人 1000人 0人 3 PGY {P, G} 1000人 1000人 0人 4 PYG {P} 900人 960人 60人 5 YPG {Φ} 0人 300人 300人 ヤムチャのSHAP値 =110人 (0+0+0+60+300+300) /6
10.
具体的なSHAP値の算出(その1) fx(S)=E[f(x)|xS]を以下のアルゴリズムで求めるとする 木を辿っていって、最後についたノードの値を返すアルゴリズム。ただし、モデル の分岐の特徴量がSに選ばれていない場合データ量の重みづけて両方を辿った 場合を考慮する x:特徴量の値 S:特徴量の部分集合 以下は、ノード数のベクトル v:ノードの目的変数の値 a:子ノードのindex(左) b:子ノードのindex(右) t:ノードの分岐の値 r:ノードのデータの量 d:ノードの特徴量のindex 葉にたどり着いた時の処理 葉にたどりつくまで時の処理 モデルの分岐の特徴量がSに 選ばれていない場合の処理
11.
具体的なSHAP値の算出(その2) Sの組み合わせは、各特徴量を使う/使わないの組み合わせとなるため、すべて の特徴量のSHAP値を求めるためには、2Mの計算を実施する必要がある 論文では、計算を工夫することで多項式時間で計算するアルゴリズムを検討した 長いので、詳細の解読は断念 一度の計算で、すべてのSを考慮しながら 計算する作りになっている
12.
今後の予定 SHAPライブラリのツリー構造以外の理論を追いかける ツリー構造のアルゴリズム2の中身を理解する