SlideShare une entreprise Scribd logo
1  sur  20
2021/09/25
XAI (説明可能なAI) の必要性
自己紹介
✤ 名前: 西岡 賢一郎
✤ 鹿児島出身、一児のパパ
✤ Twitter: @ken_nishi
✤ note: 西岡賢一郎@研究者から経営者へ (https://note.com/kenichiro)
✤ YouTube: 【経営xデータサイエンスx開発】西岡 賢一郎のチャンネル (https://www.youtube.com/channel/UCpiskjqLv1AJg64jFCQIyBg)
✤ 経歴
✤ 東京大学で位置予測アルゴリズムを研究し博士 (学術) を取得
✤ 東京大学の博士課程在学中にデータサイエンスをもとにしたサービスを提供する株式会社トライディアを設立
✤ トライディアを別のIT会社に売却し、現在CTOを務める
✤ 自社および他社のプロダクト開発チーム・データサイエンスチームの立ち上げ経験
今回の内容
✤ 機械学習で説明責任が求められる背景
✤ XAIと2つの説明
✤ 説明可能性は本当に必要か
機械学習で説明責任が求められる背景
高性能AIが誕生する時代
✤ 近年、AIの性能は飛躍的に向上している
正答率99%の超高性能AI
高度なアルゴリズム
高性能な計算マシン
大量のデータ
ブラックボックスなAI
高性能のAIができたとしても、AIがブラックボックスだと使えないことも
プランAをやりましょう!
なるほど、その根拠は?
AIが判断しました!
判断基準は不明です!
・・・
プランA
説明責任はどんなときに必要か
✤ 人間が納得する必要があるとき (医療現場や犯罪予防など)
✤ AIにより導き出された結果を用いて、次に何かしらのアクションを人間起こすとき
✤ そもそもAIが正しく動いているかを理解したいとき
ブラックボックスなAIの導き出した
答えを信じて会社が潰れた
AIが不得意なこと
AIは高精度の予測ができるが、どのように判断したかを人間に分かるように
説明ができるわけではない
xをいい感じになめらかな曲線のf(x)で
変換するとyが出てきます。
AIの判断に説明責任が求められる → 説明可能なAI (eXplainable AI)
(何言ってんだこいつ?)
XAIと2つの説明
XAI (eXplainable AI)とは
AIが予測結果を導き出した過程が人間が理解できるように表現できる
「y = 3 x」 の関係なので、
x = 2のときはy = 6です。
理解できる!!
機械学習のイメージ(教師あり学習の例)
目的変数を生み出す関数を明らかにしていくのが機械学習の目的
インプット
(説明変数)
アウトプット
(目的変数)
未知の関数
機械学習によるフィッティング
インプット
(説明変数)
アウトプット
(目的変数)
学習した関数
学習した関数がどのような挙動を示すかを「説明する」必要がある
機械学習では未知の関数をデータを元に推定していく
説明可能性とは
単純な関数であれば説明しやすい
複雑な関数だと説明が難しい
“人間が理解できる”ように説明をすることが必要となる
2つの説明
✤ 大域的な説明:モデル全体の振る舞いを説明する
✤ Feature Importance (Gini Impurity)
✤ Permutation Feature Importance
✤ 局所的な説明:特定のインプットに対してどうやってアウトプットが出たか説明す
る
✤ LIME: 局所的に線形近似
✤ SHAP: 協力ゲーム理論
例: モデルが重視している
特徴量はどれか
例: ある予測のときに重視された
特徴量はどれか
局所的な説明
モデル全体は複雑でも一部の判断基準が分かれば良い!!
このデータが正と判断された
根拠を知りたい
境界は複雑で説明が困難
局所的に解釈しやすい
モデルを使って近似
簡単な境界だから説明が簡単
説明可能性は本当に必要か
ブラックボックスを許容する
✤ あくまでも目的とするのが予測精度の高さであれば、人間が理解しなくてもよいという判断もある
✤ 説明可能なモデルにこだわりすぎると、人間の理解の限界がモデルの限界を決めてしまうことにな
り、予測精度がそこそこになってしまう
✤ 逆に、予測精度をそこそこにして説明可能性を重視してもよい
高い予測精度
説明不可能
そこそこの予測精度
説明可能
どちらを優先する?
ブラックボックスを許容するときの注意点
高すぎる性能は、ときとして使えないモデルを作っていたりする
✤ オーバーフィッティング
✤ クロスバリデーションによって回避
✤ リーケージ
✤ 時系列情報を使った回避もある
✤ 気づけないことが多い
未知のデータは知らん!
オーバーフィティング
答えを見て学習しよっと
リーケージ
まとめ
✤ AIは予測は得意だが、人間が分かるように予測モデルの説明をしてくれるわけではない
✤ AIの予測結果を用いて人間が次のアクションに繋げる必要があるときなどに、AIの中身を理解
したいときにXAIが必要となる
✤ XAIでは、人間が理解しやすいモデルでAIを表現する
✤ XAIでは大局的な説明と局所的な説明があり、前者はモデルの全体の振る舞いを説明し、後者は
特定のインプットに対する予測の過程を説明する
✤ ブラックボックスを許容して、説明可能性を捨てて予測精度を取る選択肢もありうる
✤ ブラックボックスを受け入れる場合は、オーバーフィッティングやリーケージに特に気をつけ
る
参考資料: YouTube, note
目的達成のためにブラックボックスを許容する
https://note.com/kenichiro/n/n1be20b7897b2
AIを意思決定に使うために必要な説明可能性
https://note.com/kenichiro/n/n620bb074d0b0
【機械学習】XAIを実現するLIME ~ 説明可能なAIとは
https://youtu.be/LCdxKGVGN4c
【機械学習】協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP
https://youtu.be/6iq4R_NJqKE
【機械学習】非現実的に高い精度のモデルにならないために
リーケージを避ける方法
https://youtu.be/vrcai7QvVn0
YouTube Note

Contenu connexe

Tendances

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 

Tendances (20)

強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会]Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
[DL輪読会]Bayesian Uncertainty Estimation for Batch Normalized Deep Networks[DL輪読会]Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
[DL輪読会]Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
カルマンフィルタ入門
カルマンフィルタ入門カルマンフィルタ入門
カルマンフィルタ入門
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
 
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 

Similaire à XAI (説明可能なAI) の必要性

Similaire à XAI (説明可能なAI) の必要性 (20)

機械学習の技術的負債
機械学習の技術的負債機械学習の技術的負債
機械学習の技術的負債
 
H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門
 
H2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoMLH2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoML
 
AutoGluonではじめるAutoML
AutoGluonではじめるAutoMLAutoGluonではじめるAutoML
AutoGluonではじめるAutoML
 
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解するFeature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
 
機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store
 
Amazon SageMaker JumpStart
Amazon SageMaker JumpStartAmazon SageMaker JumpStart
Amazon SageMaker JumpStart
 
Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習
 
未来のカタチ x AI
未来のカタチ x AI未来のカタチ x AI
未来のカタチ x AI
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説
 
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
 
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用するAmazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
 
Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論
 
Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介
 
Amazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成するAmazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成する
 
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
 
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
 
Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習
 
Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介
 
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化するAmazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
 

Plus de 西岡 賢一郎

Plus de 西岡 賢一郎 (9)

リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待
 
リモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのことリモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのこと
 
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきことPMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
 
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
 
ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか
 
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
 
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
 

Dernier

Dernier (10)

知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 

XAI (説明可能なAI) の必要性

Notes de l'éditeur

  1. それでは早速ですが、私の発表の方に入らせていただきます。 今回私からは、XAI (説明可能なAI) の必要性についてお話しします。
  2. こちらが私のプロフィールです。 もともとは機械学習のアルゴリズムを大学院で研究しており、博士課程の途中で起業しました。 現在は、立ち上げた会社を売却した先でCTOとして勤務しています。 今までおもにプロダクト開発やデータサイエンスチームの立ち上げや支援をやってきました。 業務外では、この勉強会の開催や、YouTubeやnoteで機械学習やスクラムの話の解説をしています。
  3. ディープラーニングなどの高度なアルゴリズムや高性能な計算マシン、そして大量のデータが手に入るようになり、高性能なAIがどんどん登場しています。 もはや、高性能なAIに判断を任してしまえば、全てがうまくいくような感じもします。 正答率が99%のAIがあれば、それを使ってしまえばいいような気もしてしまいますよね。
  4. しかし、実際は、AIが出してきた何かしらの予測をそのまま使おうとしても、AIがなぜその判断をしたのか理由をつけられないときAIの判断をそのまま受け入れることができないことも多い。 例えば、ビジネスで意思決定をするときに、高性能だが中身がよくわかっていないAIのいうことをそのまま上司に提案しても、導き出された結論に対する根拠がブラックボックスだから分かりませんと言ってしまっては、無責任だと思われ、提案を却下されてしまいます。
  5. AIに対する説明責任は、人間が納得する必要があるときや、AIにより導き出された結果を用いて、次に何かしらのアクションを起こすときや、AIが正しい挙動をしているかを理解したいときなどに必要となります。 AIの説明責任では、医療の例がよく出される事が多いです。 ガンだと診断されて、その理由を医者に聞いてもAIが判断したので分かりませんと言われたら、その医者を信頼することは難しいですよね。
  6. 冒頭に述べたように、アルゴリズムの進化など様々な変化により、AIは飛躍的な進化を遂げてきています。 しかし、性能の進化とともに、AIで使われているモデルの複雑化が進み、ブラックボックス化はより深刻になってきています。 AIを使う人達は、高精度の予測ができるAIが、必ずしも人間への説明が得意ではないことを知る必要があります。 機械の中では最適化された妥当な予測だったとしても、人間には難し過ぎて理解ができないということです。 これがAIがブラックボックスだと言われる所以です。 このブラックボックスをできる限り説明できるようにしたいというのが、説明可能なAI, XAIが登場した背景となります。
  7. では、ここからはXAIと2つの説明についてお話します。
  8. XAIはeXplainable AIの略で、ここ数年で特に着目されてきている技術です。 Inputが2で導き出された答えが6だった場合に、y=3xで計算しましたというのであれば、人間でも理解しやすいものですよね。
  9. ここで機械学習の挙動をイメージできるように、教師あり学習を例にして、機械学習の目的を簡単に説明します。 教師ありの機械学習では、インプットとアウトプットが与えられます。 ECサイトの例で言えば、インプットは購買履歴、アウトプットは特定の商品を買うかどうかなどがあります。 ここで、インプットが何かしらの未知の関数で変換された結果アウトプットが出てくるという構造を、機械学習では解き明かします。 つまり、このフローの真ん中の関数を推定するというのが機械学習が目的ということです。
  10. 未知の関数は、インプットとアウトプットをもとに推測されていきます。 これによって学習された関数が出来上がるということです。 もちろん、インプットとアウトプットだけでは、もとの未知の関数を完全に再現できるわけではないので、目的となる未知の関数にできる限り近い関数が、学習に得られるというわけです。 この学習した関数がどんな挙動を示すかを説明する必要をすることを目的とするのがXAIです。
  11. ここで、学習した関数を説明するときに問題が出てきます。 学習した関数が単純であれば、もちろん簡単に説明ができます。 しかし、学習した関数が複雑である場合、説明が難しくなります。 この説明しやすさが、説明可能性と呼ばれるものです。 説明可能性では、人間が理解できるように説明することが必要となります。
  12. 説明可能性で出てくる説明は大きく分けて2つの種類が存在します。 1つは大域的な説明で、モデル全体の振る舞いを説明するものです。 Feature importanceと呼ばれるものなどがよく使われるものですね。 ジニ不純度という指標を使ったり、特徴量を増減して予測精度の変化を見ることで、モデルが重視している特徴量を明らかにしていいきます。 もう一つは、局所的な説明で、特定のインプットがどのようなプロセスを経てアウトプットになったかを説明します。 有名なアルゴリズムとしては局所的な線形近似を行うLIMEや協力ゲーム理論の公平な分配方法を用いたSHAPなどがあります。 モデル全体は知らなくてもいいから、ある予測がどんな根拠で出されたかを知りたい場合などに、局所的な説明は役に立ちます。 大域的な説明と局所的な説明と聞くと、全体が説明できる大域的説明のほうがいいのではないかと思う人もいるかもしれませんが、目的が異なるのでどちらが秀でているとかではありません。
  13. 局所的な説明に関して、少しわかりにくい部分もあるかと思うので、もう少しだけ補足しておきます。 教師あり学習で複雑なアルゴリズムを使うと、正と負の境界が複雑に入り組んで、境界を人間にわかるような説明に変換することが難しいです。 そこで、局所的な説明では、特定の予測の予測に関しての説明のみに注目します。 よくやられる方法では、対象となる予測の周辺のデータを持ってきて、線形モデルなど解釈が容易なアルゴリズムを用いて局所的にフィッティングをします。 全体の予測を表すことはできないが、近いデータとなぜ差が出たかを理解することで、局所的な説明を実現していきます。
  14. ここまで、説明可能性などについて話してきたのですが、そもそも説明可能性が本当に必要かどうかについてお話します。
  15. もし、AIを使う目的が、予測精度がとにかく高いものを使いたいというのであれば、人間が無理に理解できるようにしないという判断もあります。 説明可能なモデルにこだわりすぎてしまうと、人間の理解の限界がモデルの限界を決めてしまいます。 その結果、高精度の予測ではなく、そこそこの予測精度のモデルになってしまいます。 ただ、逆に予測精度はそこそこでいいので、説明可能性を重視するという選択肢もありうるということです。 これらは一般的にトレードオフの関係になるので、ブラックボックスで高い精度がいいのか、それともそこそこの精度で説明可能性を求めるかは、プロジェクトの目的に合わせて考えてみてください。
  16. もし説明可能性よりも予測精度が重要だとおいうことでモデルのブラックボックスを許容するという判断になった場合は、モデルが不当に高い予測精度になっていないかに気をつける必要があります。 高い精度だったけれど、よくよく調べてみたらオーバーフィッティングやリーケージが発生していたというのはよくある話です。 こうならないためにも、オーバーフィッティングをさけるためにクロスバリデーションを必ず避けたり、リーケージを割けるためにデータの時系列情報を用いたりします。 とくにリーケージは気づけないことも多いため注意が必要です。
  17. 最後にまとめをします。 AIは予測は得意ではあるけども、必ずしも人間が分かるように、予測モデルを説明してくれるわけではありません。 そのため、AIが導き出した予測結果を用いて、何かしらのアクションを人間が取る場合などは、AIがなぜその予測結果を出したのかを人間が理解する必要があります。 そこで出てくるのが今回のテーマである説明可能なAI (XAI) です。 XAIでは、人間が理解しやすいモデルを使ってAIを表現します。 XAIでは、大きく分けて2つの種類の説明があります。 1つが大局的な説明で、モデル全体の振る舞いを説明します。 もう1つが局所的な説明で、特定のインプットに対する予測の過程を説明します。 XAIは、必ずしも必要というわけではなく、AIのブラックボックスを許容して説明可能性を捨てて、予測精度をとにかく向上させるという選択肢もあります。 その場合は、オーバーフィッティングやリーケージがわかりにくくなることもあるので、特に気をつけておく必要があります。