14. ● 本質的解釈性
▸ グローバル
✓ Programmatically Interpretable Reinforcement Learning, ICML 2018
▸ ローカル
✓ Hierarchical and Interpretable Skill Acquisition in Multi-task Reinforcement Learning,
ICLR 2018
● 事後的解釈性
▸ グローバル
✓ Toward Interpretable Deep Reinforcement Learning with Linear Model U-Trees,
ECML-PKDD2018
▸ ローカル
✓ Explainable Reinforcement Learning Through a Causal Lens, AAAI2020
紹介する論文
14
15. ● Toward Interpretable Deep Reinforcement Learning with Linear Model U-Trees
▸ ECML-PKDD 2018
▸ Guiliang Liu, Oliver Schulte, Wang Zhu, Qingcan Li
▸ School of Computing Science, Simon Fraser University
● 概要
▸ DRLのQ関数を表現力を高めた木構造ベースのモデルで模倣・近似
▸ 木構造モデルの解釈性の高さを利用して学習した解釈(知識,ルールなど)を結果を得る.
▸ 事後的に解釈を得る形と学習中にモデルの解釈性を得る両方の選択肢がある(Instrisic / Post hoc)
▸ モデル自体の説明性ではなく,1サンプルに対する解釈性を得る(ローカル)
▸ 出力される解釈性の形式:各特徴量に対する重み
15
概要
22. ● エージェントがbuild supply depotsと言う行動
を取った場合
● エージェントが取った行動ではない行動に関す
る質問: Why not build_barrak(Ab)?
● 実際:
● 反事実:
● -> Sに差異
● A: Because it is more desirable to do action
build_supply_depot (As) to have more Supply
Depots (S) as the goal is to have more
Destroyed Units (Du) and Destroyed buildings
(Db).
● 本論文では出力した解釈性に対して人間による
評価も実施. 22
例