Soumettre la recherche
Mettre en ligne
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
•
2 j'aime
•
378 vues
K
Kohei Asano
Suivre
JSAI2019の発表スライド 「特徴パターンを用いた機械学習の説明手法」 の発表スライドです.
Lire moins
Lire la suite
Présentations et discours publics
Signaler
Partager
Signaler
Partager
1 sur 25
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
KDD2016勉強会 資料
KDD2016勉強会 資料
Toshihiro Kamishima
グラフデータの機械学習における特徴表現の設計と学習
グラフデータの機械学習における特徴表現の設計と学習
Ichigaku Takigawa
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
Yuto Mori
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
アンサンブル学習
アンサンブル学習
Hidekazu Tanaka
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
西岡 賢一郎
Recommandé
KDD2016勉強会 資料
KDD2016勉強会 資料
Toshihiro Kamishima
グラフデータの機械学習における特徴表現の設計と学習
グラフデータの機械学習における特徴表現の設計と学習
Ichigaku Takigawa
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
Yuto Mori
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
アンサンブル学習
アンサンブル学習
Hidekazu Tanaka
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
西岡 賢一郎
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)
MatsuiRyo
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
Hakky St
機械学習を民主化する取り組み
機械学習を民主化する取り組み
Yoshitaka Ushiku
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
Deep Learning JP
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
ブースティング入門
ブースティング入門
Retrieva inc.
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
The Japan DataScientist Society
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
線形?非線形?
線形?非線形?
nishio
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
Yuki Yamada
異常検知
異常検知
Yasuaki Sakamoto
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
Yuichi Yoshida
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
Contenu connexe
Tendances
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)
MatsuiRyo
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
Hakky St
機械学習を民主化する取り組み
機械学習を民主化する取り組み
Yoshitaka Ushiku
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
Deep Learning JP
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
ブースティング入門
ブースティング入門
Retrieva inc.
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
The Japan DataScientist Society
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
線形?非線形?
線形?非線形?
nishio
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
Yuki Yamada
異常検知
異常検知
Yasuaki Sakamoto
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
Yuichi Yoshida
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
Tendances
(20)
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
機械学習を民主化する取り組み
機械学習を民主化する取り組み
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
ブースティング入門
ブースティング入門
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
データサイエンティスト協会 木曜勉強会 #04 『クラスター分析の基礎と総合通販会社での活用例 〜 ビッグデータ時代にクラスター分析はどう変わるか 〜』
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
「統計的学習理論」第1章
「統計的学習理論」第1章
線形?非線形?
線形?非線形?
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
異常検知
異常検知
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
グラフィカルモデル入門
グラフィカルモデル入門
Similaire à 特徴パターンを用いた機械学習の説明手法 (JSAI2019)
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
okku apot
Introduction to statistics
Introduction to statistics
Kohta Ishikawa
解説#82 記号論理学
解説#82 記号論理学
Ruo Ando
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
確率的自己位置推定
確率的自己位置推定
Horiguchi Shuhei
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか
SAKAUE, Tatsuya
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
Maeshori missing
Maeshori missing
Daisuke Ichikawa
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
Deep Learning JP
Jsai2020
Jsai2020
Kohei Asano
質問応答システム入門
質問応答システム入門
Hiroyoshi Komatsu
Let中部2012シンポスライド
Let中部2012シンポスライド
Mizumoto Atsushi
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
Takuya Akiba
深層学習の数理
深層学習の数理
Taiji Suzuki
Similaire à 特徴パターンを用いた機械学習の説明手法 (JSAI2019)
(20)
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
Introduction to statistics
Introduction to statistics
解説#82 記号論理学
解説#82 記号論理学
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
確率的自己位置推定
確率的自己位置推定
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか
幾何を使った統計のはなし
幾何を使った統計のはなし
Maeshori missing
Maeshori missing
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
Jsai2020
Jsai2020
質問応答システム入門
質問応答システム入門
Let中部2012シンポスライド
Let中部2012シンポスライド
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
深層学習の数理
深層学習の数理
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
1.
特徴パターンを用いた 機械学習の説明手法 第33回 人工知能学会全国大会 東北大学 情報科学研究科 浅野孝平
2.
• 研究背景 • 分類問題における解釈性/説明性 •
分類モデルの予測結果への説明 • 先行研究 • 提案手法 • 計算機実験 • まとめ
3.
機械学習の普及 • スマートフォンの顔認証システム • スマートスピーカーの話者識別
などなど... 機械学習モデルのブラックボックス化 • 高い識別能力をもつ一方,モデルが複雑化 • モデルがブラックボックス化し,モデルの結論の根拠が説明できない • 医療,司法などの説明責任が求められる分野への応用が困難 研究背景 機械学習に対して,解釈性・説明性が求められている 解釈可能 / 説明可能な機械学習として研究が活発化 1
4.
• 解釈性・・・人間が理解できる挙動の分類モデルを構築(例:決定木,ルールモデル) • 説明性・・・ブラックボックスな分類モデルの結論の根拠となる特徴を予測 分類問題における解釈性/説明性 分類モデル𝑓 例:CNN 入力:
インスタンス𝑥 出力: 𝑓(𝑥) 𝑥の予測クラス ガチョウ (𝑝 = 0.96) 本研究では説明性について考える 2
5.
• 研究背景 • 先行研究 •
Local Interpretable Model-agnostic Explanations (LIME) • 解釈可能なデータ表現 • LIMEの問題点 • 提案手法 • 計算機実験 • まとめ
6.
• 分類モデル𝑓がインスタンス𝑥のクラスを予測する際の根拠となる特 徴の予測 Local Interpretable
Model-agnostic Explanations (LIME) LIME 分類モデル𝑓 (例:CNN, SVM) 説明がほしい インスタンス 𝑥 特徴 重要度 1 2 3 4 5 6 入力 出力 3
7.
• ブラックボックスな分類モデルの決定関数 (赤と 青の境界線)
を 線形モデル(破線) で近似 𝑔 𝐱 = 𝐰⊤ 𝐱 • 線形モデルは近傍のデータを用いて学習 • 線形モデルの重みから特徴の重要度を測る LIME LIMEの特長 • インスタンスの近傍で分類モデルを近似 (Local Interpretable) • 分類モデルの入出力関係だけから線形モデルを構築 → モデル依存性がない (Model-agnostic) 𝑔 4
8.
解釈可能なデータ表現 LIMEでは,インスタンス𝑥をバイナリベクトル𝐱に変換して扱う. • 𝑥 →
𝐱 = (1, 1,1, . . . , 1) d次元の1ベクトル • 𝐱′ ← 𝐱の1の要素をランダムに0に変換 • 𝑥′ ← 𝐱′ = (0,0,1, … , 1) d次元の{0,1} ベクトル • 𝑥′: 𝑥の近傍インスタンス • { 𝐱 𝐢 ′ , 𝑓 𝑥𝑖 ′ : 𝑖 = 1, … , 𝑁}: 訓練データ バイナリベクトルへの変換方法 • 数値データ • 数値を区間化する • 画像データ • 領域分割によってバイナリデータに変換 例:スーパーピクセル による領域分割 5 画像の場合の𝑥′ 0に対応する箇所は 黒塗り化
9.
LIMEの説明: 𝐰⊤ 𝐱
(線形モデルの重み=特徴の重要度) • 個々の特徴の重要度はわかるが,特徴の組み合わせ的な重要度は測れない. • 重要な特徴だけからなるインスタンスが必ずしも元のインスタンスと同じクラスに 分類されるとは限らない. LIMEの問題点 特徴 重要度 1 2 3 4 5 6 6 ← 2羽のダチョウの画像に対す るLIMEの説明 この画像を再度,CNNに入力す ると,ペーパータオルとして分類 される.
10.
• 研究背景 • 先行研究 •
提案手法 • 重要な特徴パターンの定義 • 極小パターンの探索 • 複数の極小パターンの探索 • 計算機実験 • まとめ
11.
提案手法 記法 • 𝑑 =
{1, … , 𝑑}:特徴 • 𝑒 ∈ 2[𝑑] ∖ ∅:特徴パターン • 𝑥 𝑒:パターン𝑒に対応するインスタンス • 𝑓 𝑥 ∼ 𝑓 𝑥 𝑒 :𝑓が𝑥と𝑥 𝑒を同じクラスだと分類する 予測の根拠となる特徴の組み合わせがわかる説明手法の提案 • 複数の重要な特徴パターン(特徴の集合)を用いて説明 • 重要な特徴パターンから,予測結果を再現できる説明 7 LIMEの解釈可能な表現に対応
12.
重要な特徴パターンの定義 「𝑓が𝑥の予測クラスの導出に使う必要最低限な特徴からなるパターン」 を重要な特徴パターンとし,極小パターンと呼ぶ → 提案手法をMinimal Pattern
LIME (MP-LIME) と呼ぶ 極小パターン𝒆 𝐦𝐢𝐧の定義 特徴パターン𝑒のうち,𝑥 𝑒が𝑥と同じクラスに分類され,𝑒のいずれか ひとつの特徴を取り除いたインスタンス𝑥 𝑒∖ 𝑖 が,𝑥と異なるクラスに 分類されるもの. 𝑓(𝑥 𝑒min ) ∼ 𝑓(𝑥) ∀𝑖 ∈ 𝑒min, 𝑓(𝑥 𝑒min∖ 𝑖 ) 8
13.
極小パターンの探索 1. {1, …
, 𝑑}を初期状態として,近傍パターン 𝑒 ∖ 𝑖 をモデル𝑓で評価 • 𝑓(𝑥 𝑒∖ 𝑖 )を計算 2. 近傍パターンのうち,最も評価値の高いパ ターンを次の状態として,再度,近傍パ ターンを評価 • 評価値:確率や決定関数値などの出力 3. 評価パターン𝑒が極小であるとき,𝑒を出力 𝑓(𝑥 𝑒 ) ∼ 𝑓(𝑥) ∀𝑖 ∈ 𝑒, 𝑓 𝑥 𝑒∖ 𝑖 赤枠:𝑥と異なるクラスに分類 青枠:𝑥と同じクラスに分類 𝑑 = 4の場合 9
14.
複数の極小パターンの探索 • 極小パターンは複数個存在しうる • 複数の特徴パターンが,予測に影響 している場合には,ひとつの極小パ ターンの提示では不十分 →
ただし,全部見つけるのは困難.全特 徴パターンは2 𝑑 通りある • そこで,極小パターンを 𝐿個見つける まで探索を行う. → 𝐿 ∈ ℕはパラメータ赤枠:𝑥と異なるクラスに分類 青枠:𝑥と同じクラスに分類 10
15.
複数の極小パターンの探索 • 極小パターンになりえないパターンを探索 空間から削除する. 𝑒min ⊂
𝑒 • 探索空間のなかで,次に評価値の高いパ ターンから,再度探索を行う. • 既に評価したパターンは評価しない. • 最大L個の極小パターンを説明として出力 11
16.
複数の極小パターンの探索 • 極小パターンになりえないパターンを探索 空間から削除する. 𝑒min ⊂
𝑒 • 探索空間のなかで,次に評価値の高いパ ターンから,再度探索を行う. • 既に評価したパターンは評価しない. • 最大L個の極小パターンを説明として出力 11
17.
• 研究背景 • 先行研究 •
提案手法 • 計算機実験 • 説明能力の定量評価 • 画像分類への応用 • まとめ
18.
計算機実験 実験内容 • 説明能力の定量評価 • 画像分類への応用 先行研究のLIMEと提案手法の MP-LIMEの説明結果の比較 実装 •
プログラミング言語:Python 3.6 • ライブラリ:numpy, scipy, scikit-learn • 計算機仕様 • OS: Ubuntu 18.04 • CPU: Intel Core i7-6700 (3.40 GHz) • RAM: 8.0 GB 12
19.
説明能力の定量評価 (設定) 実験概要 • レビューデータ
(book, DVD) の評価 (良い/悪い) を予測する決定木を構築 • レビューデータはWord-One-Hot表現でベクトル化 • 予測にどの特徴を用いるかを説明器で予測 評価指標 Recall = |𝑇 ∩ 𝑃| |𝑇| Precision = |𝑇 ∩ 𝑃| |𝑃| • T={実際に予測に寄与した特徴},P={説明器が予測した特徴} Time = 1つのインスタンスの説明にかかる時間[sec] パラメータ: LIME:𝑁 = 10000 (近傍データ数), MP-LIME: 𝐿 = 5 13
20.
説明能力の定量評価 (結果) LIME MP-LIME Book
19.03 3.87 DVD 18.26 2.38 Recall Precision Time [sec] LIME MP-LIME Book 0.115 0.750 DVD 0.109 0.715 LIME MP-LIME Book 0.922 0.869 DVD 0.924 0.878 RecallはLIMEがやや高い Recallが高い → 実際に使われた特徴を予測できている PrecisionはMP-LIMEが高い Precisionが高い → 予測した特徴が実際に予測に使われている MP-LIMEが高速 14
21.
画像分類への応用 (設定) • 左の画像を画像分類モデル (Inception-v3)で識別. •
ガチョウとして識別(𝑝 = 0.96) • スーパーピクセルで領域分割 して解 釈可能な表現として扱う (𝑑 = 40) • 𝑝goose > 0.2ならば,ガチョウと識別さ れたとみなす. 𝑓 𝑥 𝑒 ∼ 𝑓 𝑥 ⇔ 𝑝goose > 0.2 15
22.
画像分類への応用 (結果) • 2羽のガチョウがそれぞれ極小パ ターンとして出力されている. •
複数の特徴パターンが予測に影響して いる場合でも,それぞれのパターンを検 知できる. • 各パターンがそれぞれガチョウとして 識別される. • 極小パターン1:𝑝 = 0.40 • 極小パターン2:𝑝 = 0.56 ← MP-LIMEの説明 LIMEの説明 → 16
23.
• 研究背景 • 先行研究 •
提案手法 • 計算機実験 • まとめ
24.
まとめ • 複数の極小パターンを用いた説明手法の提案 • 予測の根拠となる特徴パターンを提示できる. •
複数の特徴パターンが予測に寄与している場合でも対応できる • 説明能力の定量評価では,Precisionの改善と,計算時間の高速化 を確認 • 画像分類への応用での有効性の検証 17
25.
Appendix AppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixApp endixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendi xAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAp pendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppen dixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixA ppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppe ndixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix AppendixAppendixAppendixAppendixAppindixAppendixAppendixAppendixAppendixAppe ndixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix AppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixApp endixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendi xAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAp pendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppen dixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixA ppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppe ndixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix AppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendixAppendix
Télécharger maintenant