Contenu connexe
Similaire à Igai san gpu-dl_community_12
Similaire à Igai san gpu-dl_community_12 (20)
Plus de Hirokuni Uchida (9)
Igai san gpu-dl_community_12
- 1. © Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
組込ソリューション事業部
2019/10/30
猪貝 光祥
AIの品質保証に関する最新動向
GPU Deep Learning Community #12
- 2. 1© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1. Deep Learningアプリケーションの品質保証に関する最新動向
- 3. 2© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
AI開発用 エッジプラットフォーム Nvidia
Tensor Coreの積極活用
Drive Xavier /
Jetson Xavier
Jetson TX2
GPU
CudaCore
512Cores
1.5TOPS(FP32)
3.0TOPS(FP16)
6.1TOPS(INT8)
256Cores
0.6TOPS(FP32)
1.3TOPS(FP16)
TensorCore
64Cores
12.2TOPS(FP16)
24.5TOPS(INT8)
-
CPU
Carmel 8Cores
36.2GFLOPS(FP32)
ARM A57 4Cores
+ Denver2 2Cores
24.0GFLOPS(FP32)
MEMORY
16GB 256bit LPDDR4
137GByte/sec
8GB 128bit LPDDR4
59.7GByte/sec
- 4. 3© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
自動走行アプリケーションにおけるGPU活用
Camera based self-driving app.
Object Detection
&
Recognition
Localize
&
Dynamic Map
Path Planning
CPU 8core
CUDA core
Tensor core
DLA
CNN Detector
Visual SLAM
Process control
Stereo Disparity
Lattice plan
CNN depth
Cost on MAP
- 5. 4© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-0 AIの品質保証に関わる諸課題 例1
【利用者視点】
認識率向上
人の認識率を上げるために人の学習データを追加して学習を実施したが、
車のConfidence値が低下した。
人の学習データを
追加して学習
Confidence値 83% Confidence値 54%
- 6. 5© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-0 AIの品質保証に関わる諸課題 例2
【利用者視点】
追加学習データ
Confidence値
46%
夜間
追加学習
Confidence値
13%
Confidence値
66%
Confidence値
0%
- 7. 6© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-0 AIの品質保証に関わる諸課題 例3
【 AI開発ベンダー視点】
しきい値設定
• しきい値を下げて、Recallを上げると誤認識が増える。
• しきい値を上げて、Precisionを上げると未検出が増える。
- 8. 7© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-0 AIの品質保証に関わる諸課題 例4
【 AI開発ベンダー視点】
推論結果説明
+オリジナル
ノイズ
ノイズ付加画像
=
オリジナル
認識結果 ノイズ付加画像
認識結果
- 9. 8© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-1 Deep Learning の品質保証に関わる諸課題
・Your AI is Black-Box?
・Your training data-set is sufficient?
認識率を100%にするには?なぜ誤認識したか? DB
fault
膨大化する教師データ意思決定プロセスの説明
- 10. 9© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-2 AIの品質に関わる議論
人間らしいAI説明可能なAI
(eXplainable AI)
VS.
結論しか出さないAIは使えない
Black-Boxを透明化
コンパクトな学習データ
説明責任
人の判断にも間違いや感情の
Biasが掛かっている
DNNは脳の一部を模擬
思考プロセスを説明できる?
人は判断を事後説明
- 11. 10© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-3 Deep Learningの説明責任に関わる最新技術
根拠説明の種別
重視した特徴量 重視した教師データ
機械学習
モデル
ニューラルネット型
• DNN
• CNN
• etc
aa
アンサンブルツリー型
• Randomforest
• XGBoost
• etc
aa
LIME,
SHAP,
IntGrad,
MIDP
Influence
Function
Influence
Boosting
DeepLift,
LRP,
GuidedBP,
Grad-CAM,
ヒートマップ
・近年、様々なタイプのBlack Box解析技術が登場
・当社では分類用XAI(Explainable AI)を物体検出に適用し、認識率の向上に利用
・XAIで認識理由や誤認識理由を解析・分析し、教師データの改善
- 12. 11© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-4 Black Box 回避のための最新技術
AI
Black Box
教師データ
学習
AI判断
どの教師が
貢献したか
どの特徴で
判断したか
重
要
度
1 2 3 4 5 6 特徴量
テストデータ
スライド1-5スライド1-7
・Black Boxの判断根拠を分析する技術が急進展
・「なぜ誤判定したのか」, 「教師データをどう調整すれば良いか」のヒントに
- 13. 12© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-5 AI判断に使った特徴量の抽出 LIME(1)
Class Confidence
Sports car 0.92
Class Confidence
Sports car 0.90
推論画像/推論結果 着目点
どの部分に着目しているか
を解析できる
LIME(Local Interpretable Model-agnostic Explanations)
- 14. 13© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-5 AI判断に使った特徴量の抽出 LIME(2)
推論画像/推論結果 着目点
Class Confidence
Minivan 0.83
Class Confidence
Sports car 0.63
Confidenceを下げる要因
→教師データに不足している特徴量
- 15. 14© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
Class Confidence
Sports car 0.63
(1) Super Pixel
Confidence:0.70 Confidence:0.00
・・・
(2) Super Pixelをサンプリング、推論
推論結果
(3) 着目点
1-5 AI判断に使った特徴量の抽出 LIME(3)
LIME(Local Interpretable Model-agnostic Explanations)
- 16. 15© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-6 AI判断に使った特徴量の抽出 Grad-CAM(1)
Grad-CAM 物体検出適用方法
Loss
正解データTarget
layer
Feature
map
チャネル毎に平均チャネル
方向に加算
×
逆伝搬
赤枠:物体検出用変更点
Classification
用lossから
Detection用
lossに変更
PreProcess
- 17. 16© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-6 認識精度と特徴量の寄与度との関係 Grad-CAM(2)
89%(0.652)71%(0.585) 100%(0.972)97%(0.661)
Confidence値(平均寄与度)
- 18. 17© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
Influence Function
1-7 テストデータの分類に寄与した訓練データの抽出(1)
車
1. 「車」と正しく分類できた
テストデータがある
2. 「Influence Function」
を適用
3. 分類に貢献した
教師データを抽出できる
𝛻𝜃 𝐿(𝒛∗
, 𝜃)𝑯𝜽
−𝟏
𝛻𝜃 𝐿(𝒛𝑖, 𝜃)
P. W. Koh and P. Liang, “Understanding Black-box Predictions via Influence Functions,” ICML2017
のおかげで が正しく分類できた
学習済みモデル
0 -
- -
+ +
+ -
+ -
+ -
教師画像
評
価
画
像
- 19. 18© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
1-7 テストデータの分類に貢献した訓練データの抽出(2)
バス
学習済みモデル
教師データ
学習
どの教師が
寄与したか
誤認識に寄与したデータ
誤認識
教師データから取り除けば
精度向上が期待できる
テストデータInfluence Function の応用
不要な教師データを除去してコンパクトな学習データを生成
- 20. 19© Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
まとめ
Deep Learning の品質保証に関わる技術動向
→Black-Box解析技術を使い、
説明できるAIの開発 と 学習データの膨大化を抑止
【詳しくは】
日経Robotics No.45 p.22-26
建設機械 2020/1月号予定
他社商品名、商標等の引用に関する表示
・”Xavier”、”Jetson”、”CUDA”は、NVIDIA社の商品名称、商標、又は登録商標です。
・その他記載の会社名、製品名などは、それぞれの会社の商標もしくは登録商標です。
- 21. © Hitachi Solutions Technology, Ltd. 2019. All rights reserved.
組込ソリューション事業部
AIの品質保証に関する最新動向
2019/10/30
猪貝 光祥
END
20