第5回パターン認識勉強会
- 2. 目次
●
特徴の評価
●
クラス内分散・クラス間分散比
●
ベイズ誤り率とは
2
- 3. 目次
●
特徴の評価
●
クラス内分散・クラス間分散比
●
ベイズ誤り率とは
3
- 4. 認識性能の改善
●
認識性能は、前処理部、特徴抽出部、識別部を含めた認識
系全体の評価尺度
●
よて、性能を改善するためには、性能を低下させた原因が
認識系のどの処理部にあるかを明確にする必要がある
識別部
5 前処理部 特徴抽出部 識別演算部 5
識別辞書
4
- 5. 例1
●
特徴空間上で、二つの
クラスが完全に分離し
ω1
てる
ω2
5
- 6. 例1
●
特徴空間上で、二つの
クラスが完全に分離し
ω1
てるのに認識性能が悪
い
ω2
6
- 7. 例1
●
特徴空間上で、二つの
クラスが完全に分離し
ω1
てるのに認識性能が悪
い
ω2
原因は、特徴抽出部で
はなく、識別部
7
- 8. 例2
●
特徴空間上で、二つの
クラスが完全に重なっ
ω1
ていて性能がわるい
ω2
8
- 9. 例2
●
特徴空間上で、二つの
クラスが完全に重なっ
ω1
ていて性能がわるい
ω2
原因は、識別部ではな
く、特徴抽出部
9
- 10. 特徴抽出部の設計
●
あらかじめ特徴の評価を行うことが重要
●
特徴が適切でなければ高精度の認識系は実現で
きない。
●
特徴の良し悪しはクラス間分離能力によって評
価できる。
10
- 11. 特徴抽出部の設計
●
あらかじめ特徴の評価を行うことが重要
●
特徴が適切でなければ高精度の認識系は実現で
きない。
●
特徴の良し悪しはクラス間分離能力によって評
価できる。
クラス内分散・クラス間分散比
11
- 12. 目次
●
特徴の評価
●
クラス内分散・クラス間分散比
●
ベイズ誤り率とは
12
- 13. クラス間の分離の精度
●
特徴空間上で以下のようになるのが望ましい
– 同じクラス : なるべく接近
– 異なるクラス : なるべく離れる
●
クラス内分散・クラス間分散比
13
- 14. クラス内分散・クラス間分散比
●
クラス内分散 - クラス内の平均的な広がり
●
クラス間分散 – クラス間の広がり
●
クラス内分散・クラス間分散比
14
- 15. 欠点
●
多クラスの問題に対しては、必ずしも実際の分
布の分離度を反映していない
– 例)以下の Jσ の値は等しい
15
- 16. 欠点
●
Jσ がクラス間の距離だけを見ていて分布の重
なりを評価していないため
●
全体の分離度を平均的に評価するため、クラス
の対で見た時の分離度が反映されない
16
- 17. 欠点
●
Jσ がクラス間の距離だけを見ていて分布の重
なりを評価していないため
●
全体の分離度を平均的に評価するため、クラス
の対で見た時の分離度が反映されない
分布の重なり具合を調べる必要がある
17
- 18. 欠点
●
Jσ がクラス間の距離だけを見ていて分布の重
なりを評価していないため
●
全体の分離度を平均的に評価するため、クラス
の対で見た時の分離度が反映されない
分布の重なり具合を調べる必要がある
ベイズ誤り確率
18
- 19. 目次
●
特徴の評価
●
クラス内分散・クラス間分散比
●
ベイズ誤り率とは
19
- 20. ベイズ誤り確率
●
特徴空間上での分布の重なり
●
特徴抽出系によってもたらされる必然的な誤り
(例)ある地点を通過する通行人を観察し、それが男性で
あるか女性であるかを機会で自動判別
– 身長、体重、音声などの特徴が抽出出来ればある程度判
別出来るが、 100% は無理
– これらの特徴を用いた特徴空間上では、男女の分布は互
いに重なり合っている
20
- 23. 定式化 2
ある x に対する誤り確率は、
起こりうる全ての x に対する誤り確率は、
23
- 24. 定式化 2
ある x に対する誤り確率は、
起こりうる全ての x に対する誤り確率は、
Pe を最小にするには、 P(ω1|x) 、 P(ω2|x) の小さい方が選ばれる
ような判定方法を取ればよい、すなわち
24
- 25. 定式化 2
ある x に対する誤り確率は、
起こりうる全ての x に対する誤り確率は、
Pe を最小にするには、 P(ω1|x) 、 P(ω2|x) の小さい方が選ばれる
ような判定方法を取ればよい、すなわち
ベイズ決定則
25
- 32. まとめ
●
高精度の認識系は実現するためには、あらかじ
め特徴の評価を行うことが重要
●
ベイズ誤り確率が特徴を評価する上で重要
32