7. 7
Bias / Specific
모델의 성능을 향상하다
>> 모델의 정보에 대한 반응을 넓히다
>> 시각의 보편적인 특징(color, shape, texture)을 반영한다
>> 인간의 시각을 모방하다
Task Metric에서의 성능을 향상하다
>>>> color, texture bias를 줄이고 shape bias를 늘리다
16. 4. Representation of Model
16
>> Visualization
>> Diagnosis
>> Disentangling
>> Interpretation
>> Evaluation metric
>> For middle-to-end Learning
[Visual Interpretability for Deep Learning : a Survey]
모델을 표현하는 6가지 관점
도표가 제시하는 해석 방향성을 참고하여 모델의 이해 및 활용 방법을 찾을 수 있다
17. 17
Diagnosis
1 Analyze CNN feature from a global view
>> filter의 의미와 전달력을 분석
2 Extracts image regions that directly contribute the network output
>> network output에 가장 민감하게 반응한 이미지 영역을 추출
3 The estimation of vulnerable points in the feature space
>> feature space의 bias를 진단하고 추정
4 Refine network representations based on the analysis of network feature spaces
>> 학습한 model이 놓친 부분을 찾기
5 Discover potential, biased representations
[Visual Interpretability for Deep Learning : a Survey]
18. 18
Disentangling
각 filter로부터 시각 정보가 어떻게 연결되는지 파악하기 위한 질문
[Visual Interpretability for Deep Learning : a Survey]
Q. 각 filter는 얼마나 많은 정보를 외우고 있는가?
Q. 해당 패턴이 특정 영역이나 질감을 설명할 수 있는가?
Q. 공동으로 활성화된 패턴의 관계는 어떠한가?
Q. 개체를 설명하기 위해서 어떤 패턴이 활성화 되는가?