이 논문은 Continual Learning이라는 분야에서의 문제를 다루며, 현실 세계에서 새로운 데이터나 클래스가 추가되는 상황에서 전체 데이터셋을 사용하지 않고도, 잊어버리는 현상을 최소화하면서 새로운 작업에 효과적으로 적응하는 것을 목표로 합니다.
Continual Learning을 해결하기 위한 일반적인 방법은 세 가지로 분류됩니다: 정규화(Regularization), 파라미터 격리(Parameter Isolation), 그리고 경험 재생(Experience Replay)입니다. 이 발표의 논문은 Experience Replay 방식을 사용합니다.
Continual Learning의 일반적인 설정에 대해 설명한 뒤, 본 연구는 실제 환경에서 사용될 수 있는 더 많은 조건을 적용한 문제를 정의합니다. 이 연구에서는 일부 클래스가 겹치지 않는 Disjoint Split과 온라인 스트림에서 지속적으로 새로운 데이터가 들어오는 Blurry Split과 같은 설정을 다룹니다.
이 논문의 목표는 두 가지 주요 문제를 해결하는 것입니다. 첫째, i-Blurry-N-M 작업에서 잘 수행하는 방법을 찾는 것으로, 이는 N 퍼센트의 클래스가 특정 작업에서 겹치지 않게 분리되고, M 레벨의 Blurry 클래스가 모든 작업에서 나타나게 됩니다. 둘째, 연속적인 학습을 사용할 때, 트레이닝이 끝난 후가 아닌 중간에 추론을 진행하는 것이 필요한 상황에 적합한 메트릭을 찾는 것입니다.
오늘 논문 리뷰를 위해 이미지 처리 강인하 님이 자세한 리뷰를 도와주셨습니다 많은 관심 미리 감사드립니다!
Al Barsha Escorts $#$ O565212860 $#$ Escort Service In Al Barsha
Online Continual Learning on Class Incremental Blurry Task Configuration with Anytime Inference
1. Online Continual
Learning on Class
Incremental Blurry
Task Configuration
with Anytime Inference
Feb,
26,
2023
딥러닝
논문
읽기 모임
강인하
김준철
류채은
조경진
현청천
이
미
지
처
리
팀
1
2. Related Works
1. Continual
Learning
= Incremental Learning
= Life-long Learning
Concept to learn a model for a
large number of tasks
sequentially without
forgetting knowledge
obtained from the preceding
tasks, where the data in the old
tasks are not available anymore
during training new ones.
Catastrophic Forgetting
http://dmqm.korea.ac.kr/activity/seminar/266
2
3. Related Works
1. Continual
Learning
= Incremental Learning
= Life-long Learning
Concept to learn a model for a
large number of tasks
sequentially without
forgetting knowledge
obtained from the preceding
tasks, where the data in the old
tasks are not available anymore
during training new ones.
Continual Enlargement of Data
CL Settings
3
4. Related Works
2. General CL
Approaches
Overcoming Catastrophic Forgetting by Incremental Moment Matching
4
6. ✔ Disjoint Split
Task 1
Class 1
Class 2
Class 3
Task 2
Class 4
Class 5
Class 6
Task 3
Class 7
Class 8
Class 9
Thesis Problem
1. i-Blurry Task
6
7. Class 1
Class 2
Class 3
Class 4
Class 5
Class 6
Class 7
Class 8
Class 9
Thesis Problem
1. i-Blurry Task
✔ Blurry Split
7
8. Task 1
Class 1
Class 2
Class 10
Task 2
Class 10
Class 5
Class 6
Task 3
Class 7
Class 8
Class 9
Class 4
Class 3 Class 10
Thesis Problem
1. i-Blurry Task
✔ i-Blurry-N-M
8
12. 1. samples that were in the batch when the loss
decreased
2. samples that were not in the batch when the loss
increased
high
importance
scores
Method
1. Sample-wise Importance Based Memory Management
12
13. Method
2. Memory Only Training
●
●
GDumb: A Simple Approach that Questions Our Progress in Continual Learning
13