2. Scala@S.Rulez
Chapter 1. Introduction
1.1 기계 학습: 무엇을 그리고 왜?
1.1.1 기계 학습의 종류
1.2 감독 학습
1.2.1 분류
1.2.2 회귀
1.3 자연 학습
1.3.1 군집 발견
1.3.2 잠재 요인의 발견
1.3.3 그래프 구조 발견
1.3.4 매트릭스 완성
1.4 기계 학습의 기초 개념
1.4.1 모수적 모형과 비모수적 모형
1.4.2 단순한 비모수적 분류기(K 근접 이웃)
1.4.3 차원의 저주
1.4.4 분류와 회귀에 대한 모수적 모형
1.4.5 선형 회귀
1.4.6 로지스틱 회귀 분석
1.4.7 과대적합
1.4.8 모형 선택
1.4.9 공짜 점심은 없다는 이론
4. Scala@S.Rulez
1.1 기계 학습: 무엇을 그리고 왜?
• 데이터의 홍수
à머신 러닝machine learning 이 제공하는 데이터 분석의 자동화된 방식 요구
• 본 교재
à 확률 이론 도구로 문제를 해결하는 가장 효과적인 방법 채택
• 불확실성
à주어진 데이터로 할 수 있는 최상의 예상(결정)은 무엇인가?
à주어진 데이터로 할 수 있는 최상의 모형은 무엇인가?
5. Scala@S.Rulez
1.1.1 기계 학습의 종류
예측predictive과 지도 학습supervised learning 기술/서술descriptive과 비지도 학습unsupervised learning
목표: 주어진 입출력 쌍 = {(, )}
에서
입력 x로 부터 출력 y의 매핑을 배우는 것
ü 는 한정된 집합에서 범주categorical형 변수나 명목nominal 변수
ü 가 범주형일 때 문제는 분류classification 또는 패턴 인식pattern recognition
ü 가 실수 값일 때 문제는 회귀regression, 자연적 순서를 갖는 레이블
공간은 회귀 분석ordinal regression
목표: 주어진 입력 쌍 = {}
에서
‘흥미 있는 결과interesting patterns’를 찾는 것
ü 가 어떤 군집cluster에 속하는지 분류함
ü 전문가에 의한 사전 데이터 분류 작업이 필요하지 않음
6. Scala@S.Rulez
1.2.1 분류 학습
• 분류classification
- C개의 ∈ {1, … , }가 주어질 때 입력 x로부터 출력 y를 매핑하는 것
C = 2 à 이항 분류binary classification
C > 2 à 다항 분류multiclass classification
- yi와 yj가 상호 배타적exclusive 이지 않다면 다중 레이블 분류multi-label classification
- 정확한 매핑을( = ()) 알 수 없기 때문에 근사화function approximation
à = ()
7. Scala@S.Rulez
1.2.1.1 예제
• 노란색 환의 분류는?
- 훈련 집합에 노란색이 존재하지 않음 à 확률적 추론 필요
- 입력 벡터 x와 훈련 집합 에서 가능한 레이블에 대한 확률 분포 추정 (|, , M)
= = arg ( = |, )
C
C=1
11. Scala@S.Rulez
1.3.1 군집 발견
• 군집화clustering
- 데이터의 문제를 그룹으로 고려하는 것
- Ex) 201명의 키와 몸무게 à K개의 그룹으로 분활
- 1번째 목표: K그룹의 확률 분포
∗
= arg max
(|)
- 2번째 목표: 임의의 군집( ∈ {1, … , })의 속한 그룹 찾기 ∗ = arg max
( = | , )
12. Scala@S.Rulez
1.3.2 잠재 요인의 발견
• 차원 축소dimensionality reduction
- 고차원 데이터 à 저차원 데이터로 투영
- 고차원 중 일부 잠재 요인latent factor이 데이터 성격 규명
- 다차원 데이터(3차원 이상) 영상화가 어려움
- 주성분 분석법principal components analysis(PCA)이 대표적 방식 à Ch. 27
14. Scala@S.Rulez
1.3.4 매트릭스 완성
• 대치법imputation
- 손실된 엔트리에 대한 값을 추정
영상 인페인팅
Ch 19. 무방향 그래프 모형
협력적 필터링
Ch 27. 이산 데이터에 대한 잠재 변수 모형
15. Scala@S.Rulez
1.4 머신 러닝의 기초 개념
• 모수적 모형parametric model, 비모수적 모형non-parametric model
- 모수적 모형: 표본 집단이 알려진 특정 분포를 따르다 가정하고 함수 추정
- 비모수적 모형: 표본 집단이 특정 분포를 따른다고 가정하지 않고 함수 추정
17. Scala@S.Rulez
1.4.3 차원의 저주
• 차원의 저주curse of dimensionality
- 차원이 증가함에 따라 필요한 데이터가 기하급수적으로 증가
- 각차원의 20%를 채우기 위해서는
- 1차원: 20%
- 2차원: 45%
- 3차원: 58%
- 적은 데이터로 공간을 설명하기 때문에 과적합이 발생
http://blog.naver.com/PostView.nhn?blogId=wjddudwo209&logNo=80212077742&category
No=0&parentCategoryNo=41&viewDate=¤tPage=1&postListTopCurrentPage=1