SlideShare une entreprise Scribd logo
1  sur  79
해커에게 전해들은 머신러닝-3
tensorflowkorea.wordpress.com/슬라이드-자료/
tensorflowkorea.wordpress.com/2016/10/29/해커에게-전해들은-머신러닝
github.com/rickiepark/ml-learn
2016. 11.
Park Haesun(haesunrpark@gmail.com)
여러개를 분류하기
로지스틱 회귀
Neuron
𝑤
*
+
Sigmoid
0 아니면 1
(악성) (양성)
𝑦 =
1
1 + 𝑒−𝑧
𝑥
𝑏
𝑦
여러개로 분류할 땐?
Dog
Cat
Rabbit
여러개로 분류할 땐?
Dog
Cat
Rabbit
Sigmoid
Sigmoid
Sigmoid
멀티 클래스 분류(Multi Class Classification)
Dog
Cat
Rabbit
Sigmoid
Sigmoid
Sigmoid
0 아니면 1(토끼)
0 아니면 1(고양이)
0 아니면 1(강아지)
강아지 예제
Dog
Cat
Rabbit
0.8
0.3
0.1
분류 실패 !
멀티 클래스 분류의 비용 함수
크로스 엔트로피(Cross Entropy)
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
비용 계산
Dog
Cat
Rabbit
0.8
0.3
0.1
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
비용 계산
Dog
Cat
Rabbit
0.8
0.3
0.1
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0
𝑦 =
0.1
0.8
0.3
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
비용 계산
Dog
Cat
Rabbit
0.8
0.3
0.1
𝐽 = − 1 × ln 0.1 + 0 × ln 0.8 + 0 × ln 0.3 /𝑚
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0
𝑦 =
0.1
0.8
0.3
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
소프트맥스
어느 것이 강아지에 가까울까?
Dog
Cat
Rabbit
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
소프트맥스
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑒 𝑑𝑜𝑔
𝑧
+ 𝑒 𝑐𝑎𝑡
𝑧
+ 𝑒 𝑟𝑎𝑏𝑏𝑖𝑡
𝑧 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝑧 = 𝑤 × 𝑥 + 𝑏
𝑦 =
𝑦 𝑑𝑜𝑔
𝑦 𝑐𝑎𝑡
𝑦 𝑟𝑎𝑏𝑏𝑖𝑡
시그모이드의 z 값 구하기
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
시그모이드의 z 값 구하기
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
𝑧1 =
2.2
1.39
0.85
𝑧2 =
0
−1.39
−2.2
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
시그모이드의 z 값 구하기
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
𝑧1 =
2.2
1.39
0.85
𝑧2 =
0
−1.39
−2.2
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝑦1 =
0.59
0.26
0.15
𝑦2 =
0.74
0.18
0.08
시그모이드의 z 값 구하기
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
𝑧1 =
2.2
1.39
0.85
𝑧2 =
0
−1.39
−2.2
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝑦1 =
𝟎. 𝟗
0.8
0.7
𝑦2 =
𝟎. 𝟓
0.2
0.1
𝑦1 =
𝟎. 𝟓𝟗
0.26
0.15
𝑦2 =
𝟎. 𝟕𝟒
0.18
0.08
시그모이드 출력
소프트맥스 출력
(정규화된 확률)
소프트맥스 미분은?
Neuron
𝑤
*
+
Softmax
𝑥
𝑏
𝑦
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
그래디언트는?
소프트맥스를 사용한 비용함수 미분
𝜕𝐽
𝜕𝑤
= −
1
𝑚
𝑖=1
𝑚
𝑦 − 𝑦 𝑥
선형 회귀, 로지스틱 회귀의 비용함수 미분과 동일
!
그래디언트 전파
Neuron
𝑤
*
+
Softmax
𝑥
𝑏
𝑦
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑥
𝑦 − 𝑦 1
주의: 구현시 고려사항 1
무한대 값 오버플로우 발생
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
주의: 구현시 고려사항 1
𝑦 𝑑𝑜𝑔 =
𝑒1000
𝑒1000 + 𝑒500 + 𝑒10
=
𝑒1000
× 𝑒−1000
𝑒1000 + 𝑒500 + 𝑒10 × 𝑒−1000
=
𝑒1000−1000
𝑒1000−1000 + 𝑒500−1000 + 𝑒10−1000
=
𝑒0
𝑒0 + 𝑒−500 + 𝑒−900
= 1.0
최대값으로 뺀 후 소프트맥스 함수 적용
주의: 구현시 고려사항 2
안전하지 않음
𝑦 =
1
1 + 𝑒−𝑧
주의: 구현시 고려사항 2
안전하지 않음
𝑦 =
1
1 + 𝑒−𝑧
안전한 scipy.special.expit 함수를 사용함
손글씨 숫자 데이터
load_digits
load_digits 데이터셋 이용
1797개 데이터
8x8 크기
0~9 까지 숫자
데이터 확인
0(흰색)~16(검은색)
까지 숫자
이미지 확인
반전 그레이톤
train_test_split
컬러 값 정규화
훈련 / 테스트
데이터 분리
원 핫 인코딩(One Hot Encoding)
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0
원 핫 인코딩(One Hot Encoding)
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0 X
OneHotEncoder
10개 클래스
2차원 배열 변경
딥 뉴럴 네트워크
뉴럴 네트워크
완전 연결 뉴럴 네트워크
(Fully Connected Neural Network)
덴스 네트워크
(Dense Network)
딥 뉴럴 네트워크
(Deep Neural Network, DNN)
입력 데이터 자체
퍼셉트론(Perceptron)
1957년 프랑크 로젠블라트가 발표
뉴럴 네트워크를 멀티레이어 퍼셉트론으로도 부름
사이킷런(v0.18)에는 MLPClassifier, MLPRegressor
완전 연결이 아닌 네트워크
콘볼루션 뉴럴 네트워크
(Convolution Neural Network)
리커런트 뉴럴 네트워크
(Recurrent Neural Network)
피드 포워드 뉴럴 네트워크
= 완전 연결 뉴럴 네트워크
(Fully Connected Neural Network)
= 덴스 네트워크
(Dense Network)
= 멀티 레이어 퍼셉트론
(Multi-Layer Perceptron)
= 피드 포워드 뉴럴 네트워크
(Feed Forward Neural Network)
완전 연결 레이어
100개의 히든 유닛
...
...
히든 레이어
입력 레이어
출력 레이어
이미지의
64개 픽셀
숫자 10개 분류
시그모이드
소프트맥스
𝑥 𝑦
𝑤1, 𝑏1 𝑤2, 𝑏2
바이어스 표기 방식
...
...
이미지의
64개 픽셀
숫자 10개 분류
𝑥 𝑦
𝑤1
𝑏1
𝑏2
𝑤2
뉴런의 갯수
히든 레이어 100개 + 출력 레이어 10개 = 110개
뉴런의 갯수
히든 레이어 100개 + 출력 레이어 10개 = 110개
히든 유닛의 갯수가 수백, 수천개이고
레이어의 갯수가 수십, 수백라면?
뉴런의 식
A
B
C
a
b
𝑤 𝑎𝐴
𝑤 𝑎𝐵
𝑤 𝑎𝐶
𝑏 𝑎
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
뉴런의 식
A
B
C
a
b
𝑤 𝑎𝐴
𝑤 𝑎𝐵
𝑤 𝑎𝐶
𝑏 𝑎
𝑨 𝑩 𝑪 ×
𝒘 𝒂𝑨
𝒘 𝒂𝑩
𝒘 𝒂𝑪
+ 𝒃 𝒂 = (𝒂)
행렬 곱으로 표현 가능
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
행렬곱(Dot Product)
1 × 7 + 2 × 9 + 3 × 11 = 58
행(row)
열(column)
행렬식
A
B
C
a
b
𝑤 𝑎𝐴
𝑤 𝑎𝐵
𝑤 𝑎𝐶
𝑏 𝑎
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
𝑨 𝑩 𝑪 ×
𝒘 𝒂𝑨 𝒘 𝒃𝑨
𝒘 𝒂𝑩 𝒘 𝒃𝑩
𝒘 𝒂𝑪 𝒘 𝒃𝑪
+ 𝒃 𝒂 𝒃 𝒃 = (𝒂 𝒃)
𝑏 = 𝐴 × 𝑤 𝑏𝐴 + 𝐵 × 𝑤 𝑏𝐵 + 𝐶 × 𝑤 𝑏𝐶 + 𝑏 𝑏
행렬식
A
B
C
a
b
𝑤 𝑏𝐴
𝑤 𝑏𝐵
𝑤 𝑏𝐶 𝑏 𝑏
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
𝑨 𝑩 𝑪 ×
𝒘 𝒂𝑨 𝒘 𝒃𝑨
𝒘 𝒂𝑩 𝒘 𝒃𝑩
𝒘 𝒂𝑪 𝒘 𝒃𝑪
+ 𝒃 𝒂 𝒃 𝒃 = (𝒂 𝒃)
𝑏 = 𝐴 × 𝑤 𝑏𝐴 + 𝐵 × 𝑤 𝑏𝐵 + 𝐶 × 𝑤 𝑏𝐶 + 𝑏 𝑏
넘파이로는
넘파이로는
𝑥1
1
⋯ 𝑥64
1
𝑥1
2
⋯ 𝑥64
2
𝑥1
3
⋯ 𝑥64
3
⋮
𝑥1
1617
⋯ 𝑥64
1617
×
𝑤1
1
⋯ 𝑤100
1
𝑤1
2
⋯ 𝑤100
2
⋮
𝑤1
64
⋯ 𝑤100
64
+ 𝑏1 ⋯ 𝑏100 =
𝑡1
1
⋯ 𝑡100
1
𝑡1
2
⋯ 𝑡100
2
⋮
𝑡1
1617
⋯ 𝑡100
1617
1617개
데이터
64개의 픽셀
100개의 히든 레이어 출력
1617개
데이터
1617 × 64 ⋅ 64 × 100 + 100 = 1617 × 100
가중치 행렬 크기
앞 레이어 유닛의 크기 X 현재 레이어 유닛의 크기
가중치 행렬 크기
...
...
히든 레이어 100개
입력 레이어 64개
출력 레이어 10개
이미지의
64개 픽셀
숫자 10개 분류
𝑦
𝑤2 = 100 × 10
𝑥
𝑤1 = 64 × 100
히든 레이어 계산
...
...
히든레이어 100개
이미지의
64개 픽셀
숫자 10개 분류
𝑦𝑥
1617 × 64 ⋅ 64 × 100 + 100 = 1617 × 100
𝒙 ⋅ 𝒘 𝟏 + 𝒃 𝟏 = 𝒕
출력 레이어 계산
...
...
히든레이어 100개
이미지의
64개 픽셀
숫자 10개 분류
𝑦𝑥
1617 × 100 ⋅ 100 × 10 + 10 = 1617 × 10
𝒕 ⋅ 𝒘 𝟐 + 𝒃 𝟐 = 𝒚
정방향 계산
히든 레이어 계산
시그모이드 활성화
함수(expit)
출력 레이어 계산소프트맥스 계산
소프트맥스 함수
행방향 최대값
행방향 exp 합계
열벡터로 변경
𝑦 =
𝑒 𝑧−𝑧 𝑚𝑎𝑥
𝑖=1
𝑛
𝑒 𝑧 𝑖−𝑧 𝑚𝑎𝑥
=
𝑒 𝑡𝑚𝑝
𝑖=1
𝑛
𝑒 𝑡𝑚𝑝
=
𝑒𝑥𝑝_𝑡𝑚𝑝
𝑖=1
𝑛
𝑒𝑥𝑝_𝑡𝑚𝑝𝑖
그래디언트 행렬 계산
가중치와 바이어스 그래디언트
히든 레이어
파라메타 출력 레이어
파라메타
로지스틱 오차와 동일
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
𝑦 − 𝑦
히든
레이어
𝑤1
*
+
𝑥
𝑏1
로지스틱 오차와 동일
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝜕𝐽
𝜕𝑤2
= 𝑦 − 𝑦 𝑡
𝑦 − 𝑦
𝑦 − 𝑦 𝑡
𝑦 − 𝑦 1
히든
레이어
𝑤1
*
+
𝑥
𝑏1
𝑦 − 𝑦 𝑤2
𝜕𝐽
𝜕𝑏2
= 𝑦 − 𝑦 1
𝜕𝐽
𝜕𝑡
= 𝑦 − 𝑦 𝑤2
로지스틱 오차와 동일
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑡
𝑦 − 𝑦 1
히든
레이어
𝑤1
*
+
𝑥
𝑏1
𝑒𝑟𝑟2 𝑥
𝑒𝑟𝑟21
𝑦 − 𝑦 𝑤2
𝜕𝐽
𝜕𝑤1
= 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)𝑥
𝜕𝐽
𝜕𝑏1
= 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)1
𝑠 =
1
1 + 𝑒−𝑧
𝜕𝑠
𝜕𝑥
= 𝑠(1 − 𝑠)
𝑒𝑟𝑟2 = 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)
전치행렬
출력 레이어 그래디언트
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑡
𝑦 − 𝑦 1
𝑦 − 𝑦 𝑤2
𝑦 − 𝑦 = 1617 × 10
𝑡 = 1617 × 100
𝑡 𝑇 = 100 × 1617
𝑡 𝑇 ⋅ 𝑦 − 𝑦 = [100 × 10]
1617개의 훈련 데이터에 각각의
에러를 곱하기 위해 전치시킴
넘파이로는
100 × 1617 ⋅ 1617 × 10 = 100 × 10
1617개의 그래디언
트가 모두 합쳐짐
전치행렬
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 10 ) = 10
열방향으로 평균
𝑤2
𝑏2
출력 레이어 그래디언트
출력
레이어
𝑤2
*
+
𝑡 𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑤2
𝑦 − 𝑦 = 1617 × 10
𝑤2 = 100 × 10
𝑤2
𝑇
= 10 × 100
𝑦 − 𝑦 ⋅ 𝑤2
𝑇
= [1617 × 100]
1617개의 에러를 10개의 출력 유닛
에서 100개의 히든 유닛으로 분할
넘파이로는
1617 × 10 ⋅ 10 × 100 = 1617 × 100
전치행렬
𝑡
히든 레이어 그래디언트
출력
레이어
𝑤1
*
+
𝑥
𝑏1
𝑡
𝑒𝑟𝑟2
𝑒𝑟𝑟2 𝑥
𝑒𝑟𝑟21
𝑦 − 𝑦 𝑤2 𝑡 1 − 𝑡 = 𝑒𝑟𝑟2 = 1617 × 100
𝑥 = 1617 × 64
𝑥 𝑇 = 64 × 1617
𝑥 𝑇 ⋅ 𝑒𝑟𝑟2 = [64 × 100]
1617개의 훈련 데이터에 각각의
에러를 곱하기 위해 전치시킴
넘파이로는
64 × 1617 ⋅ 1617 × 100 = 64 × 100
1617개의 그래디언
트가 모두 합쳐짐
전치행렬
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 100 ) = 100
열방향으로 평균
𝑤1
𝑏1
역방향 계산
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 10 ) = 10 100 × 1617 ⋅ 1617 × 10 = 100 × 10
1617 × 10 ⋅ 10 × 100 = 1617 × 100 64 × 1617 ⋅ 1617 × 100 = 64 × 100
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 100 ) = 100
그래디언트 업데이트
완전 연결 뉴럴 네트워크
fit 함수
y_hat이 0일때 음의 무한대
1일때 0 방지
predict 함수
행방향으로 가장 높은 값을
가진 배열의 위치를 반환.
배열의 위치 == 분류값
파라메타 초기화
모델 학습
비용 함수 그래프
사이킷런에서는
MLPClassifier
감사합니다.

Contenu connexe

Tendances

확통 회귀분석
확통 회귀분석확통 회귀분석
확통 회귀분석jaypi Ko
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지Haesun Park
 
[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석jaypi Ko
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners홍배 김
 
밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05HyeonSeok Choi
 
R 프로그래밍-향상된 데이타 조작
R 프로그래밍-향상된 데이타 조작R 프로그래밍-향상된 데이타 조작
R 프로그래밍-향상된 데이타 조작Terry Cho
 
밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05HyeonSeok Choi
 
알고리즘과 자료구조
알고리즘과 자료구조알고리즘과 자료구조
알고리즘과 자료구조영기 김
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류Haesun Park
 
R 스터디 네번째
R 스터디 네번째R 스터디 네번째
R 스터디 네번째Jaeseok Park
 
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개Terry Cho
 
R 스터디 두번째
R 스터디 두번째R 스터디 두번째
R 스터디 두번째Jaeseok Park
 
알고리즘 스터디(정렬) Seungdols
알고리즘 스터디(정렬) Seungdols알고리즘 스터디(정렬) Seungdols
알고리즘 스터디(정렬) Seungdolsseungdols
 
딥러닝 제대로시작하기 Ch04
딥러닝 제대로시작하기 Ch04딥러닝 제대로시작하기 Ch04
딥러닝 제대로시작하기 Ch04HyeonSeok Choi
 
R 기본-데이타형 소개
R 기본-데이타형 소개R 기본-데이타형 소개
R 기본-데이타형 소개Terry Cho
 
Deep learning study 1
Deep learning study 1Deep learning study 1
Deep learning study 1San Kim
 

Tendances (20)

확통 회귀분석
확통 회귀분석확통 회귀분석
확통 회귀분석
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
 
[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05
 
Generative adversarial network
Generative adversarial networkGenerative adversarial network
Generative adversarial network
 
R 프로그래밍-향상된 데이타 조작
R 프로그래밍-향상된 데이타 조작R 프로그래밍-향상된 데이타 조작
R 프로그래밍-향상된 데이타 조작
 
밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05밑바닥부터시작하는딥러닝 Ch05
밑바닥부터시작하는딥러닝 Ch05
 
알고리즘과 자료구조
알고리즘과 자료구조알고리즘과 자료구조
알고리즘과 자료구조
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
 
R_datamining
R_dataminingR_datamining
R_datamining
 
R 스터디 네번째
R 스터디 네번째R 스터디 네번째
R 스터디 네번째
 
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
 
R 스터디 두번째
R 스터디 두번째R 스터디 두번째
R 스터디 두번째
 
알고리즘 스터디(정렬) Seungdols
알고리즘 스터디(정렬) Seungdols알고리즘 스터디(정렬) Seungdols
알고리즘 스터디(정렬) Seungdols
 
Digit recognizer
Digit recognizerDigit recognizer
Digit recognizer
 
딥러닝 제대로시작하기 Ch04
딥러닝 제대로시작하기 Ch04딥러닝 제대로시작하기 Ch04
딥러닝 제대로시작하기 Ch04
 
R 기본-데이타형 소개
R 기본-데이타형 소개R 기본-데이타형 소개
R 기본-데이타형 소개
 
Deep learning study 1
Deep learning study 1Deep learning study 1
Deep learning study 1
 

En vedette

6.algorithm chains and piplines
6.algorithm chains and piplines6.algorithm chains and piplines
6.algorithm chains and piplinesHaesun Park
 
7.woring with text data
7.woring with text data7.woring with text data
7.woring with text dataHaesun Park
 
Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Lee Ji Eun
 
개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow양 한빛
 
Linear regression analysis
Linear regression analysisLinear regression analysis
Linear regression analysismothersafe
 
머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)Ashal aka JOKER
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvementHaesun Park
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료JungGeun Lee
 
파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호Jiho Lee
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic RegressionMinHyeok Kim
 
머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)Yonghoon Kwon
 
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)Dylan Ko
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도 jason min
 
4.representing data and engineering features
4.representing data and engineering features4.representing data and engineering features
4.representing data and engineering featuresHaesun Park
 
AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약Jooyoul Lee
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)Haesun Park
 
1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlow1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlowHaesun Park
 
파이썬 생존 안내서 (자막)
파이썬 생존 안내서 (자막)파이썬 생존 안내서 (자막)
파이썬 생존 안내서 (자막)Heungsub Lee
 
EMOCON 2017 F/W - Deep Learning과 Keras 기초
EMOCON 2017 F/W - Deep Learning과 Keras 기초EMOCON 2017 F/W - Deep Learning과 Keras 기초
EMOCON 2017 F/W - Deep Learning과 Keras 기초Ashal aka JOKER
 

En vedette (20)

6.algorithm chains and piplines
6.algorithm chains and piplines6.algorithm chains and piplines
6.algorithm chains and piplines
 
7.woring with text data
7.woring with text data7.woring with text data
7.woring with text data
 
Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례
 
개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow
 
Linear regression analysis
Linear regression analysisLinear regression analysis
Linear regression analysis
 
머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvement
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료
 
파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic Regression
 
Text summarization
Text summarizationText summarization
Text summarization
 
머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)
 
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
 
4.representing data and engineering features
4.representing data and engineering features4.representing data and engineering features
4.representing data and engineering features
 
AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)
 
1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlow1.Introduction to Python and TensorFlow
1.Introduction to Python and TensorFlow
 
파이썬 생존 안내서 (자막)
파이썬 생존 안내서 (자막)파이썬 생존 안내서 (자막)
파이썬 생존 안내서 (자막)
 
EMOCON 2017 F/W - Deep Learning과 Keras 기초
EMOCON 2017 F/W - Deep Learning과 Keras 기초EMOCON 2017 F/W - Deep Learning과 Keras 기초
EMOCON 2017 F/W - Deep Learning과 Keras 기초
 

Similaire à 해커에게 전해들은 머신러닝 #3

03. linear regression
03. linear regression03. linear regression
03. linear regressionJeonghun Yoon
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )Jeonghun Yoon
 
Code로 이해하는 RNN
Code로 이해하는 RNNCode로 이해하는 RNN
Code로 이해하는 RNNSANG WON PARK
 
Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)Jeonghun Yoon
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagationJinSooKim80
 
Deep Learning from scratch 3장 : neural network
Deep Learning from scratch 3장 : neural networkDeep Learning from scratch 3장 : neural network
Deep Learning from scratch 3장 : neural networkJinSooKim80
 
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 WinterSuhyun Park
 
페리 수열(Farey sequence)
페리 수열(Farey sequence)페리 수열(Farey sequence)
페리 수열(Farey sequence)종빈 오
 
Linear regression
Linear regressionLinear regression
Linear regression전 희천
 
01장.속셈과신기한계산.유리수의사칙연산
01장.속셈과신기한계산.유리수의사칙연산01장.속셈과신기한계산.유리수의사칙연산
01장.속셈과신기한계산.유리수의사칙연산Kim Hoon
 
3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택JinTaek Seo
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)AHRA CHO
 
하스켈 성능 튜닝
하스켈 성능 튜닝하스켈 성능 튜닝
하스켈 성능 튜닝민석 이
 
[Probability for machine learning]
[Probability for machine learning][Probability for machine learning]
[Probability for machine learning]강민국 강민국
 
Multinomial classification and application of ML
Multinomial classification and application of MLMultinomial classification and application of ML
Multinomial classification and application of ML희수 박
 
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기JungHyun Hong
 

Similaire à 해커에게 전해들은 머신러닝 #3 (20)

03. linear regression
03. linear regression03. linear regression
03. linear regression
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )
 
Code로 이해하는 RNN
Code로 이해하는 RNNCode로 이해하는 RNN
Code로 이해하는 RNN
 
Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)Ensemble Model (Hybrid model)
Ensemble Model (Hybrid model)
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagation
 
Deep Learning from scratch 3장 : neural network
Deep Learning from scratch 3장 : neural networkDeep Learning from scratch 3장 : neural network
Deep Learning from scratch 3장 : neural network
 
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
 
페리 수열(Farey sequence)
페리 수열(Farey sequence)페리 수열(Farey sequence)
페리 수열(Farey sequence)
 
Linear regression
Linear regressionLinear regression
Linear regression
 
01장.속셈과신기한계산.유리수의사칙연산
01장.속셈과신기한계산.유리수의사칙연산01장.속셈과신기한계산.유리수의사칙연산
01장.속셈과신기한계산.유리수의사칙연산
 
3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
Super resolution
Super resolutionSuper resolution
Super resolution
 
하스켈 성능 튜닝
하스켈 성능 튜닝하스켈 성능 튜닝
하스켈 성능 튜닝
 
[Probability for machine learning]
[Probability for machine learning][Probability for machine learning]
[Probability for machine learning]
 
0207 1 gradient
0207 1 gradient0207 1 gradient
0207 1 gradient
 
Multinomial classification and application of ML
Multinomial classification and application of MLMultinomial classification and application of ML
Multinomial classification and application of ML
 
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
 

Plus de Haesun Park

사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기Haesun Park
 
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reductionHaesun Park
 
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forestHaesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝Haesun Park
 
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)7.woring with text data(epoch#2)
7.woring with text data(epoch#2)Haesun Park
 
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)Haesun Park
 
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 25.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2Haesun Park
 
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 15.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1Haesun Park
 
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)Haesun Park
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3Haesun Park
 
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-22.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2Haesun Park
 
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-12.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1Haesun Park
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learningHaesun Park
 
기계도 학교에 가나요?
기계도 학교에 가나요?기계도 학교에 가나요?
기계도 학교에 가나요?Haesun Park
 

Plus de Haesun Park (20)

사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
 
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction
 
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
 
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)7.woring with text data(epoch#2)
7.woring with text data(epoch#2)
 
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)
 
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 25.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2
 
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 15.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1
 
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
 
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-22.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
 
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-12.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learning
 
1.introduction
1.introduction1.introduction
1.introduction
 
기계도 학교에 가나요?
기계도 학교에 가나요?기계도 학교에 가나요?
기계도 학교에 가나요?
 

해커에게 전해들은 머신러닝 #3

Notes de l'éditeur

  1. y 햇: h, f 등으로 쓰기도 함.
  2. 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  3. 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  4. 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  5. 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  6. 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  7. 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  8. 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  9. 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  10. AI는 언어학, 뇌의학, 검색, 로봇틱스 포함 아직 일반지능이 아님 딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  11. AI는 언어학, 뇌의학, 검색, 로봇틱스 포함 아직 일반지능이 아님 딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  12. y 햇: h, f 등으로 쓰기도 함.
  13. y 햇: h, f 등으로 쓰기도 함.
  14. y 햇: h, f 등으로 쓰기도 함.
  15. y 햇: h, f 등으로 쓰기도 함.
  16. y 햇: h, f 등으로 쓰기도 함.
  17. y 햇: h, f 등으로 쓰기도 함.
  18. y 햇: h, f 등으로 쓰기도 함.
  19. y 햇: h, f 등으로 쓰기도 함.
  20. y 햇: h, f 등으로 쓰기도 함.
  21. y 햇: h, f 등으로 쓰기도 함.
  22. y 햇: h, f 등으로 쓰기도 함.
  23. y 햇: h, f 등으로 쓰기도 함.
  24. y 햇: h, f 등으로 쓰기도 함.
  25. y 햇: h, f 등으로 쓰기도 함.
  26. 훈련데이터/학습데이터 지도학습: 주가예측, 스팸메일 분류 비지도학습: 고객 분류 딥 러닝은 알고리즘의 하나로 학습방법이 아님. 딥 리인포스먼트 러닝