SlideShare a Scribd company logo
1 of 154
2018. 04. 12.
인공지능을 위한
딥러닝 프로그래밍
Machine Learning
의용전자연구실
박사과정 이동헌
Week3
Machine Learning
(18. 04. 12. 13:00-17:00)
Week4
Deep Learning
(18. 05. 03. 13:00-17:00)
Week5
AI in Medicine
(18. 05. 10. 13:00-17:00)
• Introduction to AI
• Machine Learning
Overview
• Image Classification
Pipeline
• Loss functions and
Optimization
• Neural Network and
Backpropagation
• Training Neural
Networks
• Convolutional Neural
Networks (CNNs)
• CNNs Models
• Applications of CNNs
• Recurrent Neural
Networks (RNNs)
• Deep Learning in
Practice
• Applications in Medicine
 Introduction to AI
 Machine Learning Overview
 Image Classification Pipeline
 Loss functions and Optimization
출처: 구글 이미지
7
LeNet
1998년
Since 2006년
• 스탠포드대학과 구글이 16,000개의 컴퓨터 프로세스와 10억개 이상의 뉴럴네트워크
를 이용해서 유튜브 내 천만개 비디오 중에서 고양이를 인식.
• 학습데이터가 없은 비지도학습(즉 컴퓨터에게 “이러한 이미지는 고양이다”라고
가르쳐주지 않음).
• 그 결과 인간의 얼굴은 81.7%, 인간의 몸 76.7%, 고양이는 74.8%의 정확도로 인식함.
2012년 6월
http://image-net.org/
NAVER speech recognition
20% 개선
100%
10%
4%
1%
1990 2000 2010
Using Deep Learning
According to Microsoft’s
speech group:
GMM
WorderrorrateonSwitchboard
Speech Recognition (Acoustic Modeling)
17
• 공개 소프트웨어 (AI)
• 공개 데이터
• 공개 논문
• 공개 경진대회
• 공동 프로젝트
• Open AI Promotion Community
AI 기술 진보는 어떻게 오는가?
18
20
“인공지능이 가장 중요한 세상(AI-first world)에서
우리는 모든 제품을 다시 생각하고 있다. (we are rethinking all our
products)”
순다르 피차이(구글 최고경영자) 2017.05.18
21
22
23
AI in Healthcare
출처: 구글 이미지
24
25
병원명 AI 시스템 개발 내용
Lunit과 Chest X-ray 폐암 조기진단
시스템 개발 협력
OBS Korea와 치과용 인공지능 시스템 개발 협력
AI 벤처기업과 심혈관 질환
조기 진단 시스템 개발 협력
VUNO와 폐암 CT 영상 분석 시스템 개발 협력
삼성 메디슨과 초음파를 이용한 유방암
조기 진단 시스템 개발 협력
인공지능 암 치료 개발 사업 추진 예정
암 진단을 위한 IBM Watson 도입
지능형 의료 안내 로봇 개발
국내 주요 병원 AI 기술 개발 현황 (2017년 기준)
서울의대 예과 ‘의학 입문’ 수업 중 (2017년 11월)
대한영상의학회 춘계학술대회 설문조사 결과 (2017년)
대한영상의학회 춘계학술대회 설문조사 결과 (2017년)
AI will replace radiologists?
의사의 탈숙련화(Deskilling)?
Reason 1. Humans will always maintain ultimate responsibility.
Reason 2. Radiologists don’t just look at images.
Reason 3. Productivity gains will drive demand.
Why AI will not replace radiologists?
Doctors?
Doctors
34
35
우승팀의 딥러닝 모델 개요 (Andrew back, Harvard Univ.)
36
https://www.snuh.org/main.do
37
출처: 구글 이미지
Artificial Intelligence
Machine Learning
ANN
PCA
SVM
Decision
Tree
Deep
Learn-
ing
39
Q. What is learning?
• 인간이 연속된 경험을 통해 배워가는 일련의 과정 - David Kolb
• 기억(Memorization)하고 적응(Adaptation)하고, 이를 일반화(Generalization)하는 것
Q. Why machines need to learn?
• 모든 것을 프로그래밍 할 수 없다.
• 모든 상황을 커버할 수 있는 룰을 만드는 것은 불가능하다.
• 알고리즘으로 정의하기 어려운 일들이 있다.
40
41
42
머신러닝 과정
1. 데이터 수집 및 전처리
2. 특징 선택 및 추출
3. 알고리즘 선택
4. 학습
5. 평가
43
Task : Classification
농어
연어
https://www.pinterest.co.uk/pin/53832158029479772/
https://www.pinterest.co.uk/pin/53832158029479772/
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
48
1. 데이터 수집 및 전처리
출처: 구글 이미지
49
1. 데이터 수집 및 전처리
출처: 구글 이미지
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
52
2. 특징 선택 및 추출
53
2. 특징 선택 및 추출
• 특징(Feature) 종류?
• 특징(Feature) 갯수?
Length
Lightness
Width
Number and shape of fins
Position of the mouth
…
생선의 특징 =
54
2. 특징 선택 및 추출
’길이’ 특징
55
2. 특징 선택 및 추출
’밝기’ 특징
56
2. 특징 선택 및 추출
’길이 & 밝기’ 특징
57
• 전 세계 주요 국가의 100만명 당 연간 초콜릿 소비량과 노벨상 수상자 수와의 상
관관계 분석에 대한 결과를 발표 (NEJM, 2012).
• 그 결과는 매우 강한 상관관계가 있음 (r=0.791; 통상 상관계수 r값이 0.7 이상이
면 매우 강한 상관관계를 나타냄).
• 이 상관계수는 노벨위원회가 있는 스웨덴을 제외할 경우 0.862로 더 높아짐.
2. 특징 선택 및 추출 - 종류
출처: 구글 이미지
59
2. 특징 선택 및 추출 - 크기
e.g.
• BMI = 키, 몸무게 (2D)
• 건강상태 = 혈압, 나이, BMI (5D)
60
2. 특징 선택 및 추출
• More features often makes better performance.
• Too many features often causes poor generalization capability.
→ ‘Curse of Dimensionality’
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
63
3. 알고리즘 선택
Classification3. 알고리즘 선택
Regression
3. 알고리즘 선택
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
Continuous value
Categorical value
(Binary, One-hot)
e.g. Least Square Method e.g. Cross-entropy
 Cost function (a.k.a Loss function)
• 학습의 기준이 되는 함수를 정의
• Cost function이 최소화하는 방향으로 학습을 진행 (파라미터 변경)
4. 학습
4. 학습
 Hyperparameters (모델 학습을 위한 파라미터)
• Learning rate
• Regularization constant
• Loss function
• Weight Initialization strategy
• Number of epochs
• Batch size
• (Number of layers)
• (Nodes in hidden layer)
• (Activation functions)
…
 Optimization (파라미터 최적화)
4. 학습
71
4. 학습
72
Regressor
Regression
Regressor
4. 학습
73
4. 학습
일반화 능력
훈련에 참여하지 않은 데이터에도 좋은 성능을 보임
4. 학습
 Bias: 학습한 모델과 Real World 모델과의 불일치 정도
→ Bias를 줄이는 방법: 더 복잡한 모델을 선택
 Variance: 학습한 모델에 대해서 데이터셋이 바뀔 때 성능의 변화량
→ Variance를 줄이는 방법: 더 많은 데이터를 수집
75
4. 학습
 Regularization
• Weight Decaying
• Dropout
 Cross-Validation
• Leave-one-out
• K-fold
76
Weight Decaying4. 학습
Model:
77
Weight Decaying4. 학습
Model:
Cost function:
78
Weight Decaying4. 학습
Model:
Cost function:
Cost function(일반식):
79
Weight Decaying4. 학습
Cost function(일반식):
4. 학습
Cross-Validation
Cross-Validation
4. 학습
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
84
5. 평가
• Trained Model 을 Test dataset에 적용
Confusion Matrix
• Accuracy = (TP + TN) / (TP + TN + FP + FN)
• Sensitivity = TP / (FN + TP)
• Specificity = TN / (TN + FP)
• False positive rate = FP / (TN + FP)
• Precision = TP / (TP + FP)
85
5. 평가
Receiver Operating Characteristic (ROC) Curve
88
89
Challenges in Visual Recognition
91
92
93
• K = 3 ?
• K = 5 ?
x
1. 데이터 수집 및 전처리
• CIFAR-10
2. 특징 선택 및 추출
• 원본 이미지 그대로
3. 알고리즘 선택
• NN Classifier
• K-NN Classifier
Summary
4. 학습
• Cross Validation
5. 평가
• N/A
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Optimization
Strategy #1: Random Search
Optimization
Optimization
Strategy #2: Follow the slope
In 1-dimension,
In multi-dimension, gradient is the vector of (partial derivatives)
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
1. 데이터 수집 및 전처리
• CIFAR-10
2. 특징 선택 및 추출
• 원본 이미지 그대로
3. 알고리즘 선택
• NN Classifier
• K-NN Classifier
• Linear Classifier
Summary
4. 학습
• Cross Validation
• Loss Function
• Optimization
 Gradient Descent
 Mini-batch Gradient Descent
5. 평가
• N/A
Feature Engineering
1. (p6) NVIDIA, “What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?”,
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/
2. (p8, p15, p18) Andrew L. Beam, machine learning and medicine, Deep Learning 101 - Part 1: History and Background,
https://beamandrew.github.io/deeplearning/2017/02/23/deep_learning_101_part1.html
3. (p9) Yann’s Homepage, http://yann.lecun.com/exdb/lenet/
4. (p11) The New York Times, “How Many Computers to Identify a Cat? 16,000”,
https://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine-
learning.html?_r=1&amp
5. (p12-14, p34-36, p87-110, p112-145, p149) Standford, CS231n, http://cs231n.stanford.edu/
6. (p16) Machine Learning Tutorial 2015 (NAVER)
7. (p17) AIRI 400, “인공지능의 개요, 가치, 그리고 한계” (김진형 박사)
8. (p19) CBINSIGHTS, “From Virtual Nurses To Drug Discovery: 106 Artificial Intelligence Startups In Healthcare”,
https://www.cbinsights.com/research/artificial-intelligence-startups-healthcare/
9. (p20) NEWSIS 기사, 구글 CEO "AI시대 맞춰 모든 제품 다시 생각 중“,
http://www.newsis.com/view/?id=NISX20170518_0014902945
10. (p21)Analytic Indai, “Infographic- Artificial Narrow Intelligence Vs. Artificial General Intelligence”,
https://analyticsindiamag.com/artificial-narrow-vs-artificial-general/
11. (p22) WEF expert panel interviews, press release, company website: A.T Kearney analysis
12. (p24) Machine Learning for Healthcare, MIT. Spring 2017, https://mlhc17mit.github.io/
13. (p25) Medium, AI in Healthcare: Industry Landscape, https://techburst.io/ai-in-healthcare-industry-landscape-
c433829b320c
14. (p27) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사의 새로운 역할은”,
http://www.yoonsupchoi.com/2018/01/03/ai-medicine-12/
15. (p28-29) 최윤섭의 Healthcare Innovation, “인공지능은 의사를 대체하는가”,
http://www.yoonsupchoi.com/2017/11/10/ai-medicine-9/
16. (p30) Eric Topol Twitter, https://twitter.com/erictopol/status/931906798432350208
17. (p31) 동아일보, http://dimg.donga.com/wps/NEWS/IMAGE/2017/06/19/84945511.1.edit.jpg
18. (p32) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사는 무엇으로 사는가”,
http://www.yoonsupchoi.com/2017/12/29/ai-medicine-11/
19. (p33) Medium, “Why AI will not replace radiologists” https://towardsdatascience.com/why-ai-will-not-replace-
radiologists-c7736f2c7d80
20. (p39, p70, p148) AIRI 400, “Machine Learning 기초” (이광희 박사)
21. (p40) ciokorea 인터뷰, “데이빗 마이어에게 듣는 머신러닝과 네트워크와 보안”, http://www.ciokorea.com/news/34370
22. (p41) Data Science Central, https://www.datasciencecentral.com/profiles/blogs/types-of-machine-learning-algorithms-
in-one-picture
23. (p42, p71-72) 모두의 연구소, “기계학습/머신러닝 기초”, http://www.whydsp.org/237
24. (p43, p52, p54-56, p73) AIRI 400, 패턴인식-기계학습의 원리, 능력과 한계 (김진형 박사)
25. (p44-45) Pinterest, https://www.pinterest.co.uk/pin/53832158029479772/
26. (p53) BRILLIANT, Feature Vector, https://brilliant.org/wiki/feature-vector/
27. (p57) The NEJM, “Chocolate Consumption, Cognitive Function, and Nobel Laureates”,
http://www.nejm.org/doi/pdf/10.1056/NEJMon1211064
28. (p59) tSL, the Science Life, “빅데이터: 큰 용량의 역습 – 차원의 저주”, http://thesciencelife.com/archives/1001
29. (p60) Random Musings’ blog, https://dmm613.wordpress.com/author/dmm613/
30. (p63) Steemit, “A Tour of Machine Learning Algorithms”, https://steemit.com/science/@techforn10/a-tour-of-machine-
learning-algorithms
31. (p64)
• Deep Thoughts, “Demystifying deep”, https://devashishshankar.wordpress.com/2015/11/13/demystifying-deep-
neural-networks/
• Brian Dolhansky, “Artificial Neural Networks: Linear Multiclass Classification (part3)”,
http://briandolhansky.com/blog/2013/9/23/artificial-neural-nets-linear-multiclass-part-3
• Statistical Pattern Recognition Toolbox for Matlab, “Examples: Statistical Pattern Recognition Toolbox”,
https://cmp.felk.cvut.cz/cmp/software/stprtool/examples.html#knnclass_example
32. (p65) Xu Cui’s blog, SVM regression with libsvm, http://www.alivelearn.net/?p=1083
33. (p70)
• Sanghyukchun’s blog, Machine Learning 스터디 (7) Convex Optimization, http://sanghyukchun.github.io/63/
• Coursera, Machine Learning (Standford), https://ko.coursera.org/learn/machine-learning
34. (p74) R,Pyrhon 분석과 프로그래밍(by R Friend), [R 기계학습] 과적합(Over-fitting), Bias-Variance Trade-off (Delimma),
http://rfriend.tistory.com/189
35. (p76-79) 2nd Summer School on Deep Learning for Computer Vision Barcelona,
https://www.slideshare.net/xavigiro/training-deep-networks-d1l5-2017-upc-deep-learning-for-computer-vision
36. (p80-81) Medium, “Train/Test Split and Cross Validation in Python”, https://towardsdatascience.com/train-test-split-
and-cross-validation-in-python-80b61beca4b6
37. (p84-85) Ritchie Ng’s blog, “Evaluating a Classification Model”, https://www.ritchieng.com/machine-learning-evaluate-
classification-model/
38. (p86) “Getting Started with TensorFlow(2016), Giancarlo Zaccone, Packt”
39. (p103) WIKIPEDIA, “k-nearest neighbors algorithm”,
https://ko.wikipedia.org/wiki/K%EC%B5%9C%EA%B7%BC%EC%A0%91_%EC%9D%B4%EC%9B%83_%EC%95%8C%EA%B
3%A0%EB%A6%AC%EC%A6%98
40. (p146) Deniz Yuret’s Homepage, “Alec Radford's animations for optimization algorithms”,
http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html
Deep Learning for AI (1)

More Related Content

What's hot

アーキテクチャ決定のお供にLightweight architecture decision records
アーキテクチャ決定のお供にLightweight architecture decision recordsアーキテクチャ決定のお供にLightweight architecture decision records
アーキテクチャ決定のお供にLightweight architecture decision recordsdisc99_
 
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介Ryohei Ueda
 
ROSを用いた歩行ロボットの脚の開発
ROSを用いた歩行ロボットの脚の開発ROSを用いた歩行ロボットの脚の開発
ROSを用いた歩行ロボットの脚の開発ShomaUehara
 
ROSによる今後のロボティクスのあり方
ROSによる今後のロボティクスのあり方ROSによる今後のロボティクスのあり方
ROSによる今後のロボティクスのあり方Mori Ken
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解Koji Terada
 
Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会
Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会
Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会Hiroaki Kaneda
 
go generate 完全入門
go generate 完全入門go generate 完全入門
go generate 完全入門yaegashi
 
統計的学習手法よる人検出
統計的学習手法よる人検出統計的学習手法よる人検出
統計的学習手法よる人検出Hironobu Fujiyoshi
 
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也Preferred Networks
 
情報検索のためのユーザモデル
情報検索のためのユーザモデル情報検索のためのユーザモデル
情報検索のためのユーザモデルkt.mako
 
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII
 
情報アーキテクチャ入門
情報アーキテクチャ入門情報アーキテクチャ入門
情報アーキテクチャ入門Manami Nakamura
 
Web Workerで○○する話
Web Workerで○○する話Web Workerで○○する話
Web Workerで○○する話ushiboy
 
Github Actionsで始めるROS/ROS2のCI
Github Actionsで始めるROS/ROS2のCIGithub Actionsで始めるROS/ROS2のCI
Github Actionsで始めるROS/ROS2のCIAtsuki Yokota
 
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...Deep Learning JP
 
ものづくりの視点で説明する要件定義
ものづくりの視点で説明する要件定義ものづくりの視点で説明する要件定義
ものづくりの視点で説明する要件定義祐磨 堀
 
異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知Ken'ichi Matsui
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Modelsharmonylab
 
脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治
脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治
脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治The Whole Brain Architecture Initiative
 

What's hot (20)

アーキテクチャ決定のお供にLightweight architecture decision records
アーキテクチャ決定のお供にLightweight architecture decision recordsアーキテクチャ決定のお供にLightweight architecture decision records
アーキテクチャ決定のお供にLightweight architecture decision records
 
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
 
ROSを用いた歩行ロボットの脚の開発
ROSを用いた歩行ロボットの脚の開発ROSを用いた歩行ロボットの脚の開発
ROSを用いた歩行ロボットの脚の開発
 
ROSによる今後のロボティクスのあり方
ROSによる今後のロボティクスのあり方ROSによる今後のロボティクスのあり方
ROSによる今後のロボティクスのあり方
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解
 
Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会
Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会
Turtlebot3とrealsenseで作るお手軽移動ロボットros japan ug #23 関西勉強会
 
go generate 完全入門
go generate 完全入門go generate 完全入門
go generate 完全入門
 
統計的学習手法よる人検出
統計的学習手法よる人検出統計的学習手法よる人検出
統計的学習手法よる人検出
 
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
 
情報検索のためのユーザモデル
情報検索のためのユーザモデル情報検索のためのユーザモデル
情報検索のためのユーザモデル
 
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
情報アーキテクチャ入門
情報アーキテクチャ入門情報アーキテクチャ入門
情報アーキテクチャ入門
 
Web Workerで○○する話
Web Workerで○○する話Web Workerで○○する話
Web Workerで○○する話
 
Github Actionsで始めるROS/ROS2のCI
Github Actionsで始めるROS/ROS2のCIGithub Actionsで始めるROS/ROS2のCI
Github Actionsで始めるROS/ROS2のCI
 
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
 
ものづくりの視点で説明する要件定義
ものづくりの視点で説明する要件定義ものづくりの視点で説明する要件定義
ものづくりの視点で説明する要件定義
 
IROS2020 survey
IROS2020 surveyIROS2020 survey
IROS2020 survey
 
異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
 
脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治
脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治
脳とAIの接点から何を学びうるのか@第5回WBAシンポジウム: 銅谷賢治
 

Similar to Deep Learning for AI (1)

Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhleeDongheon Lee
 
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks pko89403
 
데이터에서 의미 추출하기
데이터에서 의미 추출하기데이터에서 의미 추출하기
데이터에서 의미 추출하기Nam-young Lee
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4thSubin An
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindDataya Nolja
 
기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작Do Hoerin
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)Jaimie Kwon (권재명)
 
Meetup history
Meetup historyMeetup history
Meetup historyMk Kim
 
Image data augmentatiion
Image data augmentatiionImage data augmentatiion
Image data augmentatiionSubin An
 
[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례kosena
 
AnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIAnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIHYEJINLIM10
 
[FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview [FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview chanyoonkim
 
Bigdate & R programming
Bigdate & R programmingBigdate & R programming
Bigdate & R programmingSeongWan Son
 
권기훈_포트폴리오
권기훈_포트폴리오권기훈_포트폴리오
권기훈_포트폴리오Kihoon4
 
Chapter 11 Practical Methodology
Chapter 11 Practical MethodologyChapter 11 Practical Methodology
Chapter 11 Practical MethodologyKyeongUkJang
 
머신러닝의 개념과 실습
머신러닝의 개념과 실습머신러닝의 개념과 실습
머신러닝의 개념과 실습Byoung-Hee Kim
 
Peopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start todayPeopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start todayYoungchan Jo
 
[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScienceNAVER D2
 
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...Wookjin Choi
 

Similar to Deep Learning for AI (1) (20)

Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhlee
 
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
 
데이터에서 의미 추출하기
데이터에서 의미 추출하기데이터에서 의미 추출하기
데이터에서 의미 추출하기
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4th
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in Mind
 
기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
 
Meetup history
Meetup historyMeetup history
Meetup history
 
Image data augmentatiion
Image data augmentatiionImage data augmentatiion
Image data augmentatiion
 
[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례
 
AnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIAnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AI
 
[FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview [FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview
 
Bigdate & R programming
Bigdate & R programmingBigdate & R programming
Bigdate & R programming
 
권기훈_포트폴리오
권기훈_포트폴리오권기훈_포트폴리오
권기훈_포트폴리오
 
Chapter 11 Practical Methodology
Chapter 11 Practical MethodologyChapter 11 Practical Methodology
Chapter 11 Practical Methodology
 
머신러닝의 개념과 실습
머신러닝의 개념과 실습머신러닝의 개념과 실습
머신러닝의 개념과 실습
 
Peopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start todayPeopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start today
 
[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience
 
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
 

More from Dongheon Lee

Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++Dongheon Lee
 
ModuLab DLC-Medical5
ModuLab DLC-Medical5ModuLab DLC-Medical5
ModuLab DLC-Medical5Dongheon Lee
 
ModuLab DLC-Medical4
ModuLab DLC-Medical4ModuLab DLC-Medical4
ModuLab DLC-Medical4Dongheon Lee
 
ModuLab DLC-Medical1
ModuLab DLC-Medical1ModuLab DLC-Medical1
ModuLab DLC-Medical1Dongheon Lee
 
ModuLab DLC-Medical3
ModuLab DLC-Medical3ModuLab DLC-Medical3
ModuLab DLC-Medical3Dongheon Lee
 
Deep Learning for AI (2)
Deep Learning for AI (2)Deep Learning for AI (2)
Deep Learning for AI (2)Dongheon Lee
 
Deep Learning for AI (3)
Deep Learning for AI (3)Deep Learning for AI (3)
Deep Learning for AI (3)Dongheon Lee
 

More from Dongheon Lee (9)

GAN Evaluation
GAN EvaluationGAN Evaluation
GAN Evaluation
 
BeautyGlow
BeautyGlowBeautyGlow
BeautyGlow
 
Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++
 
ModuLab DLC-Medical5
ModuLab DLC-Medical5ModuLab DLC-Medical5
ModuLab DLC-Medical5
 
ModuLab DLC-Medical4
ModuLab DLC-Medical4ModuLab DLC-Medical4
ModuLab DLC-Medical4
 
ModuLab DLC-Medical1
ModuLab DLC-Medical1ModuLab DLC-Medical1
ModuLab DLC-Medical1
 
ModuLab DLC-Medical3
ModuLab DLC-Medical3ModuLab DLC-Medical3
ModuLab DLC-Medical3
 
Deep Learning for AI (2)
Deep Learning for AI (2)Deep Learning for AI (2)
Deep Learning for AI (2)
 
Deep Learning for AI (3)
Deep Learning for AI (3)Deep Learning for AI (3)
Deep Learning for AI (3)
 

Deep Learning for AI (1)

  • 1. 2018. 04. 12. 인공지능을 위한 딥러닝 프로그래밍 Machine Learning 의용전자연구실 박사과정 이동헌
  • 2. Week3 Machine Learning (18. 04. 12. 13:00-17:00) Week4 Deep Learning (18. 05. 03. 13:00-17:00) Week5 AI in Medicine (18. 05. 10. 13:00-17:00) • Introduction to AI • Machine Learning Overview • Image Classification Pipeline • Loss functions and Optimization • Neural Network and Backpropagation • Training Neural Networks • Convolutional Neural Networks (CNNs) • CNNs Models • Applications of CNNs • Recurrent Neural Networks (RNNs) • Deep Learning in Practice • Applications in Medicine
  • 3.  Introduction to AI  Machine Learning Overview  Image Classification Pipeline  Loss functions and Optimization
  • 5.
  • 6.
  • 7. 7
  • 8.
  • 11. • 스탠포드대학과 구글이 16,000개의 컴퓨터 프로세스와 10억개 이상의 뉴럴네트워크 를 이용해서 유튜브 내 천만개 비디오 중에서 고양이를 인식. • 학습데이터가 없은 비지도학습(즉 컴퓨터에게 “이러한 이미지는 고양이다”라고 가르쳐주지 않음). • 그 결과 인간의 얼굴은 81.7%, 인간의 몸 76.7%, 고양이는 74.8%의 정확도로 인식함. 2012년 6월
  • 13.
  • 14.
  • 15.
  • 16. NAVER speech recognition 20% 개선 100% 10% 4% 1% 1990 2000 2010 Using Deep Learning According to Microsoft’s speech group: GMM WorderrorrateonSwitchboard Speech Recognition (Acoustic Modeling)
  • 17. 17 • 공개 소프트웨어 (AI) • 공개 데이터 • 공개 논문 • 공개 경진대회 • 공동 프로젝트 • Open AI Promotion Community AI 기술 진보는 어떻게 오는가?
  • 18. 18
  • 19.
  • 20. 20 “인공지능이 가장 중요한 세상(AI-first world)에서 우리는 모든 제품을 다시 생각하고 있다. (we are rethinking all our products)” 순다르 피차이(구글 최고경영자) 2017.05.18
  • 21. 21
  • 22. 22
  • 23. 23 AI in Healthcare 출처: 구글 이미지
  • 24. 24
  • 25. 25
  • 26. 병원명 AI 시스템 개발 내용 Lunit과 Chest X-ray 폐암 조기진단 시스템 개발 협력 OBS Korea와 치과용 인공지능 시스템 개발 협력 AI 벤처기업과 심혈관 질환 조기 진단 시스템 개발 협력 VUNO와 폐암 CT 영상 분석 시스템 개발 협력 삼성 메디슨과 초음파를 이용한 유방암 조기 진단 시스템 개발 협력 인공지능 암 치료 개발 사업 추진 예정 암 진단을 위한 IBM Watson 도입 지능형 의료 안내 로봇 개발 국내 주요 병원 AI 기술 개발 현황 (2017년 기준)
  • 27. 서울의대 예과 ‘의학 입문’ 수업 중 (2017년 11월)
  • 30. AI will replace radiologists?
  • 31.
  • 33. Reason 1. Humans will always maintain ultimate responsibility. Reason 2. Radiologists don’t just look at images. Reason 3. Productivity gains will drive demand. Why AI will not replace radiologists? Doctors? Doctors
  • 34. 34
  • 35. 35 우승팀의 딥러닝 모델 개요 (Andrew back, Harvard Univ.)
  • 39. 39 Q. What is learning? • 인간이 연속된 경험을 통해 배워가는 일련의 과정 - David Kolb • 기억(Memorization)하고 적응(Adaptation)하고, 이를 일반화(Generalization)하는 것 Q. Why machines need to learn? • 모든 것을 프로그래밍 할 수 없다. • 모든 상황을 커버할 수 있는 룰을 만드는 것은 불가능하다. • 알고리즘으로 정의하기 어려운 일들이 있다.
  • 40. 40
  • 41. 41
  • 42. 42 머신러닝 과정 1. 데이터 수집 및 전처리 2. 특징 선택 및 추출 3. 알고리즘 선택 4. 학습 5. 평가
  • 46. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 47. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 48. 48 1. 데이터 수집 및 전처리 출처: 구글 이미지
  • 49. 49 1. 데이터 수집 및 전처리 출처: 구글 이미지
  • 50. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 51. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 52. 52 2. 특징 선택 및 추출
  • 53. 53 2. 특징 선택 및 추출 • 특징(Feature) 종류? • 특징(Feature) 갯수? Length Lightness Width Number and shape of fins Position of the mouth … 생선의 특징 =
  • 54. 54 2. 특징 선택 및 추출 ’길이’ 특징
  • 55. 55 2. 특징 선택 및 추출 ’밝기’ 특징
  • 56. 56 2. 특징 선택 및 추출 ’길이 & 밝기’ 특징
  • 57. 57 • 전 세계 주요 국가의 100만명 당 연간 초콜릿 소비량과 노벨상 수상자 수와의 상 관관계 분석에 대한 결과를 발표 (NEJM, 2012). • 그 결과는 매우 강한 상관관계가 있음 (r=0.791; 통상 상관계수 r값이 0.7 이상이 면 매우 강한 상관관계를 나타냄). • 이 상관계수는 노벨위원회가 있는 스웨덴을 제외할 경우 0.862로 더 높아짐. 2. 특징 선택 및 추출 - 종류
  • 59. 59 2. 특징 선택 및 추출 - 크기 e.g. • BMI = 키, 몸무게 (2D) • 건강상태 = 혈압, 나이, BMI (5D)
  • 60. 60 2. 특징 선택 및 추출 • More features often makes better performance. • Too many features often causes poor generalization capability. → ‘Curse of Dimensionality’
  • 61. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 62. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 66. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 67. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 68. Continuous value Categorical value (Binary, One-hot) e.g. Least Square Method e.g. Cross-entropy  Cost function (a.k.a Loss function) • 학습의 기준이 되는 함수를 정의 • Cost function이 최소화하는 방향으로 학습을 진행 (파라미터 변경) 4. 학습
  • 69. 4. 학습  Hyperparameters (모델 학습을 위한 파라미터) • Learning rate • Regularization constant • Loss function • Weight Initialization strategy • Number of epochs • Batch size • (Number of layers) • (Nodes in hidden layer) • (Activation functions) …
  • 70.  Optimization (파라미터 최적화) 4. 학습
  • 73. 73 4. 학습 일반화 능력 훈련에 참여하지 않은 데이터에도 좋은 성능을 보임
  • 74. 4. 학습  Bias: 학습한 모델과 Real World 모델과의 불일치 정도 → Bias를 줄이는 방법: 더 복잡한 모델을 선택  Variance: 학습한 모델에 대해서 데이터셋이 바뀔 때 성능의 변화량 → Variance를 줄이는 방법: 더 많은 데이터를 수집
  • 75. 75 4. 학습  Regularization • Weight Decaying • Dropout  Cross-Validation • Leave-one-out • K-fold
  • 78. 78 Weight Decaying4. 학습 Model: Cost function: Cost function(일반식):
  • 79. 79 Weight Decaying4. 학습 Cost function(일반식):
  • 82. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 83. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 84. 84 5. 평가 • Trained Model 을 Test dataset에 적용 Confusion Matrix • Accuracy = (TP + TN) / (TP + TN + FP + FN) • Sensitivity = TP / (FN + TP) • Specificity = TN / (TN + FP) • False positive rate = FP / (TN + FP) • Precision = TP / (TP + FP)
  • 85. 85 5. 평가 Receiver Operating Characteristic (ROC) Curve
  • 86.
  • 87.
  • 88. 88
  • 89. 89
  • 90. Challenges in Visual Recognition
  • 91. 91
  • 92. 92
  • 93. 93
  • 94.
  • 95.
  • 96.
  • 97.
  • 98.
  • 99.
  • 100.
  • 101.
  • 102.
  • 103. • K = 3 ? • K = 5 ?
  • 104.
  • 105.
  • 106. x
  • 107.
  • 108.
  • 109.
  • 110.
  • 111. 1. 데이터 수집 및 전처리 • CIFAR-10 2. 특징 선택 및 추출 • 원본 이미지 그대로 3. 알고리즘 선택 • NN Classifier • K-NN Classifier Summary 4. 학습 • Cross Validation 5. 평가 • N/A
  • 112.
  • 113.
  • 114.
  • 115.
  • 116.
  • 117.
  • 118.
  • 119.
  • 120.
  • 134. Optimization Strategy #2: Follow the slope In 1-dimension, In multi-dimension, gradient is the vector of (partial derivatives)
  • 147. 1. 데이터 수집 및 전처리 • CIFAR-10 2. 특징 선택 및 추출 • 원본 이미지 그대로 3. 알고리즘 선택 • NN Classifier • K-NN Classifier • Linear Classifier Summary 4. 학습 • Cross Validation • Loss Function • Optimization  Gradient Descent  Mini-batch Gradient Descent 5. 평가 • N/A
  • 149.
  • 150. 1. (p6) NVIDIA, “What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?”, https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ 2. (p8, p15, p18) Andrew L. Beam, machine learning and medicine, Deep Learning 101 - Part 1: History and Background, https://beamandrew.github.io/deeplearning/2017/02/23/deep_learning_101_part1.html 3. (p9) Yann’s Homepage, http://yann.lecun.com/exdb/lenet/ 4. (p11) The New York Times, “How Many Computers to Identify a Cat? 16,000”, https://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine- learning.html?_r=1&amp 5. (p12-14, p34-36, p87-110, p112-145, p149) Standford, CS231n, http://cs231n.stanford.edu/ 6. (p16) Machine Learning Tutorial 2015 (NAVER) 7. (p17) AIRI 400, “인공지능의 개요, 가치, 그리고 한계” (김진형 박사) 8. (p19) CBINSIGHTS, “From Virtual Nurses To Drug Discovery: 106 Artificial Intelligence Startups In Healthcare”, https://www.cbinsights.com/research/artificial-intelligence-startups-healthcare/ 9. (p20) NEWSIS 기사, 구글 CEO "AI시대 맞춰 모든 제품 다시 생각 중“, http://www.newsis.com/view/?id=NISX20170518_0014902945 10. (p21)Analytic Indai, “Infographic- Artificial Narrow Intelligence Vs. Artificial General Intelligence”, https://analyticsindiamag.com/artificial-narrow-vs-artificial-general/
  • 151. 11. (p22) WEF expert panel interviews, press release, company website: A.T Kearney analysis 12. (p24) Machine Learning for Healthcare, MIT. Spring 2017, https://mlhc17mit.github.io/ 13. (p25) Medium, AI in Healthcare: Industry Landscape, https://techburst.io/ai-in-healthcare-industry-landscape- c433829b320c 14. (p27) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사의 새로운 역할은”, http://www.yoonsupchoi.com/2018/01/03/ai-medicine-12/ 15. (p28-29) 최윤섭의 Healthcare Innovation, “인공지능은 의사를 대체하는가”, http://www.yoonsupchoi.com/2017/11/10/ai-medicine-9/ 16. (p30) Eric Topol Twitter, https://twitter.com/erictopol/status/931906798432350208 17. (p31) 동아일보, http://dimg.donga.com/wps/NEWS/IMAGE/2017/06/19/84945511.1.edit.jpg 18. (p32) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사는 무엇으로 사는가”, http://www.yoonsupchoi.com/2017/12/29/ai-medicine-11/ 19. (p33) Medium, “Why AI will not replace radiologists” https://towardsdatascience.com/why-ai-will-not-replace- radiologists-c7736f2c7d80 20. (p39, p70, p148) AIRI 400, “Machine Learning 기초” (이광희 박사) 21. (p40) ciokorea 인터뷰, “데이빗 마이어에게 듣는 머신러닝과 네트워크와 보안”, http://www.ciokorea.com/news/34370 22. (p41) Data Science Central, https://www.datasciencecentral.com/profiles/blogs/types-of-machine-learning-algorithms- in-one-picture 23. (p42, p71-72) 모두의 연구소, “기계학습/머신러닝 기초”, http://www.whydsp.org/237
  • 152. 24. (p43, p52, p54-56, p73) AIRI 400, 패턴인식-기계학습의 원리, 능력과 한계 (김진형 박사) 25. (p44-45) Pinterest, https://www.pinterest.co.uk/pin/53832158029479772/ 26. (p53) BRILLIANT, Feature Vector, https://brilliant.org/wiki/feature-vector/ 27. (p57) The NEJM, “Chocolate Consumption, Cognitive Function, and Nobel Laureates”, http://www.nejm.org/doi/pdf/10.1056/NEJMon1211064 28. (p59) tSL, the Science Life, “빅데이터: 큰 용량의 역습 – 차원의 저주”, http://thesciencelife.com/archives/1001 29. (p60) Random Musings’ blog, https://dmm613.wordpress.com/author/dmm613/ 30. (p63) Steemit, “A Tour of Machine Learning Algorithms”, https://steemit.com/science/@techforn10/a-tour-of-machine- learning-algorithms 31. (p64) • Deep Thoughts, “Demystifying deep”, https://devashishshankar.wordpress.com/2015/11/13/demystifying-deep- neural-networks/ • Brian Dolhansky, “Artificial Neural Networks: Linear Multiclass Classification (part3)”, http://briandolhansky.com/blog/2013/9/23/artificial-neural-nets-linear-multiclass-part-3 • Statistical Pattern Recognition Toolbox for Matlab, “Examples: Statistical Pattern Recognition Toolbox”, https://cmp.felk.cvut.cz/cmp/software/stprtool/examples.html#knnclass_example 32. (p65) Xu Cui’s blog, SVM regression with libsvm, http://www.alivelearn.net/?p=1083 33. (p70) • Sanghyukchun’s blog, Machine Learning 스터디 (7) Convex Optimization, http://sanghyukchun.github.io/63/ • Coursera, Machine Learning (Standford), https://ko.coursera.org/learn/machine-learning
  • 153. 34. (p74) R,Pyrhon 분석과 프로그래밍(by R Friend), [R 기계학습] 과적합(Over-fitting), Bias-Variance Trade-off (Delimma), http://rfriend.tistory.com/189 35. (p76-79) 2nd Summer School on Deep Learning for Computer Vision Barcelona, https://www.slideshare.net/xavigiro/training-deep-networks-d1l5-2017-upc-deep-learning-for-computer-vision 36. (p80-81) Medium, “Train/Test Split and Cross Validation in Python”, https://towardsdatascience.com/train-test-split- and-cross-validation-in-python-80b61beca4b6 37. (p84-85) Ritchie Ng’s blog, “Evaluating a Classification Model”, https://www.ritchieng.com/machine-learning-evaluate- classification-model/ 38. (p86) “Getting Started with TensorFlow(2016), Giancarlo Zaccone, Packt” 39. (p103) WIKIPEDIA, “k-nearest neighbors algorithm”, https://ko.wikipedia.org/wiki/K%EC%B5%9C%EA%B7%BC%EC%A0%91_%EC%9D%B4%EC%9B%83_%EC%95%8C%EA%B 3%A0%EB%A6%AC%EC%A6%98 40. (p146) Deniz Yuret’s Homepage, “Alec Radford's animations for optimization algorithms”, http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html

Editor's Notes

  1. 1950년, 앨런튜링
  2. 4차 산업혁명? 알파고
  3. Adaline: early single-layer artificial neural network (error feedback)
  4. 논문 발표시, 소스코드 같이 공개하는 관행
  5. Annual Conference on Neural Information Processing Systems  (2016년 기준)
  6. IBM oncology: 의료기기 아님(한국/미국)
  7. 1학년 전체 공통 과목 2주간 뷰노, 루닛 등 방문후 기술의 발전이 자신의 미래에 어떤 영향?
  8. 자동항법(오토파일럿) 발달 -1940’s 2명의 조종사+3명(항공기관사, 항공사, 무선통신사) -1980’s 2명의 조종사 =>그동안 비행사고가 감소 (최근1명으로 줄이자는 얘기도 나옴) -문제점: 오토파일럿 기능에 의존 > 조종사의 전문지식/반사신경/집중력/수동비행기술 감퇴 (;최근 발생한 사고 절반이 이와 관련됨이 보고됨)
  9. 1.자율주행차 사고 2.의사만이 가능한 영역 (general AI) -새로운 연구(문제를 정의) -환자와 교감(e.g. 안좋은 소식 통보) 3. 능률 향상 / AI와 협업
  10. 270장 1.암인지 아닌지 2.암위치
  11. https://www.youtube.com/watch?v=1DmuFPVlITc
  12. 동일한 문제를 놓고 다음과 같은 차이. 기존 프로그래밍 방법은 데이터와 알고리즘을 넣어 컴퓨터가 계산을 수행하고 나서 출력결과를 만들어 내는 과정으로 원하는 결과에 도달할 때까지 과정을 무한반복. 이에 반해 기계학습 알고리즘 접근법은 데이터와 출력결과를 넣게 되면 컴퓨터가 알고리즘을 만들어낸다. 알고리즘의 성능은 데이터의 양과 질에 달려있고, 얼마나 많은 학습을 반복하냐에 달려있다.
  13. 갯수 많음 – computation
  14. 특징 종류
  15. 특징 크기
  16. 한 샘플을 특정짓기 위해서 많은 양의 정보를 준비할수록 (즉 고차원 데이터일수록) 그 데이터로부터 모델을 학습하기가 훨씬 더 어려워지고 훨씬 더 많은 데이터 양이 필요. 20~25% 특징 추출 특징이 너무 많으면, 성능이 떨어짐
  17. 파라미터 튜닝이 곧 학습
  18. Linear regression, SVM regression Regression > Classification
  19. 1. Manual 설정값 2. loss 줄이면서 찾는값
  20. 길이, 넓이 등.. Not obvious
  21. K-NN 은 잡음에 민감함 K=5 (주변 5개 중에 가장 많은 색상을 따라감; 다수를 따라감)
  22. Score function = hypothesis