Las aplicaciones de Inteligencia Artificial como Machine Learning y Deep Learning se han convertido en parte importante en nuestras vidas. Los productos que compramos, si somos o no aptos para un préstamo bancario, las películas o series que Netflix nos recomienda, coches autoconducidos, reconocimiento de objetos, etc; toda esa información es dirigida hacia nosotros por estos algoritmos.
En la actualidad, estos campos de estudio son los más apasionantes y retadores en computación debido a su alto nivel de complejidad y gran demanda en el mercado. En esta presentación vamos a conocer y aprender a diferenciar estos conceptos, ya que son herramientas inevitables para el mejoramiento de la vida humana.
A continuación, te presentamos algunos de los temas específicos que se expondrán:
- Contexto de ML y DL en Inteligencia Artificial.
- Machine Learning.
- Supervised Learning.
- Unsupervised Learning.
- Deep Learning.
- Artificial Neural Network.
- Convolutional Neural Networks.
- Aplicaciones en ML y DL.
4. Agenda
• Context of ML and DL in Artificial Intelligence.
• Machine Learning.
• Deep Learning.
• Artificial Neural Network.
• Convolutional Neural Networks.
• Applications in ML and DL.
¿QUESTIONS?
#MachineLearningBSF
36. Examples of ML and DL
https://github.com/Marvinsky/machine_learning_vs_deep_learning
37. Bibliography
• Dmytro Mishkin and Nikolay Sergievskiy and Jiri Matas. Systematic evaluation of {CNN} advances on the ImageNet. (2016).
https://arxiv.org/pdf/1606.02228.pdf
• Andrej Karpathy and Justin Johnson and Fei{-}Fei Li. Visualizing and Understanding Recurrent Networks. (2015).
https://arxiv.org/pdf/1506.02078.pdf
• Jun-Yan Zhu, Philipp Krähenbühl, Eli Shechtman, Alexei A. Efros. Generative Visual Manipulation on the Natural Image Manifold.
(2016). https://arxiv.org/pdf/1609.03552.pdf
• Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros. Unpaired Image-to-Image Translation using Cycle-Consistent
Adversarial Networks. (2017). https://arxiv.org/pdf/1703.10593.pdf
• Xudong Mao, Qing Li, Haoran Xie, Raymond Y.K. Lau, Zhen Wang, and Stephen Paul Smolley. Least Squares Generative Adversarial
Networks. (2017). https://arxiv.org/pdf/1611.04076.pdf
• Tianqi Chen, Carlos Guestrin. XGBoost: A Scalable Tree Boosting System. (2016). https://arxiv.org/pdf/1603.02754.pdf
• Hado van Hasselt, Arthur Guez, David Silver. Deep Reinforcement Learning with Double Q-learning.
(2015).https://arxiv.org/pdf/1509.06461.pdf
¿QUESTIONS?
#MachineLearningBSF
38. Bibliography
• Yoshua Bengio. Practical recommendations for gradient-based training of deep architectures. (2012).
https://arxiv.org/pdf/1206.5533.pdf
• Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov. Dropout: a simple way to prevent neural
networks from overfitting. (2014). https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf
• Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio.
Generative Adversarial Networks. (2014). https://arxiv.org/pdf/1406.2661.pdf
• Xiaohan Jin, Ye Qi, Shangxuan Wu. CycleGAN Face-off. (2017). https://arxiv.org/pdf/1712.03451.pdf
• Sergey Ioffe and Christian Szegedy. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate
Shift. (2015). https://arxiv.org/pdf/1502.03167.pdf
• Alec Radford, Luke Metz, Soumith Chintala. Unsupervised Representation Learning with Deep Convolutional Generative
Adversarial Networks. (2015). https://arxiv.org/pdf/1511.06434.pdf
¿QUESTIONS?
#MachineLearningBSF