SlideShare une entreprise Scribd logo
1  sur  47
Réseaux neuronaux
olivier.teytaud@inria.fr
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
Merci Adventiel :-)
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle & jeux
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
36/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Deep blue vainc Kasparov, 1987
Puissance
de calcul et
expertise
humaine
46/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Jeu parfait au puissance 4, 1988
Résolution par
programmation
(reproduire
raisonnement
humain)
56/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Backgammon, top niveau en 1992
Apprentissage
autonome &
réseau de
neurones !
66/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Dames anglaises: jeu parfait
atteint en 2007
Puissance de
calcul et expertise
humaine
76/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Arimaa, créé pour défier l'ordinateur -
qui a gagné en 2015!
Puissance de
calcul et expertise
humaine
86/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Alpha-Go et le jeu de Go
Puissance de calcul,
peu d'expertise humaine,
apprentissage
autonome, réseau
de neurones.
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
IA & machine learning
● Bonne vieille IA:
– Axiomes
– Déductions
==> Modèle > data
(not dead)
● Ici on va plutôt parler machine learning:
– Plein de data
– Fonctions fabriquées pour bien réagir aux data
==> Data > modèle
IA & machine learning
Deux formes d'apprentissage:
● Supervisé: je te montre des situations et ce que tu dois faire
dans ces situations
– Reproduire comportement humain (bras robot)
– Reconnaître image étiqueté (ce cochon va-t-il bien ?)
● Renforcement: je te dis “c'est bien” ou “c'est mal”,
éventuellement un peu tard
– Jeux (on sait si on a gagné à la fin de la partie)
– Reconnaître image non-étiquetée
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
Neurone
Un neurone, c'est une fonction qui dépend de
paramètres, comme suit:
Entrée = vecteur x
Paramètre = vecteur w
Sortie y = tanh(w0 + w1x1 + w2x2 + … + wnxn)
Vectoriel raccourci: y = tanh(wx)
Réseau de neurones
D'abord, plusieurs neurones côte à côte:
Entrée = vecteur x
Paramètre = matrice w
Sorties
y0 = tanh(w00 + w01x1 + w02x2 + … + w0nxn)
… … … …
yk = tanh(wk0 + wk1x1 + wk2x2 + … + wknxn)
Matriciel raccourci: y = tanh(wx)
X y = f(x,w)
Réseau de neurones profond
Pas profond: y = f(x,w) = tanh(wx)
Profond: y = tanh(w1 tanh( w2 tanh( w3 x ) ) )
Ici c'est simple: information de gauche à droite
X f(x,w)
Des années 80 à aujourd'hui
Problème: trouver les paramètres W tels que le réseau soit
intéressant. Biologiquement: renforcement synaptique.
Informatiquement: créer une mesure L(W) de la qualité de W
et faire une descente de gradient pour trouver un bon W:
L(w) =
Li(w) =
Descente de
gradient
stochastique
Des années 80 à aujourd'hui
Problème: trouver les paramètres W tels que le réseau soit
intéressant. Biologiquement: renforcement synaptique.
Informatiquement: créer une mesure L(W) de la qualité de
W et faire une descente de gradient pour trouver un bon W.
Calcul du gradient par “rétropropagation” (composition):
Exemples un par un
(ou petit groupe
par petit groupe;
“minibatches”)
L(w) =
X f(x,w)
Calcul de f(x,w)
Calcul du gradient de Li
Des années 80 à aujourd'hui
Problème: trouver les paramètres W tels que le réseau soit
intéressant. Biologiquement: renforcement synaptique.
Informatiquement: créer une mesure L(W) de la qualité de
W et faire une descente de gradient pour trouver un bon W.
Aujourd'hui: puissance de calcul + + + + +,
mais aussi meilleurs algorithmes
Exemples un par un
(ou petit groupe
par petit groupe)
L(w) =
Entrées
brutes
Sigmoide(gros nombre) ==> Gradient qui
s'annule; comment résoudre ça ?
- RELU: sigmoid(wx) → max(wx,0)
– Gradient tronqué
– normaliser adéquatement les “w” initiaux (Xavier's
initialization: std(w) = 1/racine ( degré entrant/sortant du neurone) )
Localité: neurones connectés seulement aux
neurones “locaux”
Eux, là, ben on les
connecte
pas.
lui
Et
lui
Localité: neurones connectés seulement aux
neurones “locaux” ==> convolution
Partage de
poids: plusieurs neurones
ont les mêmes poids
Certaines couches font du “max” pour être invariantes
par déplacements locaux
(un cochon en haut, c'est pareil
qu'un cochon en bas)
Max-pooling
“Dropout”: flinguez 50% de vos
neurones à chaque exemple
Mais purée pourquoi ça marche ?
Vos neurones sont bruités … et peut-être que c'est très bien comme ça.
Réseau de neurones récurrent
Réseau de
neurones
Info
Observation Action
Réseau de neurones récurrent
Texte français
Texte anglais
Info
Réseau de neurones récurrent
Caméra
Action
Info
Réseau de neurones récurrent
= réseau pas récurrent avec partage de poids
Obs1 Obs2 Obs3 Obs4
Act1 Act2 Act3 Act4
“Long short-term memory”:
jouez au lego avec vos réseaux!
“Highway network”:
jouez au lego avec vos réseaux!
Sortie = RN1(Entrée) x Entrée
+ RN2(Entrée) x RN3(Entrée)
Initialisation en faveur de
– RN1 ≈ 1 ( on “transporte” l'entrée
– RN2 ≈ 0 … sans modification )
– RN3 ≈ poids aléatoires
“Colonne neuronale”:
jouez au lego avec vos réseaux!
Entrée = image canal 1 + image canal 2 + ...
● Plusieurs neurones connectés à la même zone
==> plusieurs motifs locaux extraits
● Pareil pour les couches ultérieures
● Agencez les couches! Du max-pooling,
différentes “largeurs” de connection dans les
convolutions
Représentation
haut niveau
Waow! Algebra on images
Waow! Algebra on images
Waow, neural turing machine!
Learning to sort.
Auto-encoders: “output = input”
(représentation
compressée)
(débruitage) (moitié haute = modèle
génératif)
Waow! Jeu: un réseau qui génère des images,
un réseau qui détecte si artificielle.
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
Apprentissage
par imitation
Stratégie I
(réseau profond acteur)
Parties
humaines
de haut niveau
Stratégie II
(réseau profond acteur)
Parties (donc,
positions avec
évaluation)
Parties contre
soi-même
Apprentissage
supervisé
Critique (réseau
profond évaluant
des positions)
Ingrédients pour biaiser la
Fouille d'arbre Monte Carlo
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
586/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
Possible ?
Les
hippopotames
jouent ils au
ping-pong ?
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
596/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Lire un livre,
répondre
à des questions,
écrire une suite,
deviner qui est
l'assassin...
A. Christie
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
606/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Décharger la voiture,
lire la notice Ikea,
aller chercher les outils
monter le meuble,
l'installer à un endroit
pertinent.
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
616/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Jouer à Intervilles,
aux échecs
ou à la boxe
(sans savoir à l'avance!)
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
626/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
L'avenir
Ce pour quoi on est nuls!
L'ordinateur est très
fort au jeu de Go.
Mais pour cela il joue
des millions de jours (sur
des millions d'ordinateurs!)
Difficile pour le saut
à la perche
ou le pilotage aérien!
Au revoir à tous...
==> vous allez me manquer :-)

Contenu connexe

En vedette

Lake Crest について調べてみた
Lake Crest について調べてみたLake Crest について調べてみた
Lake Crest について調べてみたYutaka Yasuda
 
Science year 3 maixing substances
Science year 3   maixing substancesScience year 3   maixing substances
Science year 3 maixing substancesallyong1117
 
Geek Night 17.0 - Artificial Intelligence and Machine Learning
Geek Night 17.0 - Artificial Intelligence and Machine LearningGeek Night 17.0 - Artificial Intelligence and Machine Learning
Geek Night 17.0 - Artificial Intelligence and Machine LearningGeekNightHyderabad
 
禪與茶
禪與茶禪與茶
禪與茶沫 林
 
White Horse Stream Ecology Park (蘇州白馬澗生態公園)
White Horse Stream Ecology Park (蘇州白馬澗生態公園)White Horse Stream Ecology Park (蘇州白馬澗生態公園)
White Horse Stream Ecology Park (蘇州白馬澗生態公園)Chung Yen Chang
 
自己用電鍋做
自己用電鍋做自己用電鍋做
自己用電鍋做瓜兒 西
 
內景婚紗照如何拍出多變風情
內景婚紗照如何拍出多變風情內景婚紗照如何拍出多變風情
內景婚紗照如何拍出多變風情瓜兒 西
 
How DeepMind Mastered The Game Of Go
How DeepMind Mastered The Game Of GoHow DeepMind Mastered The Game Of Go
How DeepMind Mastered The Game Of GoTim Riser
 
AlphaGo in Depth
AlphaGo in Depth AlphaGo in Depth
AlphaGo in Depth Mark Chang
 

En vedette (13)

Lake Crest について調べてみた
Lake Crest について調べてみたLake Crest について調べてみた
Lake Crest について調べてみた
 
Science year 3 maixing substances
Science year 3   maixing substancesScience year 3   maixing substances
Science year 3 maixing substances
 
Geek Night 17.0 - Artificial Intelligence and Machine Learning
Geek Night 17.0 - Artificial Intelligence and Machine LearningGeek Night 17.0 - Artificial Intelligence and Machine Learning
Geek Night 17.0 - Artificial Intelligence and Machine Learning
 
Alpha gor 2
Alpha gor 2Alpha gor 2
Alpha gor 2
 
禪與茶
禪與茶禪與茶
禪與茶
 
White Horse Stream Ecology Park (蘇州白馬澗生態公園)
White Horse Stream Ecology Park (蘇州白馬澗生態公園)White Horse Stream Ecology Park (蘇州白馬澗生態公園)
White Horse Stream Ecology Park (蘇州白馬澗生態公園)
 
自己用電鍋做
自己用電鍋做自己用電鍋做
自己用電鍋做
 
內景婚紗照如何拍出多變風情
內景婚紗照如何拍出多變風情內景婚紗照如何拍出多變風情
內景婚紗照如何拍出多變風情
 
How DeepMind Mastered The Game Of Go
How DeepMind Mastered The Game Of GoHow DeepMind Mastered The Game Of Go
How DeepMind Mastered The Game Of Go
 
詩詞的水墨世界
詩詞的水墨世界詩詞的水墨世界
詩詞的水墨世界
 
Kata Adjektif
Kata Adjektif Kata Adjektif
Kata Adjektif
 
AlphaGo in Depth
AlphaGo in Depth AlphaGo in Depth
AlphaGo in Depth
 
Alphago Tech talk
Alphago Tech talkAlphago Tech talk
Alphago Tech talk
 

Similaire à Réseaux neuronaux profonds & intelligence artificielle

GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...Neo4j
 
RapportdeStage_CNAM_RousselKevin2016
RapportdeStage_CNAM_RousselKevin2016RapportdeStage_CNAM_RousselKevin2016
RapportdeStage_CNAM_RousselKevin2016DreamWonder
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfSafaeElOmari
 
TPE 2005 - Intelligence artificielle
TPE 2005 - Intelligence artificielleTPE 2005 - Intelligence artificielle
TPE 2005 - Intelligence artificielleSebastien Warin
 
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...Publicis Sapient Engineering
 
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22  par Yvon Gervaise.pdfConférence du 10 novembre 2O22  par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdfYvon Gervaise
 
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdfI-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdflauriandjikam
 
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...Ayyoub Fakhari
 
Cassandra pour les développeurs java
Cassandra pour les développeurs javaCassandra pour les développeurs java
Cassandra pour les développeurs javaJérémy Sevellec
 
Intelligence-Artificielle-cours.pdf
Intelligence-Artificielle-cours.pdfIntelligence-Artificielle-cours.pdf
Intelligence-Artificielle-cours.pdfTCHAMINIPRINCESSELUS
 
Les algorithmes génétiques dans tous leurs états
Les algorithmes génétiques dans tous leurs étatsLes algorithmes génétiques dans tous leurs états
Les algorithmes génétiques dans tous leurs étatsGeneticIO
 
Les unités courantes en informatique
Les unités courantes en informatiqueLes unités courantes en informatique
Les unités courantes en informatiquealexartiste
 
Hasard09 artificiel
Hasard09 artificielHasard09 artificiel
Hasard09 artificielnahdiste
 

Similaire à Réseaux neuronaux profonds & intelligence artificielle (20)

GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
 
RapportdeStage_CNAM_RousselKevin2016
RapportdeStage_CNAM_RousselKevin2016RapportdeStage_CNAM_RousselKevin2016
RapportdeStage_CNAM_RousselKevin2016
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
TPE 2005 - Intelligence artificielle
TPE 2005 - Intelligence artificielleTPE 2005 - Intelligence artificielle
TPE 2005 - Intelligence artificielle
 
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
 
Deeplearning
DeeplearningDeeplearning
Deeplearning
 
Réseaux de neurones
Réseaux de neurones Réseaux de neurones
Réseaux de neurones
 
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22  par Yvon Gervaise.pdfConférence du 10 novembre 2O22  par Yvon Gervaise.pdf
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
 
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdfI-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
 
AI_course.pdf
AI_course.pdfAI_course.pdf
AI_course.pdf
 
QQCOQP_minijeu_Document-Navigateur_V1
QQCOQP_minijeu_Document-Navigateur_V1QQCOQP_minijeu_Document-Navigateur_V1
QQCOQP_minijeu_Document-Navigateur_V1
 
coursjavaDiapo.pdf
coursjavaDiapo.pdfcoursjavaDiapo.pdf
coursjavaDiapo.pdf
 
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
 
Cassandra pour les développeurs java
Cassandra pour les développeurs javaCassandra pour les développeurs java
Cassandra pour les développeurs java
 
Intelligence-Artificielle-cours.pdf
Intelligence-Artificielle-cours.pdfIntelligence-Artificielle-cours.pdf
Intelligence-Artificielle-cours.pdf
 
77618521.pdf
77618521.pdf77618521.pdf
77618521.pdf
 
Les algorithmes génétiques dans tous leurs états
Les algorithmes génétiques dans tous leurs étatsLes algorithmes génétiques dans tous leurs états
Les algorithmes génétiques dans tous leurs états
 
Les unités courantes en informatique
Les unités courantes en informatiqueLes unités courantes en informatique
Les unités courantes en informatique
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
 
Hasard09 artificiel
Hasard09 artificielHasard09 artificiel
Hasard09 artificiel
 

Réseaux neuronaux profonds & intelligence artificielle

  • 1. Réseaux neuronaux olivier.teytaud@inria.fr Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur Merci Adventiel :-)
  • 2. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle & jeux Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 3. 36/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Deep blue vainc Kasparov, 1987 Puissance de calcul et expertise humaine
  • 4. 46/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Jeu parfait au puissance 4, 1988 Résolution par programmation (reproduire raisonnement humain)
  • 5. 56/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Backgammon, top niveau en 1992 Apprentissage autonome & réseau de neurones !
  • 6. 66/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Dames anglaises: jeu parfait atteint en 2007 Puissance de calcul et expertise humaine
  • 7. 76/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Arimaa, créé pour défier l'ordinateur - qui a gagné en 2015! Puissance de calcul et expertise humaine
  • 8. 86/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Alpha-Go et le jeu de Go Puissance de calcul, peu d'expertise humaine, apprentissage autonome, réseau de neurones.
  • 9. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 10. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 11. IA & machine learning ● Bonne vieille IA: – Axiomes – Déductions ==> Modèle > data (not dead) ● Ici on va plutôt parler machine learning: – Plein de data – Fonctions fabriquées pour bien réagir aux data ==> Data > modèle
  • 12. IA & machine learning Deux formes d'apprentissage: ● Supervisé: je te montre des situations et ce que tu dois faire dans ces situations – Reproduire comportement humain (bras robot) – Reconnaître image étiqueté (ce cochon va-t-il bien ?) ● Renforcement: je te dis “c'est bien” ou “c'est mal”, éventuellement un peu tard – Jeux (on sait si on a gagné à la fin de la partie) – Reconnaître image non-étiquetée
  • 13. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 14. Neurone Un neurone, c'est une fonction qui dépend de paramètres, comme suit: Entrée = vecteur x Paramètre = vecteur w Sortie y = tanh(w0 + w1x1 + w2x2 + … + wnxn) Vectoriel raccourci: y = tanh(wx)
  • 15. Réseau de neurones D'abord, plusieurs neurones côte à côte: Entrée = vecteur x Paramètre = matrice w Sorties y0 = tanh(w00 + w01x1 + w02x2 + … + w0nxn) … … … … yk = tanh(wk0 + wk1x1 + wk2x2 + … + wknxn) Matriciel raccourci: y = tanh(wx) X y = f(x,w)
  • 16. Réseau de neurones profond Pas profond: y = f(x,w) = tanh(wx) Profond: y = tanh(w1 tanh( w2 tanh( w3 x ) ) ) Ici c'est simple: information de gauche à droite X f(x,w)
  • 17. Des années 80 à aujourd'hui Problème: trouver les paramètres W tels que le réseau soit intéressant. Biologiquement: renforcement synaptique. Informatiquement: créer une mesure L(W) de la qualité de W et faire une descente de gradient pour trouver un bon W: L(w) = Li(w) = Descente de gradient stochastique
  • 18. Des années 80 à aujourd'hui Problème: trouver les paramètres W tels que le réseau soit intéressant. Biologiquement: renforcement synaptique. Informatiquement: créer une mesure L(W) de la qualité de W et faire une descente de gradient pour trouver un bon W. Calcul du gradient par “rétropropagation” (composition): Exemples un par un (ou petit groupe par petit groupe; “minibatches”) L(w) = X f(x,w) Calcul de f(x,w) Calcul du gradient de Li
  • 19. Des années 80 à aujourd'hui Problème: trouver les paramètres W tels que le réseau soit intéressant. Biologiquement: renforcement synaptique. Informatiquement: créer une mesure L(W) de la qualité de W et faire une descente de gradient pour trouver un bon W. Aujourd'hui: puissance de calcul + + + + +, mais aussi meilleurs algorithmes Exemples un par un (ou petit groupe par petit groupe) L(w) =
  • 21. Sigmoide(gros nombre) ==> Gradient qui s'annule; comment résoudre ça ? - RELU: sigmoid(wx) → max(wx,0) – Gradient tronqué – normaliser adéquatement les “w” initiaux (Xavier's initialization: std(w) = 1/racine ( degré entrant/sortant du neurone) )
  • 22. Localité: neurones connectés seulement aux neurones “locaux” Eux, là, ben on les connecte pas. lui Et lui
  • 23. Localité: neurones connectés seulement aux neurones “locaux” ==> convolution Partage de poids: plusieurs neurones ont les mêmes poids
  • 24. Certaines couches font du “max” pour être invariantes par déplacements locaux (un cochon en haut, c'est pareil qu'un cochon en bas) Max-pooling
  • 25. “Dropout”: flinguez 50% de vos neurones à chaque exemple Mais purée pourquoi ça marche ? Vos neurones sont bruités … et peut-être que c'est très bien comme ça.
  • 26. Réseau de neurones récurrent Réseau de neurones Info Observation Action
  • 27. Réseau de neurones récurrent Texte français Texte anglais Info
  • 28. Réseau de neurones récurrent Caméra Action Info
  • 29. Réseau de neurones récurrent = réseau pas récurrent avec partage de poids Obs1 Obs2 Obs3 Obs4 Act1 Act2 Act3 Act4
  • 30. “Long short-term memory”: jouez au lego avec vos réseaux!
  • 31. “Highway network”: jouez au lego avec vos réseaux! Sortie = RN1(Entrée) x Entrée + RN2(Entrée) x RN3(Entrée) Initialisation en faveur de – RN1 ≈ 1 ( on “transporte” l'entrée – RN2 ≈ 0 … sans modification ) – RN3 ≈ poids aléatoires
  • 32. “Colonne neuronale”: jouez au lego avec vos réseaux! Entrée = image canal 1 + image canal 2 + ... ● Plusieurs neurones connectés à la même zone ==> plusieurs motifs locaux extraits ● Pareil pour les couches ultérieures ● Agencez les couches! Du max-pooling, différentes “largeurs” de connection dans les convolutions
  • 36. Waow, neural turing machine! Learning to sort.
  • 37. Auto-encoders: “output = input” (représentation compressée) (débruitage) (moitié haute = modèle génératif)
  • 38. Waow! Jeu: un réseau qui génère des images, un réseau qui détecte si artificielle.
  • 39. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 40. Apprentissage par imitation Stratégie I (réseau profond acteur) Parties humaines de haut niveau Stratégie II (réseau profond acteur) Parties (donc, positions avec évaluation) Parties contre soi-même Apprentissage supervisé Critique (réseau profond évaluant des positions) Ingrédients pour biaiser la Fouille d'arbre Monte Carlo
  • 41. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 42. 586/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. Possible ? Les hippopotames jouent ils au ping-pong ? L'avenir
  • 43. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 596/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Lire un livre, répondre à des questions, écrire une suite, deviner qui est l'assassin... A. Christie L'avenir
  • 44. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 606/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Décharger la voiture, lire la notice Ikea, aller chercher les outils monter le meuble, l'installer à un endroit pertinent. L'avenir
  • 45. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 616/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Jouer à Intervilles, aux échecs ou à la boxe (sans savoir à l'avance!) L'avenir
  • 46. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 626/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page L'avenir Ce pour quoi on est nuls! L'ordinateur est très fort au jeu de Go. Mais pour cela il joue des millions de jours (sur des millions d'ordinateurs!) Difficile pour le saut à la perche ou le pilotage aérien!
  • 47. Au revoir à tous... ==> vous allez me manquer :-)