SlideShare une entreprise Scribd logo
1
Plan !
201/12/2015Réseaux des Neurones
• Introduction
Pourquoi les réseaux de neurones?
Historique
• Analogie neurone formel et neurone biologique
Le neurone biologique
Le neurone formel :
- Le modèle Mc Culloch et Pitts
• Architecture des réseaux de neurones
Réseaux bouclés et réseaux non bouclés
• Notion d’apprentissage
Apprentissage supervisé et non supervisé
• Quelques modèles de réseaux de neurones
Le perceptron multicouche
Le modèle de Hopefield
Les cartes de Kohonen
• Exemples d’applications
• Conclusion
Introduction
Esprit-réseaux de neurones
Pourquoi les réseaux de neurones?
Caractéristiques de l’architecture du cerveau humain:
 une architecture massivement parallèle
 un mode de calcul et une mémoire distribués
 une capacité d'apprentissage
 une capacité de généralisation
 une capacité d'adaptation
 une résistance aux pannes
 une faible consommation énergétique
Esprit-réseaux de neurones
Définition
o C’est une approche qui a été privilégiée par l'Intelligence
Artificielle.
o Les réseaux de neurones artificiels sont des réseaux
fortement connectés de processeurs élémentaires
fonctionnant en parallèle. Chaque processeur élémentaire
calcule une sortie unique sur la base des informations qu'il
reçoit. Toute structure hiérarchique de réseaux est
évidemment un réseau.
501/12/2015Esprit-réseaux de neurones
Historique
Quelques repères
• 1943 :
o Modèle de McCulloch et Pitts
• 1948: D. Hebb
propose une règle d'apprentissage pour des réseaux de neurones .
• 1960 :
o Rosenblatt : perceptron et théorème de convergence
o Minsky et Papert : limites du perceptron mono-couche
• 1980 :
o Modèle de Hopefield
o Werbos : rétropropagation dans le cadre des perceptrons multi-couches
(popularisé en 1986 par Rumelhart)
01/12/2015 6Esprit-réseaux de neurones
Intérêt
01/12/2015 7
Les RNA sont
efficaces pour
effectuer à grande
vitesse des calculs et,
d’une manière
générale des tâches
mécaniques
La limitation
des
ordinateurs
existants . La structure des
réseaux de neurones
étant elle-même
parallèle, leur
fonctionnement
présente de nombreux
avantages :
une vitesse de calcul
accrue, la résistance
aux pannes locales, et
enfin la régularité de
la structure
Ils
s’inscrivent
dans les
mutations
tech.
Esprit-réseaux de neurones
801/12/2015
Analogie neurone formel
et neurone biologique
Esprit-réseaux de neurones
Cellules nerveuses
01/12/2015 9Esprit-réseaux de neurones
01/12/2015 10
Le neurone biologique
Esprit-réseaux de neurones
01/12/2015 11
Le neurone biologique
 Dendrites : Signaux d’entrée
 Axone : Signal de sortie
Esprit-réseaux de neurones
Description schématique des éléments d’une
synapse
1201/12/2015
 Transmission entre un axone et une dendrite
 Synapses excitatrices / synapses
Esprit-réseaux de neurones
Structure d’un neurone
artificiel
01/12/2015 13
Mise en correspondance neurone biologique / neurone artificiel
Esprit-réseaux de neurones
01/12/2015 14
Le neurone formel
Esprit-réseaux de neurones
Neurone formel: le modèle Mc Culloch
et Pitts
01/12/2015 15Esprit-réseaux de neurones
Le Neurone Formel
01/12/2015 16
Le neurone formel, l’unité élémentaire d’un RNA, se compose de deux parties :
évaluation de la stimulation reçue (fonction E)
évaluation de son activation (fonction f)
Il est caractérisé par :
son état X (binaire, discret, continu)
le niveau d’activation reçu en entrée U (continu)
le poids des connections en entrée
Esprit-réseaux de neurones
Le Neurone Formel
1701/12/2015
La fonction d’entrée :
somme pondérée des signaux d’entrée
Le biais d’entrée (biais input):
unité fictive dont le poids permet de régler le seuil de déclenchement du
neurone
Esprit-réseaux de neurones
Les fonctions de
transfert (d’activation)
01/12/2015 18Esprit-réseaux de neurones
01/12/2015Esprit-réseaux de neurones 19
Comparaison
Biological Neuron Artificial Neuron
corps cellulaire neurone
Dendrites inputs
Axone output
Synaps poids
01/12/2015 20
Architecture des réseaux de neurones
Esprit-réseaux de neurones
01/12/2015 21
Réseaux bouclés
Les neurones ne peuvent pas être ordonnés de sorte qu’il n’y ai pas de connexion
vers l’arrière
Exemple -> réseau entièrement connecté :
Esprit-réseaux de neurones
01/12/2015 22
Réseaux « non bouclés » ou
réseaux à couches
Les neurones peuvent être ordonnés de sorte qu’il n’y ai pas de connexion vers
l’arrière
Exemple -> réseau à une couche intermédiaire :
Esprit-réseaux de neurones
01/12/2015 23
Si Y est le vecteur des sorties et X le vecteur des entrées:
Y = FW(X)
FW : fonction d’activation du réseau
W : vecteur des « poids » des liaisons synaptiques
Apprentissage = détermination des poids permettant d’obtenir une
sortie proche d’une sortie Y0 voulue à partir d’une entrée X
Nouveau Schéma
Esprit-réseaux de neurones
01/12/2015 24
Notion d’apprentissage
Esprit-réseaux de neurones
01/12/2015 25
Mise à jour des poids de connexion, en général à partir d’un ensemble de
données d’entraînement
Modification itérative des poids
Paradigme d’apprentissage : modélisation de l’environnement dans lequel le
réseau opèrera.
3 paradigmes d’apprentissage:
Supervisé : on veut qu’à une entrée corresponde une sortie préalablement
définie
Non supervisé : on veut construire un réseau dont on ne connaît pas a priori
la sortie correspondant à des entrées données
Hybride
Règles d’apprentissage : gouvernent la mise à jour des poids du réseau
Algorithme d’apprentissage : procédure dans laquelle les règles d’apprentissage
sont utilisées en vue de l’ajustement des poids
Esprit-réseaux de neurones
Règles d’apprentissage
01/12/2015 26
4 règles
principales
Par
compétition
Règle de Hebb
Par correction
d’erreur
Apprentissage
de Boltzmann
Esprit-réseaux de neurones
Autres règles
• Apprentissage par descente de gradient :
il s'agit de calculer une erreur et d'essayer de minimiser cette erreur.
• Apprentissage par la règle de Widrow-Hoff (ou
Adaline) :
au lieu de calculer les variations des poids en sommant sur tous les exemples
de S, l'idée est de modifier les poids à chaque présentation d'exemple.
01/12/2015 27Esprit-réseaux de neurones
Correction d’erreur
• Si d est la sortie désirée et y la sortie obtenue, la modification
des poids se fait en fonction de (d-y)
• Algorithme de retro-propagation
• Algorithme d’apprentissage du perceptron:
o Initialisation des poids et du seuil à de petites valeurs aléatories
o Présenter un vecteur d’entrées x(μ) et calculer sa sortie
o Mettre à jour les poids en utilisant :
wj(t+1) = wj(t) + η (d- y) xj
avec d la sortie désirée, w vecteur des poids
01/12/2015 28Esprit-réseaux de neurones
01/12/2015 29
Quelques modèles de réseaux de neurones
Esprit-réseaux de neurones
Le Perceptron multicouches
3001/12/2015
• Modèle du perceptron simple:
o pas de seuil
o fonction d’activation = fonction signe
o Séparation de deux classes d’entiers A et B ->
apprentissage supervisé
o Inconvénient : A et B doivent être linéairement séparables
Esprit-réseaux de neurones
01/12/2015 31
• Mémorisation de formes et de motifs
• Mémoire distribuée
• Mémoire associative
Le modèle de Hopefield
Esprit-réseaux de neurones
01/12/2015 32
• N neurones binaires (1 ou -1) : 2N états possibles pour le réseau
• Réseau entièrement connecté, connexion de poids Cij = Cji
• État du neurone i à l’instant t:
• L’état du neurone i dépend de l’état du réseau en général
-> mémoire distribuée
• But : trouver les Cji qui vont permettre de mémoriser un état
particulier du réseau
• Soient S1, S2… Sp p configuration du réseau à mémoriser : on
veut, a partir d’une configuration proche de Sm, converger
vers Sm -> mémoire associative
• Principe de Hebb :
Esprit-réseaux de neurones
01/12/2015 33
Les cartes de Kohonen
 On veut un réseau ayant deux caractéristiques particulières :
Apprentissage non supervisé
Les réponses associées à des entrées voisines sont voisines : auto
organisation
 Notion de voisinage entre les classes d’observation
 Algorithme :
Initialisation : à chaque classe on associe un vecteur code dans
l’espace d’observation
Etape : on tire un point au hasard dans l’espace des observations
(données). On déplace ensuite la classe la plus proche, ainsi que
tous ses voisins les plus proches, vers ce point.
Esprit-réseaux de neurones
01/12/2015 34
Exemples d’applications
Esprit-réseaux de neurones
01/12/2015 35Esprit-réseaux de neurones
3601/12/2015
Conclusion
Esprit-réseaux de neurones
Conclusion
• les réseaux de neurones reposent à Présent sur des
bases mathématiques solides qui permettent
d’envisager des applications dans presque tout les
domaines y compris industriel et à grande échelle,
notamment dans le domaine de la classification.
01/12/2015 37Esprit-réseaux de neurones
Perspectives
Les réseaux de neurones ont une histoire relativement
jeune (environ 50 ans) et les applications intéressantes
des réseaux de neurones n’ont vu le jour que depuis
une vingtaine d’année (développement de
l’informatique), et ils ont un futur très prometteur, on
entend parler (par exemple) du WEB sémantique,
RFID, … etc.
01/12/2015 38Esprit-réseaux de neurones
01/12/2015Esprit-réseaux de neurones 39

Contenu connexe

Tendances

Deep learning
Deep learningDeep learning
Deep learning
Bilal Rezkellah
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
Abdelghafour Zguindou
 
Intelligence artificielle et système multi-agent
Intelligence artificielle et système multi-agentIntelligence artificielle et système multi-agent
Intelligence artificielle et système multi-agent
Noureddine Djebbari
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de recherche
Mohamed Heny SELMI
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en français
Hakim Nasaoui
 
Intelligence Artificielle - Systèmes experts
Intelligence Artificielle - Systèmes expertsIntelligence Artificielle - Systèmes experts
Intelligence Artificielle - Systèmes experts
Mohamed Heny SELMI
 
AI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine LearnigAI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine Learnig
Felipe Sanchez Garzon
 
Introduction au Deep Learning
Introduction au Deep Learning Introduction au Deep Learning
Introduction au Deep Learning
Niji
 
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Juba Ait idir
 
Intelligence Artificielle : Introduction à l'intelligence artificielle
Intelligence Artificielle : Introduction à l'intelligence artificielleIntelligence Artificielle : Introduction à l'intelligence artificielle
Intelligence Artificielle : Introduction à l'intelligence artificielle
ECAM Brussels Engineering School
 
Systèmes multi agents concepts et mise en oeuvre avec le middleware jade
Systèmes multi agents concepts et mise en oeuvre avec le middleware jadeSystèmes multi agents concepts et mise en oeuvre avec le middleware jade
Systèmes multi agents concepts et mise en oeuvre avec le middleware jade
ENSET, Université Hassan II Casablanca
 
Techniques du data mining
Techniques du data miningTechniques du data mining
Techniques du data mining
Donia Hammami
 
classification des images couleurs par un réseau de neurone quaternionique ré...
classification des images couleurs par un réseau de neurone quaternionique ré...classification des images couleurs par un réseau de neurone quaternionique ré...
classification des images couleurs par un réseau de neurone quaternionique ré...
Amal Targhi
 
Ia project Apprentissage Automatique
Ia project Apprentissage AutomatiqueIa project Apprentissage Automatique
Ia project Apprentissage Automatique
Nizar Bechir
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
ENSET, Université Hassan II Casablanca
 
Exercice arbre de décision
Exercice arbre de décision Exercice arbre de décision
Exercice arbre de décision
Yassine Badri
 
Data mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionData mining - Classification - arbres de décision
Data mining - Classification - arbres de décision
Mohamed Heny SELMI
 
Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...
Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...
Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...
Jean Rohmer
 
Présentation sur le Data Mining
Présentation sur le Data MiningPrésentation sur le Data Mining
Présentation sur le Data Mining
Takfarinas KENOUCHE
 

Tendances (20)

Deep learning
Deep learningDeep learning
Deep learning
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
Intelligence artificielle et système multi-agent
Intelligence artificielle et système multi-agentIntelligence artificielle et système multi-agent
Intelligence artificielle et système multi-agent
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de recherche
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en français
 
Intelligence Artificielle - Systèmes experts
Intelligence Artificielle - Systèmes expertsIntelligence Artificielle - Systèmes experts
Intelligence Artificielle - Systèmes experts
 
AI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine LearnigAI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine Learnig
 
Introduction au Deep Learning
Introduction au Deep Learning Introduction au Deep Learning
Introduction au Deep Learning
 
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
Les réseaux de neurones convolutifs pour la classification des tumeurs cérébr...
 
Cours rn 2006
Cours rn 2006Cours rn 2006
Cours rn 2006
 
Intelligence Artificielle : Introduction à l'intelligence artificielle
Intelligence Artificielle : Introduction à l'intelligence artificielleIntelligence Artificielle : Introduction à l'intelligence artificielle
Intelligence Artificielle : Introduction à l'intelligence artificielle
 
Systèmes multi agents concepts et mise en oeuvre avec le middleware jade
Systèmes multi agents concepts et mise en oeuvre avec le middleware jadeSystèmes multi agents concepts et mise en oeuvre avec le middleware jade
Systèmes multi agents concepts et mise en oeuvre avec le middleware jade
 
Techniques du data mining
Techniques du data miningTechniques du data mining
Techniques du data mining
 
classification des images couleurs par un réseau de neurone quaternionique ré...
classification des images couleurs par un réseau de neurone quaternionique ré...classification des images couleurs par un réseau de neurone quaternionique ré...
classification des images couleurs par un réseau de neurone quaternionique ré...
 
Ia project Apprentissage Automatique
Ia project Apprentissage AutomatiqueIa project Apprentissage Automatique
Ia project Apprentissage Automatique
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 
Exercice arbre de décision
Exercice arbre de décision Exercice arbre de décision
Exercice arbre de décision
 
Data mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionData mining - Classification - arbres de décision
Data mining - Classification - arbres de décision
 
Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...
Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...
Intelligence Artificielle: résolution de problèmes en Prolog ou Prolog pour l...
 
Présentation sur le Data Mining
Présentation sur le Data MiningPrésentation sur le Data Mining
Présentation sur le Data Mining
 

En vedette

Les systèmes intelligents
Les systèmes intelligentsLes systèmes intelligents
Les systèmes intelligents
Nour El Houda Megherbi
 
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...
Saïd Bolgot
 
Introduction logique floue
Introduction logique floueIntroduction logique floue
Introduction logique floue
TECOS
 
Modélisation de la dynamique d’occupation du sol par réseaux de neurones
Modélisation de la dynamique d’occupation du sol par réseaux de neuronesModélisation de la dynamique d’occupation du sol par réseaux de neurones
Modélisation de la dynamique d’occupation du sol par réseaux de neurones
tuxette
 
Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...
Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...
Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...
Mad Scientists
 
« Convolutional Deep Belief Networks »
« Convolutional Deep Belief Networks »« Convolutional Deep Belief Networks »
« Convolutional Deep Belief Networks »
Loghin Dumitru
 
Introduction Au Cours G C
Introduction Au Cours  G CIntroduction Au Cours  G C
Introduction Au Cours G Cpistesil
 
Encadrement sur support
Encadrement sur supportEncadrement sur support
Encadrement sur support
michel_parratte
 
Auto coe-evluación
Auto coe-evluaciónAuto coe-evluación
Auto coe-evluación
Fermin Aguilar
 
Séminaire Bonheur et Travail
Séminaire Bonheur et TravailSéminaire Bonheur et Travail
Séminaire Bonheur et Travail
la voie des Hommes
 
Quelle place pour les mathématiques aux côtés des décideurs ?
Quelle place pour les mathématiques aux côtés des décideurs ?Quelle place pour les mathématiques aux côtés des décideurs ?
Quelle place pour les mathématiques aux côtés des décideurs ?
la voie des Hommes
 
Apprendre former charte-2015
Apprendre former charte-2015Apprendre former charte-2015
Apprendre former charte-2015
michel_parratte
 
Amour désamour réamour
Amour désamour réamour Amour désamour réamour
Amour désamour réamour
Barbara Reibel
 
PConstructivisme
PConstructivismePConstructivisme
PConstructivismejsorian1
 
Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...
Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...
Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...
Andino Maseleno
 
Navigation
NavigationNavigation
Navigation
michel_parratte
 
Observation diaporama
Observation diaporamaObservation diaporama
Observation diaporama
michel_parratte
 
Proposed smart traffic signal control in brunei darussalam
Proposed smart traffic signal control in brunei darussalamProposed smart traffic signal control in brunei darussalam
Proposed smart traffic signal control in brunei darussalam
Andino Maseleno
 

En vedette (20)

Les systèmes intelligents
Les systèmes intelligentsLes systèmes intelligents
Les systèmes intelligents
 
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des ...
 
Introduction logique floue
Introduction logique floueIntroduction logique floue
Introduction logique floue
 
Modélisation de la dynamique d’occupation du sol par réseaux de neurones
Modélisation de la dynamique d’occupation du sol par réseaux de neuronesModélisation de la dynamique d’occupation du sol par réseaux de neurones
Modélisation de la dynamique d’occupation du sol par réseaux de neurones
 
Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...
Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...
Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hier...
 
« Convolutional Deep Belief Networks »
« Convolutional Deep Belief Networks »« Convolutional Deep Belief Networks »
« Convolutional Deep Belief Networks »
 
Introduction Au Cours G C
Introduction Au Cours  G CIntroduction Au Cours  G C
Introduction Au Cours G C
 
Encadrement sur support
Encadrement sur supportEncadrement sur support
Encadrement sur support
 
Auto coe-evluación
Auto coe-evluaciónAuto coe-evluación
Auto coe-evluación
 
Séminaire Bonheur et Travail
Séminaire Bonheur et TravailSéminaire Bonheur et Travail
Séminaire Bonheur et Travail
 
Quelle place pour les mathématiques aux côtés des décideurs ?
Quelle place pour les mathématiques aux côtés des décideurs ?Quelle place pour les mathématiques aux côtés des décideurs ?
Quelle place pour les mathématiques aux côtés des décideurs ?
 
Apprendre former charte-2015
Apprendre former charte-2015Apprendre former charte-2015
Apprendre former charte-2015
 
Amour désamour réamour
Amour désamour réamour Amour désamour réamour
Amour désamour réamour
 
Apprendre former
Apprendre formerApprendre former
Apprendre former
 
Best Quotes Forever
Best Quotes ForeverBest Quotes Forever
Best Quotes Forever
 
PConstructivisme
PConstructivismePConstructivisme
PConstructivisme
 
Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...
Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...
Viva Presentation - Fuzzy Logic and Dempster-Shafer Theory to Detect The Risk...
 
Navigation
NavigationNavigation
Navigation
 
Observation diaporama
Observation diaporamaObservation diaporama
Observation diaporama
 
Proposed smart traffic signal control in brunei darussalam
Proposed smart traffic signal control in brunei darussalamProposed smart traffic signal control in brunei darussalam
Proposed smart traffic signal control in brunei darussalam
 

Similaire à Réseaux neurons

A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
ZizoAziz
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdf
drajou
 
Rapport projet Master 2 - Intelligence Artificielle
Rapport projet Master 2 - Intelligence ArtificielleRapport projet Master 2 - Intelligence Artificielle
Rapport projet Master 2 - Intelligence Artificielle
Yanis Marchand
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
ENSET, Université Hassan II Casablanca
 
coursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.pptcoursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.ppt
AyaDrief
 
réseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissageréseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissage
billalbeldjenna
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
SafaeElOmari
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
Bassem Brayek
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
Hakim maximwell
 
Delorme nis1998
Delorme nis1998Delorme nis1998
Delorme nis1998
Khalifa Bakkar
 
Machine Learning : comparing neural network methods
Machine Learning : comparing neural network methodsMachine Learning : comparing neural network methods
Machine Learning : comparing neural network methods
Nichochar
 
MobDHop
MobDHopMobDHop
Les applications du Deep Learning
Les applications du Deep LearningLes applications du Deep Learning
Les applications du Deep Learning
Jedha Bootcamp
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
Frederic Simard
 
Cassandra pour les développeurs java
Cassandra pour les développeurs javaCassandra pour les développeurs java
Cassandra pour les développeurs java
Jérémy Sevellec
 
Poly reseau transparents_ppt
Poly reseau transparents_pptPoly reseau transparents_ppt
Poly reseau transparents_ppt
Lily Babou
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
ENSET, Université Hassan II Casablanca
 
Soutenance 17 Avril 2003
Soutenance 17 Avril 2003Soutenance 17 Avril 2003
Soutenance 17 Avril 2003
Francis Piéraut
 

Similaire à Réseaux neurons (20)

A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdf
 
Rapport projet Master 2 - Intelligence Artificielle
Rapport projet Master 2 - Intelligence ArtificielleRapport projet Master 2 - Intelligence Artificielle
Rapport projet Master 2 - Intelligence Artificielle
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
 
coursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.pptcoursHPM-M2-RIA-nov05.ppt
coursHPM-M2-RIA-nov05.ppt
 
réseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissageréseaux de neurons temporels dynqmique et apprentissage
réseaux de neurons temporels dynqmique et apprentissage
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
 
Delorme nis1998
Delorme nis1998Delorme nis1998
Delorme nis1998
 
Machine Learning : comparing neural network methods
Machine Learning : comparing neural network methodsMachine Learning : comparing neural network methods
Machine Learning : comparing neural network methods
 
MobDHop
MobDHopMobDHop
MobDHop
 
Les applications du Deep Learning
Les applications du Deep LearningLes applications du Deep Learning
Les applications du Deep Learning
 
Algorithme knn
Algorithme knnAlgorithme knn
Algorithme knn
 
Version 01
Version 01Version 01
Version 01
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
 
Cassandra pour les développeurs java
Cassandra pour les développeurs javaCassandra pour les développeurs java
Cassandra pour les développeurs java
 
Poly reseau transparents_ppt
Poly reseau transparents_pptPoly reseau transparents_ppt
Poly reseau transparents_ppt
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
 
Soutenance 17 Avril 2003
Soutenance 17 Avril 2003Soutenance 17 Avril 2003
Soutenance 17 Avril 2003
 

Dernier

Les écrans informatiques au fil du temps.pptx
Les écrans informatiques au fil du temps.pptxLes écrans informatiques au fil du temps.pptx
Les écrans informatiques au fil du temps.pptx
abderrahimbourimi
 
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
OCTO Technology
 
COURS D'ADMINISTRATION RESEAU SOUS WINDOWS
COURS D'ADMINISTRATION RESEAU  SOUS WINDOWSCOURS D'ADMINISTRATION RESEAU  SOUS WINDOWS
COURS D'ADMINISTRATION RESEAU SOUS WINDOWS
AlbertSmithTambwe
 
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...
OCTO Technology
 
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...
Horgix
 
PRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptx
PRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptxPRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptx
PRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptx
AlbertSmithTambwe
 
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Laurent Speyser
 
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'universitéDe l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
Université de Franche-Comté
 
Le support de présentation des Signaux 2024
Le support de présentation des Signaux 2024Le support de présentation des Signaux 2024
Le support de présentation des Signaux 2024
UNITECBordeaux
 

Dernier (9)

Les écrans informatiques au fil du temps.pptx
Les écrans informatiques au fil du temps.pptxLes écrans informatiques au fil du temps.pptx
Les écrans informatiques au fil du temps.pptx
 
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
 
COURS D'ADMINISTRATION RESEAU SOUS WINDOWS
COURS D'ADMINISTRATION RESEAU  SOUS WINDOWSCOURS D'ADMINISTRATION RESEAU  SOUS WINDOWS
COURS D'ADMINISTRATION RESEAU SOUS WINDOWS
 
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...
 
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...
 
PRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptx
PRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptxPRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptx
PRESENTATION DE L'ACTIVE DIRECTORY SOUS WINDOWS SERVEUR.pptx
 
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
 
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'universitéDe l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
 
Le support de présentation des Signaux 2024
Le support de présentation des Signaux 2024Le support de présentation des Signaux 2024
Le support de présentation des Signaux 2024
 

Réseaux neurons

  • 1. 1
  • 2. Plan ! 201/12/2015Réseaux des Neurones • Introduction Pourquoi les réseaux de neurones? Historique • Analogie neurone formel et neurone biologique Le neurone biologique Le neurone formel : - Le modèle Mc Culloch et Pitts • Architecture des réseaux de neurones Réseaux bouclés et réseaux non bouclés • Notion d’apprentissage Apprentissage supervisé et non supervisé • Quelques modèles de réseaux de neurones Le perceptron multicouche Le modèle de Hopefield Les cartes de Kohonen • Exemples d’applications • Conclusion
  • 4. Pourquoi les réseaux de neurones? Caractéristiques de l’architecture du cerveau humain:  une architecture massivement parallèle  un mode de calcul et une mémoire distribués  une capacité d'apprentissage  une capacité de généralisation  une capacité d'adaptation  une résistance aux pannes  une faible consommation énergétique Esprit-réseaux de neurones
  • 5. Définition o C’est une approche qui a été privilégiée par l'Intelligence Artificielle. o Les réseaux de neurones artificiels sont des réseaux fortement connectés de processeurs élémentaires fonctionnant en parallèle. Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau. 501/12/2015Esprit-réseaux de neurones
  • 6. Historique Quelques repères • 1943 : o Modèle de McCulloch et Pitts • 1948: D. Hebb propose une règle d'apprentissage pour des réseaux de neurones . • 1960 : o Rosenblatt : perceptron et théorème de convergence o Minsky et Papert : limites du perceptron mono-couche • 1980 : o Modèle de Hopefield o Werbos : rétropropagation dans le cadre des perceptrons multi-couches (popularisé en 1986 par Rumelhart) 01/12/2015 6Esprit-réseaux de neurones
  • 7. Intérêt 01/12/2015 7 Les RNA sont efficaces pour effectuer à grande vitesse des calculs et, d’une manière générale des tâches mécaniques La limitation des ordinateurs existants . La structure des réseaux de neurones étant elle-même parallèle, leur fonctionnement présente de nombreux avantages : une vitesse de calcul accrue, la résistance aux pannes locales, et enfin la régularité de la structure Ils s’inscrivent dans les mutations tech. Esprit-réseaux de neurones
  • 8. 801/12/2015 Analogie neurone formel et neurone biologique Esprit-réseaux de neurones
  • 10. 01/12/2015 10 Le neurone biologique Esprit-réseaux de neurones
  • 11. 01/12/2015 11 Le neurone biologique  Dendrites : Signaux d’entrée  Axone : Signal de sortie Esprit-réseaux de neurones
  • 12. Description schématique des éléments d’une synapse 1201/12/2015  Transmission entre un axone et une dendrite  Synapses excitatrices / synapses Esprit-réseaux de neurones
  • 13. Structure d’un neurone artificiel 01/12/2015 13 Mise en correspondance neurone biologique / neurone artificiel Esprit-réseaux de neurones
  • 14. 01/12/2015 14 Le neurone formel Esprit-réseaux de neurones
  • 15. Neurone formel: le modèle Mc Culloch et Pitts 01/12/2015 15Esprit-réseaux de neurones
  • 16. Le Neurone Formel 01/12/2015 16 Le neurone formel, l’unité élémentaire d’un RNA, se compose de deux parties : évaluation de la stimulation reçue (fonction E) évaluation de son activation (fonction f) Il est caractérisé par : son état X (binaire, discret, continu) le niveau d’activation reçu en entrée U (continu) le poids des connections en entrée Esprit-réseaux de neurones
  • 17. Le Neurone Formel 1701/12/2015 La fonction d’entrée : somme pondérée des signaux d’entrée Le biais d’entrée (biais input): unité fictive dont le poids permet de régler le seuil de déclenchement du neurone Esprit-réseaux de neurones
  • 18. Les fonctions de transfert (d’activation) 01/12/2015 18Esprit-réseaux de neurones
  • 19. 01/12/2015Esprit-réseaux de neurones 19 Comparaison Biological Neuron Artificial Neuron corps cellulaire neurone Dendrites inputs Axone output Synaps poids
  • 20. 01/12/2015 20 Architecture des réseaux de neurones Esprit-réseaux de neurones
  • 21. 01/12/2015 21 Réseaux bouclés Les neurones ne peuvent pas être ordonnés de sorte qu’il n’y ai pas de connexion vers l’arrière Exemple -> réseau entièrement connecté : Esprit-réseaux de neurones
  • 22. 01/12/2015 22 Réseaux « non bouclés » ou réseaux à couches Les neurones peuvent être ordonnés de sorte qu’il n’y ai pas de connexion vers l’arrière Exemple -> réseau à une couche intermédiaire : Esprit-réseaux de neurones
  • 23. 01/12/2015 23 Si Y est le vecteur des sorties et X le vecteur des entrées: Y = FW(X) FW : fonction d’activation du réseau W : vecteur des « poids » des liaisons synaptiques Apprentissage = détermination des poids permettant d’obtenir une sortie proche d’une sortie Y0 voulue à partir d’une entrée X Nouveau Schéma Esprit-réseaux de neurones
  • 25. 01/12/2015 25 Mise à jour des poids de connexion, en général à partir d’un ensemble de données d’entraînement Modification itérative des poids Paradigme d’apprentissage : modélisation de l’environnement dans lequel le réseau opèrera. 3 paradigmes d’apprentissage: Supervisé : on veut qu’à une entrée corresponde une sortie préalablement définie Non supervisé : on veut construire un réseau dont on ne connaît pas a priori la sortie correspondant à des entrées données Hybride Règles d’apprentissage : gouvernent la mise à jour des poids du réseau Algorithme d’apprentissage : procédure dans laquelle les règles d’apprentissage sont utilisées en vue de l’ajustement des poids Esprit-réseaux de neurones
  • 26. Règles d’apprentissage 01/12/2015 26 4 règles principales Par compétition Règle de Hebb Par correction d’erreur Apprentissage de Boltzmann Esprit-réseaux de neurones
  • 27. Autres règles • Apprentissage par descente de gradient : il s'agit de calculer une erreur et d'essayer de minimiser cette erreur. • Apprentissage par la règle de Widrow-Hoff (ou Adaline) : au lieu de calculer les variations des poids en sommant sur tous les exemples de S, l'idée est de modifier les poids à chaque présentation d'exemple. 01/12/2015 27Esprit-réseaux de neurones
  • 28. Correction d’erreur • Si d est la sortie désirée et y la sortie obtenue, la modification des poids se fait en fonction de (d-y) • Algorithme de retro-propagation • Algorithme d’apprentissage du perceptron: o Initialisation des poids et du seuil à de petites valeurs aléatories o Présenter un vecteur d’entrées x(μ) et calculer sa sortie o Mettre à jour les poids en utilisant : wj(t+1) = wj(t) + η (d- y) xj avec d la sortie désirée, w vecteur des poids 01/12/2015 28Esprit-réseaux de neurones
  • 29. 01/12/2015 29 Quelques modèles de réseaux de neurones Esprit-réseaux de neurones
  • 30. Le Perceptron multicouches 3001/12/2015 • Modèle du perceptron simple: o pas de seuil o fonction d’activation = fonction signe o Séparation de deux classes d’entiers A et B -> apprentissage supervisé o Inconvénient : A et B doivent être linéairement séparables Esprit-réseaux de neurones
  • 31. 01/12/2015 31 • Mémorisation de formes et de motifs • Mémoire distribuée • Mémoire associative Le modèle de Hopefield Esprit-réseaux de neurones
  • 32. 01/12/2015 32 • N neurones binaires (1 ou -1) : 2N états possibles pour le réseau • Réseau entièrement connecté, connexion de poids Cij = Cji • État du neurone i à l’instant t: • L’état du neurone i dépend de l’état du réseau en général -> mémoire distribuée • But : trouver les Cji qui vont permettre de mémoriser un état particulier du réseau • Soient S1, S2… Sp p configuration du réseau à mémoriser : on veut, a partir d’une configuration proche de Sm, converger vers Sm -> mémoire associative • Principe de Hebb : Esprit-réseaux de neurones
  • 33. 01/12/2015 33 Les cartes de Kohonen  On veut un réseau ayant deux caractéristiques particulières : Apprentissage non supervisé Les réponses associées à des entrées voisines sont voisines : auto organisation  Notion de voisinage entre les classes d’observation  Algorithme : Initialisation : à chaque classe on associe un vecteur code dans l’espace d’observation Etape : on tire un point au hasard dans l’espace des observations (données). On déplace ensuite la classe la plus proche, ainsi que tous ses voisins les plus proches, vers ce point. Esprit-réseaux de neurones
  • 37. Conclusion • les réseaux de neurones reposent à Présent sur des bases mathématiques solides qui permettent d’envisager des applications dans presque tout les domaines y compris industriel et à grande échelle, notamment dans le domaine de la classification. 01/12/2015 37Esprit-réseaux de neurones
  • 38. Perspectives Les réseaux de neurones ont une histoire relativement jeune (environ 50 ans) et les applications intéressantes des réseaux de neurones n’ont vu le jour que depuis une vingtaine d’année (développement de l’informatique), et ils ont un futur très prometteur, on entend parler (par exemple) du WEB sémantique, RFID, … etc. 01/12/2015 38Esprit-réseaux de neurones