SlideShare une entreprise Scribd logo
1  sur  17
Perceptron monocouche
Réalisé par : Hakim NASAOUI
LinkedIn Profile : https://www.linkedin.com/in/hakimnasaoui
« Psychological Review Vol. 65, No. 6, 19S8 "THE PERCEPTRON:
A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND
ORGANIZATION IN THE BRAIN" - F. ROSENBLATT
Plan
 Introduction
 Historique de la perceptron
 Perceptron monocouche
 Algorithme du perceptron monocouche
 Notion d’apprentissage du perceptron
 Types d’apprentissage
 Algorithme d’apprentissage du perceptron
 Exemple
 Conclusion
Introduction
 Les capacités d'apprentissage du cerveau humain sont
fascinantes. Avec les capacités calculatoires promises par
l'informatique et dans l'objectif d'imiter le cerveau
humain, la théorie des réseaux de neurones à commencer
à poindre au milieu du XXème siècle, notamment avec
l'introduction du perceptron en 1957 par Franck
Rosenblatt.
Historique de la perceptron
L'algorithme perceptron a été inventé en 1957 au laboratoire
aéronautique de Cornell par Frank Rosenblatt, financé par
l'Office de Naval de la recherche des États-Unis. Le
perceptron devait être une machine, plutôt qu'un programme,
et alors que sa première implémentation était dans un logiciel
pour l'IBM 704, il a ensuite été implémenté dans du matériel
personnalisé comme le "Mark 1 perceptron". Cette machine a
été conçue pour la reconnaissance d'images: elle disposait
d'un réseau de 400 photocellules, reliées aléatoirement aux
"neurones". Les poids ont été codés en potentiomètres, et les
mises à jour de poids pendant l'apprentissage ont été
effectuées par des moteurs électriques.
Perceptron monocouche
Un perceptron monocouche (aussi appelé perceptron) est un
réseau de neurones contenant n neurones en entrée et m
neurones en sortie.
La sortie S est calculée
par la formule :
S = 1si Σ wi xi > s
0 si non
Algorithme du Perceptron monocouche
 Le perceptron monocouche n'a pas de connaissance a priori,
donc les poids initiaux sont assignés aléatoirement. Le
perceptron somme toutes les entrées pondérées et si la
somme est supérieure au seuil (une certaine valeur
prédéterminée), perceptron est dit être activé (sortie = 1).
Algorithme du Perceptron monocouche
 Les valeurs d'entrée sont présentées au perceptron, et si la
sortie prédite est la même que la sortie désirée, la
performance est considérée comme satisfaisante et aucun
changement n'est apporté aux poids. Cependant, si la sortie
ne correspond pas à la sortie désirée, les poids doivent être
modifiés pour réduire l'erreur.
Algorithme du Perceptron monocouche
 Parce que le perceptron monocouche est un classificateur linéaire et si les
cas ne sont pas linéairement séparables, le processus d'apprentissage
n'atteindra jamais un point où tous les cas sont classés correctement.
L'exemple le plus célèbre de l'incapacité du perceptron à résoudre des
problèmes avec des cas linéairement non séparables est le problème XOR.
L’apprentissage
La notion d’apprentissage recouvre deux réalités
souvent traitées de façon successive :
 mémorisation : le fait d’assimiler sous une forme
dense des exemples éventuellement nombreux,
 généralisation : le fait d’être capable, grâce aux
exemples appris, de traiter des exemples
distincts, non rencontrés, mais similaires.
Types d’apprentissage
Il existe plusieurs types d’apprentissage, les plus utilisées sont :
 Mode supervisé : les exemples sont des couples (entrée, sortie
associée).
 Mode non supervisé: on dispose que des valeurs (entrée).
 Apprentissage par renforcement.
Pour ces trois types d'apprentissage, il y a également un choix
traditionnel entre :
 L’apprentissage << off-line >>
 L’apprentissage << on-line >>
Règles d’apprentissage
Algorithme d’apprentissage
du perceptron
Initialisation des poids et du seuil à de petites
valeurs aléatoires
 Présenter un vecteur d’entrées x(μ) et calculer sa sortie
 Mettre à jour les poids en utilisant :
wj(t+1) = wj(t) + η (d- y) xj
avec d la sortie désirée, w vecteur des poids η est une constante
positive ,qui spécifie le pas de modification des poids
Alors comment un perceptron prédit-il et
apprend-il?
Un réseau de neurones génère
une prédiction après avoir passé
toutes les entrées à travers
toutes les couches, jusqu'à la
couche de sortie. Ce processus
est appelé feedforward .
Exemple d’apprentissage
En utilisant l’approche de Naive Bayes :
La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non.
La phase d’apprentissage (playTennis)
Conclusion:
• Le cerveau humain peut être vu (dans un modèle
très simplifié) comme un réseau entre les
neurones
• Un raisonnement probabiliste simple avec des
hypothèses fortes peut mener à une prédiction
puissante
• Les perceptrons à une seule unité sont seulement
capables d'apprendre des modèles linéairement
séparés
MERCI !

Contenu connexe

Tendances

Cours fouille de donn+®es part1
Cours fouille de donn+®es part1Cours fouille de donn+®es part1
Cours fouille de donn+®es part1
Amani Baklouti
 
Chapitre iv algorithmes de tri
Chapitre iv algorithmes de triChapitre iv algorithmes de tri
Chapitre iv algorithmes de tri
Sana Aroussi
 
La qualité des Données et Métadonnées Ouvertes
La qualité des Données et Métadonnées OuvertesLa qualité des Données et Métadonnées Ouvertes
La qualité des Données et Métadonnées Ouvertes
Open Data Support
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
ENSET, Université Hassan II Casablanca
 

Tendances (20)

Algorithmes de jeux
Algorithmes de jeuxAlgorithmes de jeux
Algorithmes de jeux
 
Cours acp mehdi_aman
Cours acp mehdi_amanCours acp mehdi_aman
Cours acp mehdi_aman
 
Cours fouille de donn+®es part1
Cours fouille de donn+®es part1Cours fouille de donn+®es part1
Cours fouille de donn+®es part1
 
réseaux de neurones artificiels
réseaux de neurones artificiels réseaux de neurones artificiels
réseaux de neurones artificiels
 
Introduction au Deep Learning
Introduction au Deep Learning Introduction au Deep Learning
Introduction au Deep Learning
 
Knn
KnnKnn
Knn
 
Chapitre iv algorithmes de tri
Chapitre iv algorithmes de triChapitre iv algorithmes de tri
Chapitre iv algorithmes de tri
 
Modèles de langue : Ngrammes
Modèles de langue : NgrammesModèles de langue : Ngrammes
Modèles de langue : Ngrammes
 
Examen Principal - Fondement Multimedia Janvier 2015
Examen Principal - Fondement Multimedia Janvier 2015Examen Principal - Fondement Multimedia Janvier 2015
Examen Principal - Fondement Multimedia Janvier 2015
 
Systèmes d'Exploitation - chp5-gestion fichiers
Systèmes d'Exploitation - chp5-gestion fichiersSystèmes d'Exploitation - chp5-gestion fichiers
Systèmes d'Exploitation - chp5-gestion fichiers
 
Projet Traitement Du Signal
Projet Traitement Du SignalProjet Traitement Du Signal
Projet Traitement Du Signal
 
Clustering
ClusteringClustering
Clustering
 
logistic_regression_ml.pdf
logistic_regression_ml.pdflogistic_regression_ml.pdf
logistic_regression_ml.pdf
 
5.4 Arbres et forêts aléatoires
5.4 Arbres et forêts aléatoires5.4 Arbres et forêts aléatoires
5.4 Arbres et forêts aléatoires
 
La qualité des Données et Métadonnées Ouvertes
La qualité des Données et Métadonnées OuvertesLa qualité des Données et Métadonnées Ouvertes
La qualité des Données et Métadonnées Ouvertes
 
Règles d’association
Règles d’associationRègles d’association
Règles d’association
 
Introduction au Software Defined Networking (SDN)
Introduction au Software Defined Networking (SDN)Introduction au Software Defined Networking (SDN)
Introduction au Software Defined Networking (SDN)
 
Exercice arbre de décision
Exercice arbre de décision Exercice arbre de décision
Exercice arbre de décision
 
Développement informatique : Algorithmique II : Techniques de recherche en in...
Développement informatique : Algorithmique II : Techniques de recherche en in...Développement informatique : Algorithmique II : Techniques de recherche en in...
Développement informatique : Algorithmique II : Techniques de recherche en in...
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 

Similaire à Perceptron monocouche en français

Perceptron
PerceptronPerceptron
Perceptron
koki Ou
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
SafaeElOmari
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdf
drajou
 
Retropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfRetropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdf
C00LiMoUn1
 

Similaire à Perceptron monocouche en français (17)

GIND5439_Chapitre6.pdf
GIND5439_Chapitre6.pdfGIND5439_Chapitre6.pdf
GIND5439_Chapitre6.pdf
 
PERCEPTRON.pptx
PERCEPTRON.pptxPERCEPTRON.pptx
PERCEPTRON.pptx
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
Exposé réseaux des neurones (NN) - (RN)
Exposé réseaux des neurones (NN) - (RN)Exposé réseaux des neurones (NN) - (RN)
Exposé réseaux des neurones (NN) - (RN)
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
 
Comparaison
ComparaisonComparaison
Comparaison
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
 
ChapitreAA_RN_5.pptx, Reseaux Neurones AI
ChapitreAA_RN_5.pptx, Reseaux Neurones AIChapitreAA_RN_5.pptx, Reseaux Neurones AI
ChapitreAA_RN_5.pptx, Reseaux Neurones AI
 
Perceptron
PerceptronPerceptron
Perceptron
 
Chapitre 0.pdf
Chapitre 0.pdfChapitre 0.pdf
Chapitre 0.pdf
 
Delorme nis1998
Delorme nis1998Delorme nis1998
Delorme nis1998
 
Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdffr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdf
 
Retropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfRetropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdf
 

Perceptron monocouche en français

  • 1. Perceptron monocouche Réalisé par : Hakim NASAOUI LinkedIn Profile : https://www.linkedin.com/in/hakimnasaoui « Psychological Review Vol. 65, No. 6, 19S8 "THE PERCEPTRON: A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND ORGANIZATION IN THE BRAIN" - F. ROSENBLATT
  • 2. Plan  Introduction  Historique de la perceptron  Perceptron monocouche  Algorithme du perceptron monocouche  Notion d’apprentissage du perceptron  Types d’apprentissage  Algorithme d’apprentissage du perceptron  Exemple  Conclusion
  • 3. Introduction  Les capacités d'apprentissage du cerveau humain sont fascinantes. Avec les capacités calculatoires promises par l'informatique et dans l'objectif d'imiter le cerveau humain, la théorie des réseaux de neurones à commencer à poindre au milieu du XXème siècle, notamment avec l'introduction du perceptron en 1957 par Franck Rosenblatt.
  • 4. Historique de la perceptron L'algorithme perceptron a été inventé en 1957 au laboratoire aéronautique de Cornell par Frank Rosenblatt, financé par l'Office de Naval de la recherche des États-Unis. Le perceptron devait être une machine, plutôt qu'un programme, et alors que sa première implémentation était dans un logiciel pour l'IBM 704, il a ensuite été implémenté dans du matériel personnalisé comme le "Mark 1 perceptron". Cette machine a été conçue pour la reconnaissance d'images: elle disposait d'un réseau de 400 photocellules, reliées aléatoirement aux "neurones". Les poids ont été codés en potentiomètres, et les mises à jour de poids pendant l'apprentissage ont été effectuées par des moteurs électriques.
  • 5. Perceptron monocouche Un perceptron monocouche (aussi appelé perceptron) est un réseau de neurones contenant n neurones en entrée et m neurones en sortie. La sortie S est calculée par la formule : S = 1si Σ wi xi > s 0 si non
  • 6. Algorithme du Perceptron monocouche  Le perceptron monocouche n'a pas de connaissance a priori, donc les poids initiaux sont assignés aléatoirement. Le perceptron somme toutes les entrées pondérées et si la somme est supérieure au seuil (une certaine valeur prédéterminée), perceptron est dit être activé (sortie = 1).
  • 7. Algorithme du Perceptron monocouche  Les valeurs d'entrée sont présentées au perceptron, et si la sortie prédite est la même que la sortie désirée, la performance est considérée comme satisfaisante et aucun changement n'est apporté aux poids. Cependant, si la sortie ne correspond pas à la sortie désirée, les poids doivent être modifiés pour réduire l'erreur.
  • 8. Algorithme du Perceptron monocouche  Parce que le perceptron monocouche est un classificateur linéaire et si les cas ne sont pas linéairement séparables, le processus d'apprentissage n'atteindra jamais un point où tous les cas sont classés correctement. L'exemple le plus célèbre de l'incapacité du perceptron à résoudre des problèmes avec des cas linéairement non séparables est le problème XOR.
  • 9. L’apprentissage La notion d’apprentissage recouvre deux réalités souvent traitées de façon successive :  mémorisation : le fait d’assimiler sous une forme dense des exemples éventuellement nombreux,  généralisation : le fait d’être capable, grâce aux exemples appris, de traiter des exemples distincts, non rencontrés, mais similaires.
  • 10. Types d’apprentissage Il existe plusieurs types d’apprentissage, les plus utilisées sont :  Mode supervisé : les exemples sont des couples (entrée, sortie associée).  Mode non supervisé: on dispose que des valeurs (entrée).  Apprentissage par renforcement. Pour ces trois types d'apprentissage, il y a également un choix traditionnel entre :  L’apprentissage << off-line >>  L’apprentissage << on-line >>
  • 12. Algorithme d’apprentissage du perceptron Initialisation des poids et du seuil à de petites valeurs aléatoires  Présenter un vecteur d’entrées x(μ) et calculer sa sortie  Mettre à jour les poids en utilisant : wj(t+1) = wj(t) + η (d- y) xj avec d la sortie désirée, w vecteur des poids η est une constante positive ,qui spécifie le pas de modification des poids
  • 13. Alors comment un perceptron prédit-il et apprend-il? Un réseau de neurones génère une prédiction après avoir passé toutes les entrées à travers toutes les couches, jusqu'à la couche de sortie. Ce processus est appelé feedforward .
  • 14. Exemple d’apprentissage En utilisant l’approche de Naive Bayes : La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non.
  • 16. Conclusion: • Le cerveau humain peut être vu (dans un modèle très simplifié) comme un réseau entre les neurones • Un raisonnement probabiliste simple avec des hypothèses fortes peut mener à une prédiction puissante • Les perceptrons à une seule unité sont seulement capables d'apprendre des modèles linéairement séparés

Notes de l'éditeur

  1. - Il possède n informations en entrée, - Il est composé de p neurones, que l'on représente généralement alignés verticalement. Chacun peut en théorie avoir une fonction d'activation différente. En pratique, ce n'est généralement pas le cas, - Chacun des p neurones est connecté aux n informations d'entrée.
  2. Apprentissage par descente de gradient : il s'agit de calculer une erreur et d'essayer de minimiser cette erreur. • Apprentissage par la règle de Widrow-Hoff (ou Adaline) : au lieu de calculer les variations des poids en sommant sur tous les exemples de S, l'idée est de modifier les poids à chaque présentation d'exemple.
  3. n => SE PRONONCE (ETA)
  4. En utilisant l’approche de Naive Bayes Approach La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non. Dans la case de playtennis c’est la prediction apres on calcul leur probabilite utilisant l’apprentissage
  5. 4 variable Perceptron Multi couche 9/14 = 0,64 5/14 = 0,36
  6. 4 variable Perceptron Multi couche 9/14 = 0,64 5/14 = 0,36
  7. 4 variable Perceptron Multi couche 9/14 = 0,64 5/14 = 0,36