SlideShare une entreprise Scribd logo
1  sur  17
Perceptron monocouche
Réalisé par : Hakim NASAOUI
LinkedIn Profile : https://www.linkedin.com/in/hakimnasaoui
« Psychological Review Vol. 65, No. 6, 19S8 "THE PERCEPTRON:
A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND
ORGANIZATION IN THE BRAIN" - F. ROSENBLATT
Plan
 Introduction
 Historique de la perceptron
 Perceptron monocouche
 Algorithme du perceptron monocouche
 Notion d’apprentissage du perceptron
 Types d’apprentissage
 Algorithme d’apprentissage du perceptron
 Exemple
 Conclusion
Introduction
 Les capacités d'apprentissage du cerveau humain sont
fascinantes. Avec les capacités calculatoires promises par
l'informatique et dans l'objectif d'imiter le cerveau
humain, la théorie des réseaux de neurones à commencer
à poindre au milieu du XXème siècle, notamment avec
l'introduction du perceptron en 1957 par Franck
Rosenblatt.
Historique de la perceptron
L'algorithme perceptron a été inventé en 1957 au laboratoire
aéronautique de Cornell par Frank Rosenblatt, financé par
l'Office de Naval de la recherche des États-Unis. Le
perceptron devait être une machine, plutôt qu'un programme,
et alors que sa première implémentation était dans un logiciel
pour l'IBM 704, il a ensuite été implémenté dans du matériel
personnalisé comme le "Mark 1 perceptron". Cette machine a
été conçue pour la reconnaissance d'images: elle disposait
d'un réseau de 400 photocellules, reliées aléatoirement aux
"neurones". Les poids ont été codés en potentiomètres, et les
mises à jour de poids pendant l'apprentissage ont été
effectuées par des moteurs électriques.
Perceptron monocouche
Un perceptron monocouche (aussi appelé perceptron) est un
réseau de neurones contenant n neurones en entrée et m
neurones en sortie.
La sortie S est calculée
par la formule :
S = 1si Σ wi xi > s
0 si non
Algorithme du Perceptron monocouche
 Le perceptron monocouche n'a pas de connaissance a priori,
donc les poids initiaux sont assignés aléatoirement. Le
perceptron somme toutes les entrées pondérées et si la
somme est supérieure au seuil (une certaine valeur
prédéterminée), perceptron est dit être activé (sortie = 1).
Algorithme du Perceptron monocouche
 Les valeurs d'entrée sont présentées au perceptron, et si la
sortie prédite est la même que la sortie désirée, la
performance est considérée comme satisfaisante et aucun
changement n'est apporté aux poids. Cependant, si la sortie
ne correspond pas à la sortie désirée, les poids doivent être
modifiés pour réduire l'erreur.
Algorithme du Perceptron monocouche
 Parce que le perceptron monocouche est un classificateur linéaire et si les
cas ne sont pas linéairement séparables, le processus d'apprentissage
n'atteindra jamais un point où tous les cas sont classés correctement.
L'exemple le plus célèbre de l'incapacité du perceptron à résoudre des
problèmes avec des cas linéairement non séparables est le problème XOR.
L’apprentissage
La notion d’apprentissage recouvre deux réalités
souvent traitées de façon successive :
 mémorisation : le fait d’assimiler sous une forme
dense des exemples éventuellement nombreux,
 généralisation : le fait d’être capable, grâce aux
exemples appris, de traiter des exemples
distincts, non rencontrés, mais similaires.
Types d’apprentissage
Il existe plusieurs types d’apprentissage, les plus utilisées sont :
 Mode supervisé : les exemples sont des couples (entrée, sortie
associée).
 Mode non supervisé: on dispose que des valeurs (entrée).
 Apprentissage par renforcement.
Pour ces trois types d'apprentissage, il y a également un choix
traditionnel entre :
 L’apprentissage << off-line >>
 L’apprentissage << on-line >>
Règles d’apprentissage
Algorithme d’apprentissage
du perceptron
Initialisation des poids et du seuil à de petites
valeurs aléatoires
 Présenter un vecteur d’entrées x(μ) et calculer sa sortie
 Mettre à jour les poids en utilisant :
wj(t+1) = wj(t) + η (d- y) xj
avec d la sortie désirée, w vecteur des poids η est une constante
positive ,qui spécifie le pas de modification des poids
Alors comment un perceptron prédit-il et
apprend-il?
Un réseau de neurones génère
une prédiction après avoir passé
toutes les entrées à travers
toutes les couches, jusqu'à la
couche de sortie. Ce processus
est appelé feedforward .
Exemple d’apprentissage
En utilisant l’approche de Naive Bayes :
La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non.
La phase d’apprentissage (playTennis)
Conclusion:
• Le cerveau humain peut être vu (dans un modèle
très simplifié) comme un réseau entre les
neurones
• Un raisonnement probabiliste simple avec des
hypothèses fortes peut mener à une prédiction
puissante
• Les perceptrons à une seule unité sont seulement
capables d'apprendre des modèles linéairement
séparés
MERCI !

Contenu connexe

Tendances

Intelligence artificielle
Intelligence artificielleIntelligence artificielle
Intelligence artificiellehadjerdermane
 
Réseaux de neurones récurrents et LSTM
Réseaux de neurones récurrents et LSTMRéseaux de neurones récurrents et LSTM
Réseaux de neurones récurrents et LSTMJaouad Dabounou
 
Chp5 - Diagramme d'Etat Transition
Chp5 - Diagramme d'Etat TransitionChp5 - Diagramme d'Etat Transition
Chp5 - Diagramme d'Etat TransitionLilia Sfaxi
 
Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neuronesguestf80d95
 
Machine Learning et Intelligence Artificielle
Machine Learning et Intelligence ArtificielleMachine Learning et Intelligence Artificielle
Machine Learning et Intelligence ArtificielleSoft Computing
 
Les réseaux de neurones
Les réseaux de neuronesLes réseaux de neurones
Les réseaux de neuronesMariam Amchayd
 
Introduction au Machine Learning
Introduction au Machine LearningIntroduction au Machine Learning
Introduction au Machine LearningMathieu Goeminne
 
Data mining - ACP Analyse en Composantes Principales
Data mining - ACP Analyse en Composantes PrincipalesData mining - ACP Analyse en Composantes Principales
Data mining - ACP Analyse en Composantes PrincipalesMohamed Heny SELMI
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningBassem Brayek
 
Les réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNNLes réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNNSALMARACHIDI1
 
AI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine LearnigAI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine LearnigFelipe Sanchez Garzon
 
Clustering: Méthode hiérarchique
Clustering: Méthode hiérarchiqueClustering: Méthode hiérarchique
Clustering: Méthode hiérarchiqueYassine Mhadhbi
 
Présentation intelligence artificielle et domaines d'applications - #DigitalT...
Présentation intelligence artificielle et domaines d'applications - #DigitalT...Présentation intelligence artificielle et domaines d'applications - #DigitalT...
Présentation intelligence artificielle et domaines d'applications - #DigitalT...Digital Thursday
 
Les arbres de décisions
Les arbres de décisionsLes arbres de décisions
Les arbres de décisionsMariem Chaaben
 
Data mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionData mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionMohamed Heny SELMI
 
Les systèmes de détection et prévention d’intrusion
Les systèmes de détection et prévention d’intrusionLes systèmes de détection et prévention d’intrusion
Les systèmes de détection et prévention d’intrusionIntissar Dguechi
 

Tendances (20)

Intelligence artificielle
Intelligence artificielleIntelligence artificielle
Intelligence artificielle
 
Réseaux de neurones récurrents et LSTM
Réseaux de neurones récurrents et LSTMRéseaux de neurones récurrents et LSTM
Réseaux de neurones récurrents et LSTM
 
Chp5 - Diagramme d'Etat Transition
Chp5 - Diagramme d'Etat TransitionChp5 - Diagramme d'Etat Transition
Chp5 - Diagramme d'Etat Transition
 
Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neurones
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
Machine Learning et Intelligence Artificielle
Machine Learning et Intelligence ArtificielleMachine Learning et Intelligence Artificielle
Machine Learning et Intelligence Artificielle
 
Les réseaux de neurones
Les réseaux de neuronesLes réseaux de neurones
Les réseaux de neurones
 
Introduction au Machine Learning
Introduction au Machine LearningIntroduction au Machine Learning
Introduction au Machine Learning
 
Data mining - ACP Analyse en Composantes Principales
Data mining - ACP Analyse en Composantes PrincipalesData mining - ACP Analyse en Composantes Principales
Data mining - ACP Analyse en Composantes Principales
 
Réseaux neurons
Réseaux neuronsRéseaux neurons
Réseaux neurons
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
 
Les réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNNLes réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNN
 
AI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine LearnigAI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine Learnig
 
Clustering: Méthode hiérarchique
Clustering: Méthode hiérarchiqueClustering: Méthode hiérarchique
Clustering: Méthode hiérarchique
 
Réseaux de neurones
Réseaux de neurones Réseaux de neurones
Réseaux de neurones
 
Présentation intelligence artificielle et domaines d'applications - #DigitalT...
Présentation intelligence artificielle et domaines d'applications - #DigitalT...Présentation intelligence artificielle et domaines d'applications - #DigitalT...
Présentation intelligence artificielle et domaines d'applications - #DigitalT...
 
Python.pptx
Python.pptxPython.pptx
Python.pptx
 
Les arbres de décisions
Les arbres de décisionsLes arbres de décisions
Les arbres de décisions
 
Data mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionData mining - Classification - arbres de décision
Data mining - Classification - arbres de décision
 
Les systèmes de détection et prévention d’intrusion
Les systèmes de détection et prévention d’intrusionLes systèmes de détection et prévention d’intrusion
Les systèmes de détection et prévention d’intrusion
 

Similaire à Perceptron monocouche en français

A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdfZizoAziz
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learningFrederic Simard
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...ENSET, Université Hassan II Casablanca
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...ENSET, Université Hassan II Casablanca
 
Perceptron
PerceptronPerceptron
Perceptronkoki Ou
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfSafaeElOmari
 
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdffr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdfSidiAbdallah1
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfdrajou
 
Retropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfRetropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfC00LiMoUn1
 

Similaire à Perceptron monocouche en français (15)

GIND5439_Chapitre6.pdf
GIND5439_Chapitre6.pdfGIND5439_Chapitre6.pdf
GIND5439_Chapitre6.pdf
 
PERCEPTRON.pptx
PERCEPTRON.pptxPERCEPTRON.pptx
PERCEPTRON.pptx
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
 
Comparaison
ComparaisonComparaison
Comparaison
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
 
Perceptron
PerceptronPerceptron
Perceptron
 
Chapitre 0.pdf
Chapitre 0.pdfChapitre 0.pdf
Chapitre 0.pdf
 
Delorme nis1998
Delorme nis1998Delorme nis1998
Delorme nis1998
 
Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdffr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
 
prsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdfprsentationrn-151107223049-lva1-app6891.pdf
prsentationrn-151107223049-lva1-app6891.pdf
 
Retropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfRetropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdf
 

Perceptron monocouche en français

  • 1. Perceptron monocouche Réalisé par : Hakim NASAOUI LinkedIn Profile : https://www.linkedin.com/in/hakimnasaoui « Psychological Review Vol. 65, No. 6, 19S8 "THE PERCEPTRON: A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND ORGANIZATION IN THE BRAIN" - F. ROSENBLATT
  • 2. Plan  Introduction  Historique de la perceptron  Perceptron monocouche  Algorithme du perceptron monocouche  Notion d’apprentissage du perceptron  Types d’apprentissage  Algorithme d’apprentissage du perceptron  Exemple  Conclusion
  • 3. Introduction  Les capacités d'apprentissage du cerveau humain sont fascinantes. Avec les capacités calculatoires promises par l'informatique et dans l'objectif d'imiter le cerveau humain, la théorie des réseaux de neurones à commencer à poindre au milieu du XXème siècle, notamment avec l'introduction du perceptron en 1957 par Franck Rosenblatt.
  • 4. Historique de la perceptron L'algorithme perceptron a été inventé en 1957 au laboratoire aéronautique de Cornell par Frank Rosenblatt, financé par l'Office de Naval de la recherche des États-Unis. Le perceptron devait être une machine, plutôt qu'un programme, et alors que sa première implémentation était dans un logiciel pour l'IBM 704, il a ensuite été implémenté dans du matériel personnalisé comme le "Mark 1 perceptron". Cette machine a été conçue pour la reconnaissance d'images: elle disposait d'un réseau de 400 photocellules, reliées aléatoirement aux "neurones". Les poids ont été codés en potentiomètres, et les mises à jour de poids pendant l'apprentissage ont été effectuées par des moteurs électriques.
  • 5. Perceptron monocouche Un perceptron monocouche (aussi appelé perceptron) est un réseau de neurones contenant n neurones en entrée et m neurones en sortie. La sortie S est calculée par la formule : S = 1si Σ wi xi > s 0 si non
  • 6. Algorithme du Perceptron monocouche  Le perceptron monocouche n'a pas de connaissance a priori, donc les poids initiaux sont assignés aléatoirement. Le perceptron somme toutes les entrées pondérées et si la somme est supérieure au seuil (une certaine valeur prédéterminée), perceptron est dit être activé (sortie = 1).
  • 7. Algorithme du Perceptron monocouche  Les valeurs d'entrée sont présentées au perceptron, et si la sortie prédite est la même que la sortie désirée, la performance est considérée comme satisfaisante et aucun changement n'est apporté aux poids. Cependant, si la sortie ne correspond pas à la sortie désirée, les poids doivent être modifiés pour réduire l'erreur.
  • 8. Algorithme du Perceptron monocouche  Parce que le perceptron monocouche est un classificateur linéaire et si les cas ne sont pas linéairement séparables, le processus d'apprentissage n'atteindra jamais un point où tous les cas sont classés correctement. L'exemple le plus célèbre de l'incapacité du perceptron à résoudre des problèmes avec des cas linéairement non séparables est le problème XOR.
  • 9. L’apprentissage La notion d’apprentissage recouvre deux réalités souvent traitées de façon successive :  mémorisation : le fait d’assimiler sous une forme dense des exemples éventuellement nombreux,  généralisation : le fait d’être capable, grâce aux exemples appris, de traiter des exemples distincts, non rencontrés, mais similaires.
  • 10. Types d’apprentissage Il existe plusieurs types d’apprentissage, les plus utilisées sont :  Mode supervisé : les exemples sont des couples (entrée, sortie associée).  Mode non supervisé: on dispose que des valeurs (entrée).  Apprentissage par renforcement. Pour ces trois types d'apprentissage, il y a également un choix traditionnel entre :  L’apprentissage << off-line >>  L’apprentissage << on-line >>
  • 12. Algorithme d’apprentissage du perceptron Initialisation des poids et du seuil à de petites valeurs aléatoires  Présenter un vecteur d’entrées x(μ) et calculer sa sortie  Mettre à jour les poids en utilisant : wj(t+1) = wj(t) + η (d- y) xj avec d la sortie désirée, w vecteur des poids η est une constante positive ,qui spécifie le pas de modification des poids
  • 13. Alors comment un perceptron prédit-il et apprend-il? Un réseau de neurones génère une prédiction après avoir passé toutes les entrées à travers toutes les couches, jusqu'à la couche de sortie. Ce processus est appelé feedforward .
  • 14. Exemple d’apprentissage En utilisant l’approche de Naive Bayes : La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non.
  • 16. Conclusion: • Le cerveau humain peut être vu (dans un modèle très simplifié) comme un réseau entre les neurones • Un raisonnement probabiliste simple avec des hypothèses fortes peut mener à une prédiction puissante • Les perceptrons à une seule unité sont seulement capables d'apprendre des modèles linéairement séparés

Notes de l'éditeur

  1. - Il possède n informations en entrée, - Il est composé de p neurones, que l'on représente généralement alignés verticalement. Chacun peut en théorie avoir une fonction d'activation différente. En pratique, ce n'est généralement pas le cas, - Chacun des p neurones est connecté aux n informations d'entrée.
  2. Apprentissage par descente de gradient : il s'agit de calculer une erreur et d'essayer de minimiser cette erreur. • Apprentissage par la règle de Widrow-Hoff (ou Adaline) : au lieu de calculer les variations des poids en sommant sur tous les exemples de S, l'idée est de modifier les poids à chaque présentation d'exemple.
  3. n => SE PRONONCE (ETA)
  4. En utilisant l’approche de Naive Bayes Approach La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non. Dans la case de playtennis c’est la prediction apres on calcul leur probabilite utilisant l’apprentissage
  5. 4 variable Perceptron Multi couche 9/14 = 0,64 5/14 = 0,36
  6. 4 variable Perceptron Multi couche 9/14 = 0,64 5/14 = 0,36
  7. 4 variable Perceptron Multi couche 9/14 = 0,64 5/14 = 0,36