1. Perceptron monocouche
Réalisé par : Hakim NASAOUI
LinkedIn Profile : https://www.linkedin.com/in/hakimnasaoui
« Psychological Review Vol. 65, No. 6, 19S8 "THE PERCEPTRON:
A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND
ORGANIZATION IN THE BRAIN" - F. ROSENBLATT
2. Plan
Introduction
Historique de la perceptron
Perceptron monocouche
Algorithme du perceptron monocouche
Notion d’apprentissage du perceptron
Types d’apprentissage
Algorithme d’apprentissage du perceptron
Exemple
Conclusion
3. Introduction
Les capacités d'apprentissage du cerveau humain sont
fascinantes. Avec les capacités calculatoires promises par
l'informatique et dans l'objectif d'imiter le cerveau
humain, la théorie des réseaux de neurones à commencer
à poindre au milieu du XXème siècle, notamment avec
l'introduction du perceptron en 1957 par Franck
Rosenblatt.
4. Historique de la perceptron
L'algorithme perceptron a été inventé en 1957 au laboratoire
aéronautique de Cornell par Frank Rosenblatt, financé par
l'Office de Naval de la recherche des États-Unis. Le
perceptron devait être une machine, plutôt qu'un programme,
et alors que sa première implémentation était dans un logiciel
pour l'IBM 704, il a ensuite été implémenté dans du matériel
personnalisé comme le "Mark 1 perceptron". Cette machine a
été conçue pour la reconnaissance d'images: elle disposait
d'un réseau de 400 photocellules, reliées aléatoirement aux
"neurones". Les poids ont été codés en potentiomètres, et les
mises à jour de poids pendant l'apprentissage ont été
effectuées par des moteurs électriques.
5. Perceptron monocouche
Un perceptron monocouche (aussi appelé perceptron) est un
réseau de neurones contenant n neurones en entrée et m
neurones en sortie.
La sortie S est calculée
par la formule :
S = 1si Σ wi xi > s
0 si non
6. Algorithme du Perceptron monocouche
Le perceptron monocouche n'a pas de connaissance a priori,
donc les poids initiaux sont assignés aléatoirement. Le
perceptron somme toutes les entrées pondérées et si la
somme est supérieure au seuil (une certaine valeur
prédéterminée), perceptron est dit être activé (sortie = 1).
7. Algorithme du Perceptron monocouche
Les valeurs d'entrée sont présentées au perceptron, et si la
sortie prédite est la même que la sortie désirée, la
performance est considérée comme satisfaisante et aucun
changement n'est apporté aux poids. Cependant, si la sortie
ne correspond pas à la sortie désirée, les poids doivent être
modifiés pour réduire l'erreur.
8. Algorithme du Perceptron monocouche
Parce que le perceptron monocouche est un classificateur linéaire et si les
cas ne sont pas linéairement séparables, le processus d'apprentissage
n'atteindra jamais un point où tous les cas sont classés correctement.
L'exemple le plus célèbre de l'incapacité du perceptron à résoudre des
problèmes avec des cas linéairement non séparables est le problème XOR.
9. L’apprentissage
La notion d’apprentissage recouvre deux réalités
souvent traitées de façon successive :
mémorisation : le fait d’assimiler sous une forme
dense des exemples éventuellement nombreux,
généralisation : le fait d’être capable, grâce aux
exemples appris, de traiter des exemples
distincts, non rencontrés, mais similaires.
10. Types d’apprentissage
Il existe plusieurs types d’apprentissage, les plus utilisées sont :
Mode supervisé : les exemples sont des couples (entrée, sortie
associée).
Mode non supervisé: on dispose que des valeurs (entrée).
Apprentissage par renforcement.
Pour ces trois types d'apprentissage, il y a également un choix
traditionnel entre :
L’apprentissage << off-line >>
L’apprentissage << on-line >>
12. Algorithme d’apprentissage
du perceptron
Initialisation des poids et du seuil à de petites
valeurs aléatoires
Présenter un vecteur d’entrées x(μ) et calculer sa sortie
Mettre à jour les poids en utilisant :
wj(t+1) = wj(t) + η (d- y) xj
avec d la sortie désirée, w vecteur des poids η est une constante
positive ,qui spécifie le pas de modification des poids
13. Alors comment un perceptron prédit-il et
apprend-il?
Un réseau de neurones génère
une prédiction après avoir passé
toutes les entrées à travers
toutes les couches, jusqu'à la
couche de sortie. Ce processus
est appelé feedforward .
14. Exemple d’apprentissage
En utilisant l’approche de Naive Bayes :
La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non.
16. Conclusion:
• Le cerveau humain peut être vu (dans un modèle
très simplifié) comme un réseau entre les
neurones
• Un raisonnement probabiliste simple avec des
hypothèses fortes peut mener à une prédiction
puissante
• Les perceptrons à une seule unité sont seulement
capables d'apprendre des modèles linéairement
séparés
- Il possède n informations en entrée,
- Il est composé de p neurones, que l'on représente généralement alignés verticalement. Chacun peut en théorie avoir une fonction d'activation différente. En pratique, ce n'est généralement pas le cas,
- Chacun des p neurones est connecté aux n informations d'entrée.
Apprentissage par descente de gradient :
il s'agit de calculer une erreur et d'essayer de minimiser cette erreur.
• Apprentissage par la règle de Widrow-Hoff (ou
Adaline) :
au lieu de calculer les variations des poids en sommant sur tous les exemples
de S, l'idée est de modifier les poids à chaque présentation d'exemple.
n => SE PRONONCE (ETA)
En utilisant l’approche de Naive Bayes Approach
La tâche consiste à prédire un concept cible PlayTennis sous la forme d'une décision oui / non.
Dans la case de playtennis c’est la prediction apres on calcul leur probabilite utilisant l’apprentissage