1. UNIVERSITÉ DE DOUALA
FACULTE DES SCIENCE
MIAGE
***********
ANNEE ACADEMIQUE
2023 - 2024
LE PERCEPTRON
Présenté par :
KIHDZE DIEULADONNÉ BANFOGHA
ENONIE IDRISS
Sous la coordination de :
Dr. MOSKOLAI
3. 01
PERCEPTRON
INTRODUCTION
DEFINITION ET HISTORIQUE
Un perceptron est un algorithme d'apprentissage automatique
développé pour la classification binaire( c'est-à-dire classifiant
l’ensemble de donnée en deux classe) et linéaire ( c'est-à-dire classe
séparées par une ligne droite) et la prédiction, conçue pour imiter la
manière dont le cerveau traite l'information.
Le perceptron a été introduit pour la première fois par Frank
Rosenblatt en 1958. Bien qu'il soit considéré comme simple par
rapport aux modèles de Machine Learning actuels, le perceptron est la
base du Deep Learning.
Le perceptron est largement utilisé dans des domaines tels que la
vision par ordinateur, la reconnaissance vocale et le traitement du
langage naturel, détection des spams, traitement d’image, etc…
4. 01 02 STRUCTURE DU PERCEPTRON
Le perceptron est inspiré du neurone biologique,
où les entrées du neurone artificiel corresponde
aux dendrites du neurone biologique et la sortie
du neurone artificiel correspond à l’ Axon du
neurone biologique.
Un perceptron est composé : des entrées et
poids; d’une fonction d’activation; le biais et la
sortie.
PERCEPTRON
5. PERCEPTRON
01 02
Entrées et poids
STRUCTURE DU PERCEPTRON
Fonction
d’activation
Biais et sortie
Chaque perceptron reçoit
plusieurs entrées. Ces entrées
sont généralement les
caractéristiques de la donnée que
nous voulons classer. Chaque
entrée est associée à un poids, qui
indique l'importance relative de
cette entrée pour la décision
finale.
La somme pondérée des entrées est
passée à travers une fonction
d'activation. cette fonction est
souvent une fonction seuil, qui
renvoie 1 si la somme pondérée est
supérieure à un certain seuil et 0
sinon.
Le biais est un paramètre
supplémentaire qui permet de
décaler la fonction d'activation vers la
gauche ou la droite. C'est un outil
utile pour améliorer la flexibilité du
modèle.
La sortie est le résultat final produit
par le perceptron. Dans le cas d'un
perceptron simple, cette sortie est
une classification binaire : 0 ou 1.
6. PERCEPTRON
01 02 ENTRAINEMENT DU
PERCEPTRON
L'apprentissage du
perceptron utilise
l'algorithme de descente du
gradient pour mettre à jour
les poids et réduire
progressivement l'erreur.
L'apprentissage
supervisé consiste à
fournir au perceptron
un ensemble de
données
d'entraînement avec
des étiquettes pour
chaque exemple.
Pour chaque exemple,
le perceptron calcule
la sortie, compare
avec l'étiquette
attendue et ajuste les
poids en fonction de
l'erreur commise.
L'entraînement se
poursuit jusqu'à ce que le
perceptron atteigne un
état où il peut classer
correctement les
exemples d'entraînement
ou jusqu'à ce qu'un critère
d'arrêt soit atteint.
A B C D
APPRENTISSAGE SUPERVISE
7. 01 02 FONCTIONNEMENT DU
PERCEPTRON PERCEPTRON
03
Etape 1
Initialisaton
Etape 2
Calcul de la
somme
pondérée
Etape 3
Application de la
fonction
d'activation
Etape 4
Prédiction et
apprentissage
8. PERCEPTRON
01 03 04
02 AVANTAGES ET LIMITES
DU PERCEPTRON
AVANTAGES LIMITES
Simplicité et efficacité pour effectuer la
classification binaire.
facilité de mise en œuvre, il est souvent
utilisé comme base pour des modèles plus
complexes tels que les réseaux de
neurones.
Petit ensemble de données
d'entraînement et il fonctionne bien dans
des scénarios où les classes sont
linéairement séparables.
Séparabilité linéaire : Il ne peut classer correctement
que des données qui sont linéairement séparables.
Classification binaire: En tant que classificateur
binaire, il est incapable de gérer directement les
problèmes de classification multiclasse. L'approche
standard pour les surmonter implique l'utilisation de
plusieurs perceptrons en parallèle.
Absence de fonction d'erreur globale. Le perceptron
n'a pas de fonction d'erreur globale à minimiser, il
ajuste simplement ses poids lorsqu'il fait une erreur.
Absence de mécanisme d'apprentissage pour les
problèmes non linéaires. Le perceptron simple ne
peut pas non plus traiter les problèmes non linéaires,
car il ne peut pas employer des techniques comme la
rétropropagation, utilisées dans les réseaux de
neurones plus complexes.
10. 01 03 04 05 06
02
PERCEPTRON
CONCLUSION
Pour résumer, le perceptron est un concept fondamental dans le domaine de l'apprentissage
automatique.
En dépit de sa simplicité, il a jeté les bases pour le développement de modèles d'apprentissage plus
avancés, notamment les réseaux de neurones profonds.
En utilisant un ensemble d'entrées pondérées, une fonction d'activation et un processus
d'apprentissage basé sur l'erreur, le perceptron est capable de réaliser une classification binaire.
Toutefois, le perceptron (à une seule couche) présente des limites. Il ne peut traiter que des
données linéairement séparables et ne peut réaliser que des classifications binaires. De plus, il ne
dispose pas d'une fonction d'erreur globale qu'il tente de minimiser ni d'un mécanisme
d'apprentissage pour les problèmes non linéaires. Pour surmonter ces limites, des extensions du
perceptron, comme le perceptron multicouche, ont été développées.