SlideShare une entreprise Scribd logo
Réalisée par
ISSARTI Ikrame
KARARA Mohamed
EZOUAGH Mohamed
ZGUINDOU Abdelghafour
Encadrée par
Pr. FAKHOURI Hanane
Pr. EL HAIMOUDI Khatir
Université Abdelmalek Essaâdi
Faculté Polydisciplinaire de Larache
Licence d’Etudes Fondamentales
Sciences Mathématiques, Informatique et Applications
Projet de fin d’études
Etude et réalisation d’un modèle de réseaux de
neurones artificiel avec un apprentissage
supervise/non supervisé
Plan de travaille
Part 1: Analyse en composantes principales (ACP)
1. Principe
2. Algorithme
part 2: Les réseaux de neurones artificiels (rna)
1. Définition
2. Propriétés
3. Le modèle biologique
4. Le modèle formel
5. La structure du réseau
6. Apprentissage du réseau de neurones
Travail 1 : La carte auto-organisatrice de kohonen (som)
travail 2 : Perceptron multicouche à retropropagation
(PMR)
PART 1:
1. Principe
010001110101010
010111111111000
000000011001010
10111111110
ACP
Données initiale Données résultat
Minimisation
Renforcement
111100010101001
001010101001011
100001111000011
11110
ACP
ACP
g=( 𝒙 𝟏, … … … , 𝒙 𝒑 ) 𝒕
Ou 𝐱 𝐣 =
𝟏
𝐧 𝐢=𝟏
𝐧
𝐱 𝐢
𝐣
Y=𝑿 −𝟏𝒈 𝒕
𝐕 =
𝟏
𝐧
𝐘 𝐭
𝐘
𝑫 𝟏/𝑺 𝟐 =
𝟏
𝒅𝒊𝒂𝒈(𝑽)
𝑫 𝟏/𝑺 =
𝟏
𝒅𝒊𝒂𝒈(𝑫 𝟏/𝑺 𝟐)
Z = Y𝑫 𝟏/𝑺
R = 𝑫 𝟏/𝑺V𝑫 𝟏/𝑺
Chercher_Vecteur_Propre(R)C = Matrice_Vecteur_Propre.Z
2. Algorithme
1
2
3
4
5
6
7
89
A l’aide la méthode de
puissance itéré
PART 2:
1. Définition
Les réseaux de neurones
artificiels sont des réseaux
fortement connectés de
processeurs élémentaires
fonctionnant en parallèle.
Chaque processeur élémentaire
calcule une sortie unique sur
la base des informations qu'il
reçoit. Toute structure
hiérarchique de réseaux est
évidemment un réseau
RNA
0100011101010
1001011111111
1000000000011
0010101011111
1110
Données
Apprentissage
Automatique
RNA
Classification
Cratérisation
Reconnaissance
…
Principe
2. Propriétés
RNA
Capacité
d’apprentissage
L’adaptabilité
Capacité de
généralisation des
résultats
RNA
3. Le modèle biologique
le noyau est le centre des réactions
électrochimiques. Si les stimulations
externes sont suffisantes, le noyau
provoque l'envoi d'un influx nerveux
électrique à travers l'axone.
Les synapses transmettent l'influx
nerveux provenant de l'axone vers
d'autres cellules à partir de
neurotransmetteurs inhibiteurs ou
excitateurs.
les dendrites, selon leur longueur et leur
perméabilité, affectent la quantité
d'influx nerveux qui se rend au noyau.
l'axone transporte l'influx nerveux
vers les synapses.
RNA
4. Le modèle formel
f
𝑥1
𝑥𝑖
𝑥 𝑛
Entrée
𝑤1𝑖
𝑤𝑖𝑖
𝑤 𝑛𝑖
𝑦𝑖 Sortie
Poids
Intégration
des entrées
Fonction des
activation
Sortie 𝑦𝑖
Noyau
RNA
4. Le modèle formel Les fonctions d’activation
Linéaire Tout au rien = Seuil dur Fonction logistique = Seuil doux
La plus part des phénomènes
n’ont pas un comportement
linéaire
Décision certaine même pour
Les données proches de la surface
De décision
Décision avec une probabilité
𝑓 𝑥 =
−1, 𝑥 < 0
1, 𝑥 ≥ 0
𝑓 𝑥 =
1 − 𝑒−𝑎𝑥
1 + 𝑒−𝑎𝑥
𝑓 𝑥 = 𝑎𝑥
RNA
4. Le modèle formel / Biologique
RNA
5. structure du réseau
réseaux de neurones
artificielsBouclé
Non
Bouclé
RNA
5. La structure du réseau Non Bouclé
Un réseau de neurones non bouclé réalise une (ou
plusieurs) fonction algébrique de ses entrées par
composition des fonctions réalisées par chacun de ses
neurones.
RNA
5. La structure du réseau Bouclé
le graphe des connexions est cyclique : lorsqu’on
se déplace dans le réseau en suivant le sens des
connexions, il est possible de trouver au moins
un chemin qui revient à son point de départ (un
tel chemin est désigné sous le terme de « cycle
»). Les connexions récurrentes ramènent
l'information en arrière par rapport au sens de
propagation défini dans un réseau multicouche.
Ces connexions sont le plus souvent locales.
RNA
6. Apprentissage
Une procédure adaptative par laquelle les connexions
des neurones sont ajustées face à une source
d’information.
Dans la majorité des algorithmes actuels, les variables
modifiées pendant l'apprentissage sont les poids des
connexions. L'apprentissage est la modification des
poids du réseau dans l'optique d'accorder la réponse
du réseau aux exemples et à l'expérience.
RNA
6. Apprentissage
Apprentissage
RNA
Types
??
Règles
??
6. Apprentissage Types d’apprentissage
ApprentissageSupervisé
Non
Supervisé
Un apprentissage est dit supervisé lorsque l’on
force le réseau à converger vers un état final
précis, en même temps qu’on lui présente un
motif. Ce genre d’apprentissage est réalisé à
l’aide d’une base d’apprentissage, constituée
de plusieurs exemples de type entrées-sorties
(les entrées du réseau et les sorties désirées
ou encore les solutions souhaitées pour
l’ensemble des sorties du réseau).
L’apprentissage non supervisé consiste à
ajuster les poids à partir d’un seul ensemble
d’apprentissage formé uniquement de
données. Aucun résultat désiré n’est fourni
au réseau.
L’apprentissage ici consiste à détecter les
similarités et les différences dans l’ensemble
d’apprentissage.
RNA
0100011101010
1001011111111
1000000000011
0010101011111
1110
Données
RNA Résultat
Apprentissage
Supervisé
Apprentissage
Non
Supervisé
Résultat
Classification
Cratérisation
Reconnaissance
…
5. Apprentissage Règles d’apprentissage
Les règles d’apprentissage indiquent la quantité de modification à appliquer à chaque poids, en
fonction des exemples d’entrée (et des sorties désirées associées, dans le cas de
l’apprentissage supervisé) :
Où t désigne un instant avant la modification des poids, et t+1 un instant après.
Il existe un grand nombre de règles d’apprentissage différentes. Les plus répandues sont les
suivantes :
 Règle de Hebb ∆𝐖𝐢𝐣 = 𝜶𝐱 𝐢 𝐲𝐣
 Règle d’apprentissage compétitif ∆𝐖𝐢𝐣 = 𝛂(𝐱 𝐢 − 𝐖𝐢𝐣)𝐲𝐣
 Règle d’apprentissage supervisé ∆𝐖𝐢𝐣 = 𝜶𝐱 𝐢(𝐲𝐣 − 𝜽𝐣)
 Règle de la retropropagation du gradient ∆𝐖𝐢𝐣 = 𝛂𝛄𝐣 𝐲𝐢
𝐖𝐢𝐣 𝐭 + 𝟏 = 𝐖𝐢𝐣 𝐭 + ∆𝐖𝐢𝐣
RNA
TRAVAIL 1:
1. Principe
SOMs fournissent un moyen de représenter des
données multidimensionnelles dans des espaces de
dimensions beaucoup plus faibles - généralement
une ou deux dimensions.
Cette technique crée un réseau qui stocke des
informations de telle façon que toutes les
relations topologiques au sein de l'ensemble
d'apprentissage sont maintenues.
Ces structures intelligentes de représentation de
données sont inspirées, comme beaucoup d’autres
créations de l’intelligence artificielle, par la biologie
;
SOM
2. Architecture
- d'une couche d'entrée où tout motif à classer est
représenté par un vecteur multidimensionnel qualifié
de vecteur d’entrée. A chaque motif est affecté un
neurone d’entrée.
d'une couche de sortie également appelée couche de
compétition où les neurones entrent en
compétition. Les valeurs provenant des neurones
d’entrées sont transmises à tous les neurones de la
couche de compétition, en même temps. Pour
approcher des valeurs passées par les neurones
d’entrées.
SOM
3. Algorithme d’apprentissage
Initialisation des paramètres:
 Poids d’entrée (petites valeurs
aléatoire)
 Forme et taille du voisinage
 Taux d’apprentissage
Déterminer le neurone
vainqueur de chaque entrée
𝑾𝐣 − 𝐱 = 𝐦𝐢𝐧 𝐧| 𝐖𝐧 − 𝐱 |
j : indice du neurone vainqueur
n : le nombre de neurones
Mise à jour des poids du neurone j et de ses
voisins, le vecteur poids du neurone j’ est modifié
par
𝑾𝒋′ 𝒕 + 𝟏 = 𝑾𝒋′(𝒕)𝜶(𝒕)𝒉𝒋𝒋′(𝒙 − 𝑾𝒋′ 𝒕 )
Répéter jusqu’à
stabilisation du réseau
La carte SOM
(Couche Sortie)
Couche d’entrées
Réglage des paramètres
Forme du voisinage
𝒉𝒋𝒋′ = 𝐞𝐱𝐩(
−𝒅𝒋𝒋′
𝟐
𝟐𝝈(𝒕) 𝟐
)
J est l’indice du neurone vainqueur
J’ est l’indice d’un neurone voisin
𝒅𝒋𝒋′ Est la distance entre le neurone
vainqueur et les autre neurones
Diminution de la taille du voisinage
𝝈(𝒕) = 𝐞𝐱𝐩(−𝐭
ln 𝑮𝒓𝒊𝒅𝑺𝒊𝒛𝒆
𝑴𝒂𝒙𝑰𝒕𝒆𝒓𝒂𝒕𝒊𝒐𝒏
)
Diminution du taux d’apprentissage
Pour assurer la convergence de l’apprentissage on peut faire varier le
taux d’apprentissage en fonction du nombre d’itérations. La valeur
initiale peut être grande, par exemple égale à 1.
𝜶 𝒕 = 𝛼 𝟎 ∗ 𝒆−𝒕
𝟏
𝑴𝒂𝒙𝑰𝒕𝒆𝒓𝒂𝒕𝒊𝒐𝒏
Présentation pfe
4. Propriétés
 Similitude des densités dans l'espace d'entrée :
La carte reflète la distribution des points dans l'espace d'entrée.
 Préservation des relations topologiques
 Les ancêtres des cartes auto-organisatrices, les algorithmes comme "k-moyennes",
réalisent la discrétisation de l'espace d'entrée en ne modifiant à chaque cycle
d'adaptation qu'un seul vecteur référent. Leur processus d'apprentissage est donc
très long. L'algorithme de Kohonen profite des relations de voisinage dans la grille
pour réaliser une discrétisation dans un temps très court.
SOM
5. Exemples d’application La classification
SOMs sont couramment utilisés
comme aides à la visualisation. Ils
peuvent le rendre facile pour nous
les humains de voir les relations
entre les grandes quantités de
données.
Un SOM a été utilisé pour classer
les données statistiques décrivant
divers facteurs de qualité de vie tels
que l'état de santé, la nutrition, les
services d'enseignement, etc.
World Poverty Map
SOM
6. Exemples d’application La classification
World Poverty Map
Cette information de couleur peut alors être
tracée sur une carte du monde comme ceci
(Image) Cela rend très facile pour nous de
comprendre les données de la pauvreté
SOM
6. Exemples d’application Application à la robotique
On utilise la capacité de représentation spatiale de la
carte auto-organisatrice pour piloter un bras de
robot.
Il s'agit de mettre en correspondance l'espace
cartésien dans lequel travaille l'opérateur humain avec
l'espace du robot (coordonnées de chacun de ses axes
en valeurs angulaires).
SOM
1. Réalisation
011101010
101010100
1011000
111100001
100101011
101
SOM
ACP
Données initiales
Données prétraitées
Algorithme Modifié
Résultat
Les structures fonctionnelles élaborées à la base des deux
algorithmes classiques et modifiés
SOM
Description de modèle logiciel réalisé
Réalisation
Notion de
programmation
Orienté Objet C++
Mode console
Les
classes
ACP
Node
SOM
Menu
Cette classe contient les attribues et les
méthodes de calcul nécessaire pour la
réalisation de la méthode d’analyse en
composantes principales.
Cette classe est la base de notre réseau de
neurones, il contient les attribues et les
méthodes nécessaire pour décrire les
neurones de réseau
Cette classe est la classe principale de
l’application, il contient les attribues et
les méthodes pour créer la carte auto-
organisatrice de kohonen et aussi les
méthodes pour faire l’apprentissage du
réseau
Cette classe et le corps de l’application, il
contient les attribues et les méthodes de
l’affichage comme les menus et les variables
de choix etc
2. Les testes
Test de classification des alphabets
0 1 0
1 1 1
1 0 1
0 1 0
0 1 1
1 0 1
1 1 1
0 1 0
0 1 0
1 1 1
0 0 0
0 1 0
1 1 1
1 0 0
1 1 1
A A’ T T’ C
1 1 1
1 0 0
1 1 0
C’
1 1 1
1 1 1
1 0 0
F F’
1 1 1
1 1 0
1 0 0
1 0 1
1 1 1
1 0 1
1 0 0
1 1 1
1 0 1
H H’
A 010111101
A’ 010011101
T 111010010
T’ 111000010
C 111100111
C’ 111100110
F 111111100
F’ 111110100
H 101111101
H’ 100111101
Entrée
Création de la carte
L’initialisation des vecteurs des poids
Les vecteurs des poids après l’apprentissage
Résultat finale
H’ T T’
H F
C’
A F’
A’ C
Test de classification des colores
Noir 1 1 1
Noir’ 1 21 31
Rouge 255 0 0
Rouge’ 255 0 131
Bleu 0 0 255
Bleu’ 99 140 255
Vert 0 255 0
Vert’ 160 255 181
Blanc 255 255 255
Blanc’ 247 255 239
Rouge’ Rouge
Vert
Blanc’ Noir
Vert’ Blanc
Bleu Bleu’ Noir’
Entrée
Code RGB
Capitales européens / température
Carte classique
1000 itérations
Erreur moyen=0,9
Carte amelioré
1000 itérations
Erreur moyen=0,2
Bruxelles Kiev Helsinki
Londres Dublin
Madrid
Lisbonne Budapest Berlin Copenhague
Athènes Cracovie
TRAVAIL 2:
1. Principe
2. L’architecture du réseau
3. Algorithme d’apprentissage
4. Propriétés
5. Exemples d’application
6. Réalisation
7. Les testes
1. Principe
La rétropropagation basée sur la diminution du gradient d’erreur par rapport
aux poids du réseaux
PMR
𝐄 =
𝟏
𝟐
𝐢=𝟎
𝐦
(𝐲𝐢 − 𝛉𝐢) 𝟐
Les entrées Les sorties
2. L’architecture du réseau
Le keme
neurone de la
couche de sortie
Le jeme neurone de
la couche de caché
Le ieme neurone de
la couche d’entrée
Poids associé au
neurone 1
1 . Initialiser
aléatoirement
les coefficients wij
2 . Application d’un
vecteur entrées-sorties
à apprendre
3 . Calcul des sorties du RNA à partir des entrées
qui lui sont appliquées et calcul
de l’erreur entre ces sorties et les sorties désirés à
apprendre
Calcul la somme
𝒳= 𝓧𝓳𝒲𝔦𝔧 + 𝐛𝒿
𝐅 𝔁 =
𝟏
𝟏 + 𝐞−𝐗
3. Algorithme d’apprentissage
x1
x3
x2
O2
O1
W11
Couche d’entre
Couche de cache
𝛿𝑜1
𝛿ℎ1
W41
W42
W43
y1
W13
W12
Couche de sortieb1
b4
S=𝒟𝒾 − 𝒪𝒾
𝒟𝑖
x1
x3
x2
O2
O1
W11
Couche d’entre
Couche de cache
𝛿𝑜1
𝛿ℎ1
W41
W42
W43
y1
W13
W12
Couche de sortieb1
b4
4 . Correction des poids des liens
entre les neurones de la couche de
sortie et de la première couche
cachée selon l’erreur présente en
sortie
𝛿𝑜i = 𝒻 ′( 𝒴𝒿𝒲𝒿𝓀 + 𝑏𝑖) ∗ (𝑑i − Oi)
𝛿ℎj = 𝒻 ′( 𝑥𝑖𝒲𝑖𝑗 + 𝑏𝑗 )( 𝛿𝑜𝑖𝑤𝑖𝑗)
𝒘𝒏=wn+𝜼∗𝛿𝑜1∗O1+ 𝜶∗wn
𝒻′ 𝓍
= 𝒻 𝓍 [1 − 𝒻 𝓍 ]
x1
x3
x2
O2
O1
W11
Couche d’entre
Couche de cache
𝛿𝑜1
𝛿ℎ1
W41
W42
W43
y1
W13
W12
Couche de sortieb1
b4
5.Propagation de l’erreur sur la couche
précédente et correction des poids des
liens entre les neurones de la couche cachée
et ceux en entrées.
6.Boucler à la 2eme étape avec vecteur
d’entrées-sorties tant que les
performances du RNA (erreur sur les
sorties) ne sont pas satisfaisantes
𝒘𝒏=wn+𝜼∗𝛿ℎ1∗O1+ 𝜶∗wn
4. Propriétés
 la capacité d’apprentissage
 Ce n’est pas le seul modèle multicouche, mais c’est le plus courant.
 Neurones réparties en couches : entrée, cachées (traitement), et décision.
 Apprentissage supervisé : cherche les paramètres de réseaux qui minimise
l’erreur
 entre le calculé et désiré par la Retropropagation de gradient.
 Les flots de signal vont dans une seule direction.
 trouve des solutions à certains problèmes non linéaires.
 Les perceptrons peuvent représenter toutes les fonctions linéairement
séparables
PMR
5. Exemples d’application la reconnaissance des caractères
PMR
5. Exemples d’application
X1 X2 XOR
0 0 0
0 1 1
1 1 0
Les opérations Logiques
PMR
ACP
PMC A
RETROPROPAGATION
Sortie calculé
Apprentissage
01010101010
11001010101
01010101010
Sorties désirés
Algorithme Modifié
Données
prétraitées
Pas d’
Apprentissage
Sorties désirés
Sorties désirés
01010101010
11001010101
01010101010
Données initiales
6. Réalisation
Description de modèle logiciel réalisé
Réalisation
Notion de
programmation
Orienté Objet C++
Mode console
Les
classes
ACP
neurone
réseaux
Menu
Cette classe contient les attribues et les
méthodes de calcul nécessaire pour la
réalisation de la méthode d’analyse en
composantes principales.
Cette classe contient les attribues et les
méthodes nécessaire pour créer les
neurones de chaque couche de réseau
Cette classe est la classe principale de
l’application, il contient les attribues et
les méthodes pour créer le réseaux et
aussi les méthodes pour faire
l’apprentissage du réseau
Cette classe et le corps de l’application, il
contient les attribues et les méthodes de
l’affichage comme les menus et les variables
de choix etc
couche
Cette classe contient les attribues et
les méthodes pour créer les couche .
7. Les testes
Tester l’application
la reconnaissance des caractères
Exemple 1: Exemple 2:
=111100111
=100100111
=111010010
Présentation pfe
La résolution d’un problème non linéairement séparable: ou exclusif XOR
Tester l’application
X1 X2 XOR
0 0 0
0 1 1
1 1 0
Colores Poids Année Km Km/h SD
Noir=1 3500 1992 5600 260 0,1
Bleu=2 6500 1993 8600 120 0,5
Vert=3 8500 2000 1000 100 0,3
Tester avec ACP
Colores Poids Année Km Km/h SD
Noir=1 3500 1992 5600 260 0,1
Bleu=2 6500 1993 8600 120 0,5
Vert=3 8500 2000 1000 100 0,3
Tester sans ACP
Présentation pfe

Contenu connexe

Tendances

Introduction to Machine learning
Introduction to Machine learningIntroduction to Machine learning
Introduction to Machine learning
Quentin Ambard
 
Deep learning
Deep learningDeep learning
Deep learning
Bilal Rezkellah
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de recherche
Mohamed Heny SELMI
 
Architecture de Von Neumann & Harvard
Architecture de Von Neumann & HarvardArchitecture de Von Neumann & Harvard
Architecture de Von Neumann & Harvard
Lorenzo BOY-TOUMA AIBA
 
Intelligence artificielle
Intelligence artificielleIntelligence artificielle
Intelligence artificielle
hadjerdermane
 
Structure du rapport d'etat d'avancement doctorat
Structure du rapport d'etat d'avancement doctoratStructure du rapport d'etat d'avancement doctorat
Structure du rapport d'etat d'avancement doctorat
Ikram Benabdelouahab
 
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
Mohamed Amine Mahmoudi
 
Arbre de décision
Arbre de décisionArbre de décision
Arbre de décision
Yassine Badri
 
Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...
Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...
Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...
Ayoub Rouzi
 
L’intelligence artificielle aujourd’hui (FR)
L’intelligence artificielle aujourd’hui (FR)L’intelligence artificielle aujourd’hui (FR)
L’intelligence artificielle aujourd’hui (FR)
thierry tranchina
 
Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )
Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )
Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )
Saadaoui Marwen
 
Le problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétiqueLe problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétique
Rima Lassoued
 
AI_course.pdf
AI_course.pdfAI_course.pdf
AI_course.pdf
MissaouiWissal
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en français
Hakim Nasaoui
 
présentation soutenance PFE.ppt
présentation soutenance PFE.pptprésentation soutenance PFE.ppt
présentation soutenance PFE.ppt
Mohamed Ben Bouzid
 
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed AmineRapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Mohamed Amine Mahmoudi
 
L’optimisation par essaims de particules
L’optimisation par essaims de particulesL’optimisation par essaims de particules
L’optimisation par essaims de particules
chagra bassem
 
chap3 numerisation_des_signaux
chap3 numerisation_des_signauxchap3 numerisation_des_signaux
chap3 numerisation_des_signaux
BAKKOURY Jamila
 
Les arbres de décisions
Les arbres de décisionsLes arbres de décisions
Les arbres de décisions
Mariem Chaaben
 

Tendances (20)

Introduction to Machine learning
Introduction to Machine learningIntroduction to Machine learning
Introduction to Machine learning
 
Deep learning
Deep learningDeep learning
Deep learning
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de recherche
 
Architecture de Von Neumann & Harvard
Architecture de Von Neumann & HarvardArchitecture de Von Neumann & Harvard
Architecture de Von Neumann & Harvard
 
Intelligence artificielle
Intelligence artificielleIntelligence artificielle
Intelligence artificielle
 
Structure du rapport d'etat d'avancement doctorat
Structure du rapport d'etat d'avancement doctoratStructure du rapport d'etat d'avancement doctorat
Structure du rapport d'etat d'avancement doctorat
 
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
 
Arbre de décision
Arbre de décisionArbre de décision
Arbre de décision
 
Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...
Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...
Smart Parking: Stationnement intelligent État de l’art, Étude d’un exemple De...
 
L’intelligence artificielle aujourd’hui (FR)
L’intelligence artificielle aujourd’hui (FR)L’intelligence artificielle aujourd’hui (FR)
L’intelligence artificielle aujourd’hui (FR)
 
Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )
Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )
Rapport PFE ingénieur réseaux marwen SAADAOUI ( Juin 2018 )
 
Cours rn 2006
Cours rn 2006Cours rn 2006
Cours rn 2006
 
Le problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétiqueLe problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétique
 
AI_course.pdf
AI_course.pdfAI_course.pdf
AI_course.pdf
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en français
 
présentation soutenance PFE.ppt
présentation soutenance PFE.pptprésentation soutenance PFE.ppt
présentation soutenance PFE.ppt
 
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed AmineRapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
 
L’optimisation par essaims de particules
L’optimisation par essaims de particulesL’optimisation par essaims de particules
L’optimisation par essaims de particules
 
chap3 numerisation_des_signaux
chap3 numerisation_des_signauxchap3 numerisation_des_signaux
chap3 numerisation_des_signaux
 
Les arbres de décisions
Les arbres de décisionsLes arbres de décisions
Les arbres de décisions
 

En vedette

Présentation doe
Présentation doePrésentation doe
Présentation doe
Abdelghafour Zguindou
 
Etude de la variation saisonnière des paramètres physico-chimiques des sédime...
Etude de la variation saisonnière des paramètres physico-chimiques des sédime...Etude de la variation saisonnière des paramètres physico-chimiques des sédime...
Etude de la variation saisonnière des paramètres physico-chimiques des sédime...
AM Publications
 
Borderline Smote
Borderline SmoteBorderline Smote
Borderline Smote
Trector Rancor
 
Ensemble of Exemplar-SVM for Object Detection and Beyond
Ensemble of Exemplar-SVM for Object Detection and BeyondEnsemble of Exemplar-SVM for Object Detection and Beyond
Ensemble of Exemplar-SVM for Object Detection and Beyond
zukun
 
Présentation ardia pfe sabrine gharbi 2015 slide share
Présentation ardia pfe sabrine gharbi 2015 slide sharePrésentation ardia pfe sabrine gharbi 2015 slide share
Présentation ardia pfe sabrine gharbi 2015 slide share
gharbi sabrine
 
IELTS Attendance Certificate
IELTS Attendance CertificateIELTS Attendance Certificate
IELTS Attendance Certificate
Ihab Rizk CISCM, FIATA
 
CFA now a Platinum Author
CFA now a Platinum AuthorCFA now a Platinum Author
Certificate Yield Curve Trades
Certificate Yield Curve TradesCertificate Yield Curve Trades
Certificate Yield Curve Trades
Yogesh Agarwal CFA
 
Certificate.2
Certificate.2Certificate.2
Certificate.2
Amanda Lundberg
 
Certificate -Ethics
Certificate -EthicsCertificate -Ethics
Certificate -Ethics
Yogesh Agarwal CFA
 
Certificate.1
Certificate.1Certificate.1
Certificate.1
Amanda Lundberg
 
Business Administration Certificate
Business Administration CertificateBusiness Administration Certificate
Business Administration Certificate
ahmed albialy
 
Task - supply Chain
Task - supply ChainTask - supply Chain
Task - supply Chain
Ihab Rizk CISCM, FIATA
 
Final Certificate
Final CertificateFinal Certificate
Final Certificate
Sandra Martin
 
Accomplishment certificate british_council
Accomplishment certificate british_councilAccomplishment certificate british_council
Accomplishment certificate british_council
Saif Islam
 
Online Learning: Are teachers endangered species?
Online Learning: Are teachers endangered species?Online Learning: Are teachers endangered species?
Online Learning: Are teachers endangered species?
Chukwuemeka Fred Agbata Jnr. "CFA" [CFA.ng]
 
Stephen Killeen Certificate
Stephen Killeen CertificateStephen Killeen Certificate
Stephen Killeen Certificate
Stephen Killeen
 
Presentation
PresentationPresentation
Presentation
Abdelghafour Zguindou
 
Certificate
Certificate Certificate
Certificate
Amanda Lundberg
 

En vedette (20)

Présentation doe
Présentation doePrésentation doe
Présentation doe
 
Etude de la variation saisonnière des paramètres physico-chimiques des sédime...
Etude de la variation saisonnière des paramètres physico-chimiques des sédime...Etude de la variation saisonnière des paramètres physico-chimiques des sédime...
Etude de la variation saisonnière des paramètres physico-chimiques des sédime...
 
Borderline Smote
Borderline SmoteBorderline Smote
Borderline Smote
 
Ensemble of Exemplar-SVM for Object Detection and Beyond
Ensemble of Exemplar-SVM for Object Detection and BeyondEnsemble of Exemplar-SVM for Object Detection and Beyond
Ensemble of Exemplar-SVM for Object Detection and Beyond
 
Présentation ardia pfe sabrine gharbi 2015 slide share
Présentation ardia pfe sabrine gharbi 2015 slide sharePrésentation ardia pfe sabrine gharbi 2015 slide share
Présentation ardia pfe sabrine gharbi 2015 slide share
 
CICSM Certificate
CICSM CertificateCICSM Certificate
CICSM Certificate
 
IELTS Attendance Certificate
IELTS Attendance CertificateIELTS Attendance Certificate
IELTS Attendance Certificate
 
CFA now a Platinum Author
CFA now a Platinum AuthorCFA now a Platinum Author
CFA now a Platinum Author
 
Certificate Yield Curve Trades
Certificate Yield Curve TradesCertificate Yield Curve Trades
Certificate Yield Curve Trades
 
Certificate.2
Certificate.2Certificate.2
Certificate.2
 
Certificate -Ethics
Certificate -EthicsCertificate -Ethics
Certificate -Ethics
 
Certificate.1
Certificate.1Certificate.1
Certificate.1
 
Business Administration Certificate
Business Administration CertificateBusiness Administration Certificate
Business Administration Certificate
 
Task - supply Chain
Task - supply ChainTask - supply Chain
Task - supply Chain
 
Final Certificate
Final CertificateFinal Certificate
Final Certificate
 
Accomplishment certificate british_council
Accomplishment certificate british_councilAccomplishment certificate british_council
Accomplishment certificate british_council
 
Online Learning: Are teachers endangered species?
Online Learning: Are teachers endangered species?Online Learning: Are teachers endangered species?
Online Learning: Are teachers endangered species?
 
Stephen Killeen Certificate
Stephen Killeen CertificateStephen Killeen Certificate
Stephen Killeen Certificate
 
Presentation
PresentationPresentation
Presentation
 
Certificate
Certificate Certificate
Certificate
 

Similaire à Présentation pfe

TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
SafaeElOmari
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
ENSET, Université Hassan II Casablanca
 
Machine Learning : comparing neural network methods
Machine Learning : comparing neural network methodsMachine Learning : comparing neural network methods
Machine Learning : comparing neural network methods
Nichochar
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
ENSET, Université Hassan II Casablanca
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
Hakim maximwell
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
ENSET, Université Hassan II Casablanca
 
Comparaison
ComparaisonComparaison
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
Frederic Simard
 
Recursive Neural Network summary
Recursive Neural Network summaryRecursive Neural Network summary
Recursive Neural Network summary
Stephen Larroque
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
ZizoAziz
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
Bassem Brayek
 
Logique floue application
Logique floue application Logique floue application
Logique floue application
Arrow Arrow
 
To_understand_transformers_together presentation
To_understand_transformers_together presentationTo_understand_transformers_together presentation
To_understand_transformers_together presentation
bahija babzine
 
Rapport-du-projet CNN.docx
Rapport-du-projet CNN.docxRapport-du-projet CNN.docx
Rapport-du-projet CNN.docx
khalil Ismail
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
Chahrawoods Dmz
 
Cours algorithmique et complexite
Cours algorithmique et complexite Cours algorithmique et complexite
Cours algorithmique et complexite
Saddem Chikh
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
Chahrawoods Dmz
 
FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caret
jfeudeline
 
Présentation_IA.pptx
Présentation_IA.pptxPrésentation_IA.pptx
Présentation_IA.pptx
melissa943854
 

Similaire à Présentation pfe (20)

TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
 
Machine Learning : comparing neural network methods
Machine Learning : comparing neural network methodsMachine Learning : comparing neural network methods
Machine Learning : comparing neural network methods
 
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
Conférence: Catalyseurs de l'Intelligence Artificielle et Écosystème des Fram...
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 
Comparaison
ComparaisonComparaison
Comparaison
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
 
Recursive Neural Network summary
Recursive Neural Network summaryRecursive Neural Network summary
Recursive Neural Network summary
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
 
Algorithme knn
Algorithme knnAlgorithme knn
Algorithme knn
 
Logique floue application
Logique floue application Logique floue application
Logique floue application
 
To_understand_transformers_together presentation
To_understand_transformers_together presentationTo_understand_transformers_together presentation
To_understand_transformers_together presentation
 
Rapport-du-projet CNN.docx
Rapport-du-projet CNN.docxRapport-du-projet CNN.docx
Rapport-du-projet CNN.docx
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
 
Cours algorithmique et complexite
Cours algorithmique et complexite Cours algorithmique et complexite
Cours algorithmique et complexite
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
 
FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caret
 
Présentation_IA.pptx
Présentation_IA.pptxPrésentation_IA.pptx
Présentation_IA.pptx
 

Présentation pfe

  • 1. Réalisée par ISSARTI Ikrame KARARA Mohamed EZOUAGH Mohamed ZGUINDOU Abdelghafour Encadrée par Pr. FAKHOURI Hanane Pr. EL HAIMOUDI Khatir Université Abdelmalek Essaâdi Faculté Polydisciplinaire de Larache Licence d’Etudes Fondamentales Sciences Mathématiques, Informatique et Applications Projet de fin d’études Etude et réalisation d’un modèle de réseaux de neurones artificiel avec un apprentissage supervise/non supervisé
  • 2. Plan de travaille Part 1: Analyse en composantes principales (ACP) 1. Principe 2. Algorithme part 2: Les réseaux de neurones artificiels (rna) 1. Définition 2. Propriétés 3. Le modèle biologique 4. Le modèle formel 5. La structure du réseau 6. Apprentissage du réseau de neurones Travail 1 : La carte auto-organisatrice de kohonen (som) travail 2 : Perceptron multicouche à retropropagation (PMR)
  • 4. 1. Principe 010001110101010 010111111111000 000000011001010 10111111110 ACP Données initiale Données résultat Minimisation Renforcement 111100010101001 001010101001011 100001111000011 11110 ACP
  • 5. ACP g=( 𝒙 𝟏, … … … , 𝒙 𝒑 ) 𝒕 Ou 𝐱 𝐣 = 𝟏 𝐧 𝐢=𝟏 𝐧 𝐱 𝐢 𝐣 Y=𝑿 −𝟏𝒈 𝒕 𝐕 = 𝟏 𝐧 𝐘 𝐭 𝐘 𝑫 𝟏/𝑺 𝟐 = 𝟏 𝒅𝒊𝒂𝒈(𝑽) 𝑫 𝟏/𝑺 = 𝟏 𝒅𝒊𝒂𝒈(𝑫 𝟏/𝑺 𝟐) Z = Y𝑫 𝟏/𝑺 R = 𝑫 𝟏/𝑺V𝑫 𝟏/𝑺 Chercher_Vecteur_Propre(R)C = Matrice_Vecteur_Propre.Z 2. Algorithme 1 2 3 4 5 6 7 89 A l’aide la méthode de puissance itéré
  • 7. 1. Définition Les réseaux de neurones artificiels sont des réseaux fortement connectés de processeurs élémentaires fonctionnant en parallèle. Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau RNA
  • 10. 3. Le modèle biologique le noyau est le centre des réactions électrochimiques. Si les stimulations externes sont suffisantes, le noyau provoque l'envoi d'un influx nerveux électrique à travers l'axone. Les synapses transmettent l'influx nerveux provenant de l'axone vers d'autres cellules à partir de neurotransmetteurs inhibiteurs ou excitateurs. les dendrites, selon leur longueur et leur perméabilité, affectent la quantité d'influx nerveux qui se rend au noyau. l'axone transporte l'influx nerveux vers les synapses. RNA
  • 11. 4. Le modèle formel f 𝑥1 𝑥𝑖 𝑥 𝑛 Entrée 𝑤1𝑖 𝑤𝑖𝑖 𝑤 𝑛𝑖 𝑦𝑖 Sortie Poids Intégration des entrées Fonction des activation Sortie 𝑦𝑖 Noyau RNA
  • 12. 4. Le modèle formel Les fonctions d’activation Linéaire Tout au rien = Seuil dur Fonction logistique = Seuil doux La plus part des phénomènes n’ont pas un comportement linéaire Décision certaine même pour Les données proches de la surface De décision Décision avec une probabilité 𝑓 𝑥 = −1, 𝑥 < 0 1, 𝑥 ≥ 0 𝑓 𝑥 = 1 − 𝑒−𝑎𝑥 1 + 𝑒−𝑎𝑥 𝑓 𝑥 = 𝑎𝑥 RNA
  • 13. 4. Le modèle formel / Biologique RNA
  • 14. 5. structure du réseau réseaux de neurones artificielsBouclé Non Bouclé RNA
  • 15. 5. La structure du réseau Non Bouclé Un réseau de neurones non bouclé réalise une (ou plusieurs) fonction algébrique de ses entrées par composition des fonctions réalisées par chacun de ses neurones. RNA
  • 16. 5. La structure du réseau Bouclé le graphe des connexions est cyclique : lorsqu’on se déplace dans le réseau en suivant le sens des connexions, il est possible de trouver au moins un chemin qui revient à son point de départ (un tel chemin est désigné sous le terme de « cycle »). Les connexions récurrentes ramènent l'information en arrière par rapport au sens de propagation défini dans un réseau multicouche. Ces connexions sont le plus souvent locales. RNA
  • 17. 6. Apprentissage Une procédure adaptative par laquelle les connexions des neurones sont ajustées face à une source d’information. Dans la majorité des algorithmes actuels, les variables modifiées pendant l'apprentissage sont les poids des connexions. L'apprentissage est la modification des poids du réseau dans l'optique d'accorder la réponse du réseau aux exemples et à l'expérience. RNA
  • 19. 6. Apprentissage Types d’apprentissage ApprentissageSupervisé Non Supervisé Un apprentissage est dit supervisé lorsque l’on force le réseau à converger vers un état final précis, en même temps qu’on lui présente un motif. Ce genre d’apprentissage est réalisé à l’aide d’une base d’apprentissage, constituée de plusieurs exemples de type entrées-sorties (les entrées du réseau et les sorties désirées ou encore les solutions souhaitées pour l’ensemble des sorties du réseau). L’apprentissage non supervisé consiste à ajuster les poids à partir d’un seul ensemble d’apprentissage formé uniquement de données. Aucun résultat désiré n’est fourni au réseau. L’apprentissage ici consiste à détecter les similarités et les différences dans l’ensemble d’apprentissage. RNA
  • 21. 5. Apprentissage Règles d’apprentissage Les règles d’apprentissage indiquent la quantité de modification à appliquer à chaque poids, en fonction des exemples d’entrée (et des sorties désirées associées, dans le cas de l’apprentissage supervisé) : Où t désigne un instant avant la modification des poids, et t+1 un instant après. Il existe un grand nombre de règles d’apprentissage différentes. Les plus répandues sont les suivantes :  Règle de Hebb ∆𝐖𝐢𝐣 = 𝜶𝐱 𝐢 𝐲𝐣  Règle d’apprentissage compétitif ∆𝐖𝐢𝐣 = 𝛂(𝐱 𝐢 − 𝐖𝐢𝐣)𝐲𝐣  Règle d’apprentissage supervisé ∆𝐖𝐢𝐣 = 𝜶𝐱 𝐢(𝐲𝐣 − 𝜽𝐣)  Règle de la retropropagation du gradient ∆𝐖𝐢𝐣 = 𝛂𝛄𝐣 𝐲𝐢 𝐖𝐢𝐣 𝐭 + 𝟏 = 𝐖𝐢𝐣 𝐭 + ∆𝐖𝐢𝐣 RNA
  • 23. 1. Principe SOMs fournissent un moyen de représenter des données multidimensionnelles dans des espaces de dimensions beaucoup plus faibles - généralement une ou deux dimensions. Cette technique crée un réseau qui stocke des informations de telle façon que toutes les relations topologiques au sein de l'ensemble d'apprentissage sont maintenues. Ces structures intelligentes de représentation de données sont inspirées, comme beaucoup d’autres créations de l’intelligence artificielle, par la biologie ; SOM
  • 24. 2. Architecture - d'une couche d'entrée où tout motif à classer est représenté par un vecteur multidimensionnel qualifié de vecteur d’entrée. A chaque motif est affecté un neurone d’entrée. d'une couche de sortie également appelée couche de compétition où les neurones entrent en compétition. Les valeurs provenant des neurones d’entrées sont transmises à tous les neurones de la couche de compétition, en même temps. Pour approcher des valeurs passées par les neurones d’entrées. SOM
  • 25. 3. Algorithme d’apprentissage Initialisation des paramètres:  Poids d’entrée (petites valeurs aléatoire)  Forme et taille du voisinage  Taux d’apprentissage Déterminer le neurone vainqueur de chaque entrée 𝑾𝐣 − 𝐱 = 𝐦𝐢𝐧 𝐧| 𝐖𝐧 − 𝐱 | j : indice du neurone vainqueur n : le nombre de neurones Mise à jour des poids du neurone j et de ses voisins, le vecteur poids du neurone j’ est modifié par 𝑾𝒋′ 𝒕 + 𝟏 = 𝑾𝒋′(𝒕)𝜶(𝒕)𝒉𝒋𝒋′(𝒙 − 𝑾𝒋′ 𝒕 ) Répéter jusqu’à stabilisation du réseau La carte SOM (Couche Sortie) Couche d’entrées
  • 26. Réglage des paramètres Forme du voisinage 𝒉𝒋𝒋′ = 𝐞𝐱𝐩( −𝒅𝒋𝒋′ 𝟐 𝟐𝝈(𝒕) 𝟐 ) J est l’indice du neurone vainqueur J’ est l’indice d’un neurone voisin 𝒅𝒋𝒋′ Est la distance entre le neurone vainqueur et les autre neurones Diminution de la taille du voisinage 𝝈(𝒕) = 𝐞𝐱𝐩(−𝐭 ln 𝑮𝒓𝒊𝒅𝑺𝒊𝒛𝒆 𝑴𝒂𝒙𝑰𝒕𝒆𝒓𝒂𝒕𝒊𝒐𝒏 ) Diminution du taux d’apprentissage Pour assurer la convergence de l’apprentissage on peut faire varier le taux d’apprentissage en fonction du nombre d’itérations. La valeur initiale peut être grande, par exemple égale à 1. 𝜶 𝒕 = 𝛼 𝟎 ∗ 𝒆−𝒕 𝟏 𝑴𝒂𝒙𝑰𝒕𝒆𝒓𝒂𝒕𝒊𝒐𝒏
  • 28. 4. Propriétés  Similitude des densités dans l'espace d'entrée : La carte reflète la distribution des points dans l'espace d'entrée.  Préservation des relations topologiques  Les ancêtres des cartes auto-organisatrices, les algorithmes comme "k-moyennes", réalisent la discrétisation de l'espace d'entrée en ne modifiant à chaque cycle d'adaptation qu'un seul vecteur référent. Leur processus d'apprentissage est donc très long. L'algorithme de Kohonen profite des relations de voisinage dans la grille pour réaliser une discrétisation dans un temps très court. SOM
  • 29. 5. Exemples d’application La classification SOMs sont couramment utilisés comme aides à la visualisation. Ils peuvent le rendre facile pour nous les humains de voir les relations entre les grandes quantités de données. Un SOM a été utilisé pour classer les données statistiques décrivant divers facteurs de qualité de vie tels que l'état de santé, la nutrition, les services d'enseignement, etc. World Poverty Map SOM
  • 30. 6. Exemples d’application La classification World Poverty Map Cette information de couleur peut alors être tracée sur une carte du monde comme ceci (Image) Cela rend très facile pour nous de comprendre les données de la pauvreté SOM
  • 31. 6. Exemples d’application Application à la robotique On utilise la capacité de représentation spatiale de la carte auto-organisatrice pour piloter un bras de robot. Il s'agit de mettre en correspondance l'espace cartésien dans lequel travaille l'opérateur humain avec l'espace du robot (coordonnées de chacun de ses axes en valeurs angulaires). SOM
  • 32. 1. Réalisation 011101010 101010100 1011000 111100001 100101011 101 SOM ACP Données initiales Données prétraitées Algorithme Modifié Résultat Les structures fonctionnelles élaborées à la base des deux algorithmes classiques et modifiés SOM
  • 33. Description de modèle logiciel réalisé Réalisation Notion de programmation Orienté Objet C++ Mode console Les classes ACP Node SOM Menu Cette classe contient les attribues et les méthodes de calcul nécessaire pour la réalisation de la méthode d’analyse en composantes principales. Cette classe est la base de notre réseau de neurones, il contient les attribues et les méthodes nécessaire pour décrire les neurones de réseau Cette classe est la classe principale de l’application, il contient les attribues et les méthodes pour créer la carte auto- organisatrice de kohonen et aussi les méthodes pour faire l’apprentissage du réseau Cette classe et le corps de l’application, il contient les attribues et les méthodes de l’affichage comme les menus et les variables de choix etc
  • 35. Test de classification des alphabets 0 1 0 1 1 1 1 0 1 0 1 0 0 1 1 1 0 1 1 1 1 0 1 0 0 1 0 1 1 1 0 0 0 0 1 0 1 1 1 1 0 0 1 1 1 A A’ T T’ C 1 1 1 1 0 0 1 1 0 C’ 1 1 1 1 1 1 1 0 0 F F’ 1 1 1 1 1 0 1 0 0 1 0 1 1 1 1 1 0 1 1 0 0 1 1 1 1 0 1 H H’ A 010111101 A’ 010011101 T 111010010 T’ 111000010 C 111100111 C’ 111100110 F 111111100 F’ 111110100 H 101111101 H’ 100111101 Entrée
  • 38. Les vecteurs des poids après l’apprentissage
  • 40. H’ T T’ H F C’ A F’ A’ C
  • 41. Test de classification des colores Noir 1 1 1 Noir’ 1 21 31 Rouge 255 0 0 Rouge’ 255 0 131 Bleu 0 0 255 Bleu’ 99 140 255 Vert 0 255 0 Vert’ 160 255 181 Blanc 255 255 255 Blanc’ 247 255 239 Rouge’ Rouge Vert Blanc’ Noir Vert’ Blanc Bleu Bleu’ Noir’ Entrée Code RGB
  • 42. Capitales européens / température
  • 43. Carte classique 1000 itérations Erreur moyen=0,9 Carte amelioré 1000 itérations Erreur moyen=0,2
  • 44. Bruxelles Kiev Helsinki Londres Dublin Madrid Lisbonne Budapest Berlin Copenhague Athènes Cracovie
  • 46. 1. Principe 2. L’architecture du réseau 3. Algorithme d’apprentissage 4. Propriétés 5. Exemples d’application 6. Réalisation 7. Les testes
  • 47. 1. Principe La rétropropagation basée sur la diminution du gradient d’erreur par rapport aux poids du réseaux PMR 𝐄 = 𝟏 𝟐 𝐢=𝟎 𝐦 (𝐲𝐢 − 𝛉𝐢) 𝟐
  • 48. Les entrées Les sorties 2. L’architecture du réseau Le keme neurone de la couche de sortie Le jeme neurone de la couche de caché Le ieme neurone de la couche d’entrée Poids associé au neurone 1
  • 49. 1 . Initialiser aléatoirement les coefficients wij 2 . Application d’un vecteur entrées-sorties à apprendre 3 . Calcul des sorties du RNA à partir des entrées qui lui sont appliquées et calcul de l’erreur entre ces sorties et les sorties désirés à apprendre Calcul la somme 𝒳= 𝓧𝓳𝒲𝔦𝔧 + 𝐛𝒿 𝐅 𝔁 = 𝟏 𝟏 + 𝐞−𝐗 3. Algorithme d’apprentissage x1 x3 x2 O2 O1 W11 Couche d’entre Couche de cache 𝛿𝑜1 𝛿ℎ1 W41 W42 W43 y1 W13 W12 Couche de sortieb1 b4 S=𝒟𝒾 − 𝒪𝒾 𝒟𝑖
  • 50. x1 x3 x2 O2 O1 W11 Couche d’entre Couche de cache 𝛿𝑜1 𝛿ℎ1 W41 W42 W43 y1 W13 W12 Couche de sortieb1 b4 4 . Correction des poids des liens entre les neurones de la couche de sortie et de la première couche cachée selon l’erreur présente en sortie 𝛿𝑜i = 𝒻 ′( 𝒴𝒿𝒲𝒿𝓀 + 𝑏𝑖) ∗ (𝑑i − Oi) 𝛿ℎj = 𝒻 ′( 𝑥𝑖𝒲𝑖𝑗 + 𝑏𝑗 )( 𝛿𝑜𝑖𝑤𝑖𝑗) 𝒘𝒏=wn+𝜼∗𝛿𝑜1∗O1+ 𝜶∗wn 𝒻′ 𝓍 = 𝒻 𝓍 [1 − 𝒻 𝓍 ]
  • 51. x1 x3 x2 O2 O1 W11 Couche d’entre Couche de cache 𝛿𝑜1 𝛿ℎ1 W41 W42 W43 y1 W13 W12 Couche de sortieb1 b4 5.Propagation de l’erreur sur la couche précédente et correction des poids des liens entre les neurones de la couche cachée et ceux en entrées. 6.Boucler à la 2eme étape avec vecteur d’entrées-sorties tant que les performances du RNA (erreur sur les sorties) ne sont pas satisfaisantes 𝒘𝒏=wn+𝜼∗𝛿ℎ1∗O1+ 𝜶∗wn
  • 52. 4. Propriétés  la capacité d’apprentissage  Ce n’est pas le seul modèle multicouche, mais c’est le plus courant.  Neurones réparties en couches : entrée, cachées (traitement), et décision.  Apprentissage supervisé : cherche les paramètres de réseaux qui minimise l’erreur  entre le calculé et désiré par la Retropropagation de gradient.  Les flots de signal vont dans une seule direction.  trouve des solutions à certains problèmes non linéaires.  Les perceptrons peuvent représenter toutes les fonctions linéairement séparables PMR
  • 53. 5. Exemples d’application la reconnaissance des caractères PMR
  • 54. 5. Exemples d’application X1 X2 XOR 0 0 0 0 1 1 1 1 0 Les opérations Logiques PMR
  • 55. ACP PMC A RETROPROPAGATION Sortie calculé Apprentissage 01010101010 11001010101 01010101010 Sorties désirés Algorithme Modifié Données prétraitées Pas d’ Apprentissage Sorties désirés Sorties désirés 01010101010 11001010101 01010101010 Données initiales 6. Réalisation
  • 56. Description de modèle logiciel réalisé Réalisation Notion de programmation Orienté Objet C++ Mode console Les classes ACP neurone réseaux Menu Cette classe contient les attribues et les méthodes de calcul nécessaire pour la réalisation de la méthode d’analyse en composantes principales. Cette classe contient les attribues et les méthodes nécessaire pour créer les neurones de chaque couche de réseau Cette classe est la classe principale de l’application, il contient les attribues et les méthodes pour créer le réseaux et aussi les méthodes pour faire l’apprentissage du réseau Cette classe et le corps de l’application, il contient les attribues et les méthodes de l’affichage comme les menus et les variables de choix etc couche Cette classe contient les attribues et les méthodes pour créer les couche .
  • 58. Tester l’application la reconnaissance des caractères Exemple 1: Exemple 2: =111100111 =100100111 =111010010
  • 60. La résolution d’un problème non linéairement séparable: ou exclusif XOR Tester l’application X1 X2 XOR 0 0 0 0 1 1 1 1 0
  • 61. Colores Poids Année Km Km/h SD Noir=1 3500 1992 5600 260 0,1 Bleu=2 6500 1993 8600 120 0,5 Vert=3 8500 2000 1000 100 0,3 Tester avec ACP
  • 62. Colores Poids Année Km Km/h SD Noir=1 3500 1992 5600 260 0,1 Bleu=2 6500 1993 8600 120 0,5 Vert=3 8500 2000 1000 100 0,3 Tester sans ACP

Notes de l'éditeur

  1. Les RNA proposent une solution aux problèmes de l’incapabilité des algorithmes classiques à résoudre un grand nombre des taches qui semblent compliqués pour les méthodes classiques.Les réseaux de neurones artificiels ont des caractères particuliers comme l’apprentissage, l’adaptation et le calcule parallèle ces caractères sont inspirées du fonctionnement du cerveau animale, les systèmes qui reposent sur ces principes peuvent résoudre les problèmes compliqués qui demande un peu d’intellect.
  2. 𝛿𝑜1 = 𝒻 ′( 1∗𝑏4 + 𝑦1∗𝑤41 + 𝑦2∗𝑤42 + 𝑦3∗𝑤43) ∗ (𝑑1 − O1) 𝛿ℎ1 = 𝒻 ′(1∗𝑏1 + 𝑥1∗𝑤11 + 𝑥2∗𝑤12 + 𝑥3∗𝑤13)( 𝛿𝑜1∗𝑤41 + 𝛿𝑜2∗𝑤51)