Similaire à Reconnaissance de panneaux de signalisation routière en utilisant la détection et la classification évolutive « AdaBoost Forest-ECOC » (20)
2. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
2
3. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
3
4. 4
La forte variabilité
de panneaux de
signalisation routière
(PSR) dans des
environnements non
contrôlés a rend leur
détections et
classification un
problème difficile !!!
5. La reconnaissance PSR permet de prévenir le conducteur de
ne pas prendre des décisions inappropriées dans des
situations potentiellement dangereuses.
Fig.1 Certains panneaux d'avertissement.
5
6. Les méthodes de reconnaissance des PSR sont utilisées en
combinaison avec d'autres méthodes afin de recueillir des
informations, mesurer de la position par rapport à la
route et l'orientation des différents points de repère en
mouvement dans la plate-forme terrestre.
6
7. Dans la littérature, on peut trouver deux
principales approches pour résoudre le
problème de la RPS:
1. Reconnaissance basée sur la couleur
2. Reconnaissance basée sur les niveaux de gris
Fig.2 Résultats de reconnaissance de la RPS
7
8. La première s'appuie sur la couleur pour réduire de faux
résultats positifs dans le processus de reconnaissance
alors que les méthodes de niveaux de gris se concentrent
sur la géométrie de l'objet.
Des travaux récents utilisent combinaison des deux cases
pour améliorer le taux de détection.
8
9. Le seuil est appliqué sur une représentation
HSV(HUE,SATURATION,VALUE) de l'image pour trouver des
régions avec une forte probabilité d'avoir un panneau de
signalisation.
Fig.3 Le seuil est appliqué sur une représentation HSV
9
10. Une fois que les régions sont normalisées à une taille
prédéfinie, un SVM linéaire est utilisé pour classer la
région de l'une des formes possibles, comme cercle ou
d'un triangle.
La couleur et les informations sur la forme sont
utilisées pour la classification grossière, et enfin un
SVM gaussien est utilisé pour effectuer l'étape de
classification fine.
10
11. Puisque l'information de couleur est fortement liée
au type de caméra, éclairage et vieillissement du
signe, l'utilisation des informations de couleur
introduit des difficultés supplémentaires pour le
processus de reconnaissance!!!
Fig.4 Le
vieillissement du
panneau
Fig.5 Différents
éclairages du
panneau
11
12. Solutions pour résoudre l’enjeu:
1. Réseau neuronal
2. Approche complexe basée sur une cascade de détecteurs,
où chacun est un ensemble de classificateurs
dopés « Boosted » sur la base des caractéristiques de
Haar.
Pour le dernier: Lienhart et Maydt [3] ont présenté une
extension d’ensemble des caractéristiques de Haar, ce qui
démontre que Adaboost converge plus rapidement et avec de
meilleurs résultats lorsque l’ensemble des
caractéristiques est grand.
12
13. D'autre part, en raison de la
recherche exhaustive sur les
caractéristiques exposées, le temps
d’apprentissage s’augmente par
rapport au nombre de
caractéristiques.
Ce fait rend impossible toute
approche qui tente d'étendre
l'ensemble des caractéristiques.
13
14. Les auteurs proposent une technique pour
résoudre le dernier problème.
« Error Correcting Output Codes (ECOC) »
Cette technique est un outil de
catégorisation multi-classe très réussi en
raison de sa capacité à partager les
connaissances du classificateur entre les
classes.
ECOC démontre une haute précision avec un
très petit nombre de classificateurs
binaires.
14
15. :
1. La détection de PSR de l’arrière-plan se
fait à l’aide de la méthode évolutive
AdaBoost.
2. Deuxièmement, pour faire face au problème
de catégorisation multi-classe, afin de
faire la distinction entre un grand nombre
de classes, la technique d'apprentissage
multi-classe « ECOC » sera utilisée.
15
16. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
16
17. Le processus de détection prend une
image en entrée et fournit en sortie
les régions qui contiennent l'objet
candidat.
17
18. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
18
19. Lorsqu’on travaille avec des problèmes
asymétriques tels que la détection de
l'objet, chaque fois qu’on analyse
une image, le système doit se
débarrasser d'un grand nombre de
régions négatives alors que seulement
celles correspondant à l'objet que
nous recherchons sont conservés.
19
20. L'architecture en cascade permet de
jeter les régions non-objets faciles
à coût de calcul faible, tandis que
les régions plus complexes sont
profondément analysées.
20
21. Ensuite, un classificateur est
entraîné à réaliser un nombre calcul
minimal et obtenir un taux maximal de
fausse alarme.
Ce processus est répété jusqu'à ce
que le nombre désiré de phases ou le
taux de fausses alarmes atteignent le
but désiré.
21
22. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
22
23. Le « Dissociated Dipole » opérateur
est un outil pour effectuer des
comparaisons d'image non-locales.
Comme un arrête-viseur de recherche
simple, « Dissociated Dipole » est un
opérateur différentiel composé d'un
excitateur et d’un lobe inhibiteur,
et peut être utilisé dans n'importe
quelle orientation ou échelle.
23
24. Fig.6 Le but de l'approche des
« Dissociated Dipole » est de
dissocier les deux attributs
24
25. La valeur moyenne de tous les pixels dans le dipôle
inhibiteur est soustraite de la valeur moyenne des pixels
excitateurs dipolaires. Comme dans le cas des fonctions
de Haar, l'image intégrale est utilisée pour calculer la
somme des pixels à l'intérieur des régions
rectangulaires.
Fig.7 « Traffic Sign Recognition using Evolutionary Adaboost
detection and Forest-ECOC classification », page 2, [1]
25
26. En termes de calcul, l'utilisation de
dipôles dissociées signifie que si on
augmente les caractéristiques d'environ
600.000 à plus de 230 caractéristiques dans
une taille de fenêtre d’apprentissage de 30
× 30 pixels, ce qui rend l'approche
classique de calcul .
Pour faire face à cette limitation, nous
définissons une approche évolutive de
Adaboost.
26
27. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
27
28. « Boosting » est une technique
d'apprentissage puissant qui permet de
combiner la performance de nombreuses
fonctions simples de classification ou
classificateurs faibles pour produire un
classificateur fort.
28
29. AdaBoost - est un méta-algorithme.
Dans l'apprentissage, il construit une
composition des algorithmes d'apprentissage
de base pour améliorer leur efficacité.
AdaBoost algorithme adaptatif est
amplifiant, en ce sens que chaque
classifier est basé sur les objets
suivants, qui sont mal classés en utilisant
des classificateurs précédents.
29
30. Cette méthode est basée sur un algorithme
adaptatif boosting (gain adaptatif) ou
AdaBoost abrégée. Le sens de l'algorithme
est que, si nous disposons d'un ensemble
d'objets de référence, c’est-a-dire d’avoir
les valeurs et la classe à laquelle ils
appartiennent (par exemple: -1 pas de
visage, +1 a un visage), en plus il y a
beaucoup de classificateurs simples, nous
pouvons faire un classificateur meilleur et
puissant.
30
32. L’algorithme d’AdaBoost
AdaBoost appelle un classificateur faible
pour chaque cycle. Après chaque appel est
faite la mise à jour de poids de
distribution qui répondent à l'importance
de chacun des objets comme un ensemble
d’apprentissages pour la classification.
Ensuite, à chaque itération, le poids
d’objet mal classé augmente, de sorte que
le nouveau classificateur "concentre" sur
ses objets.
32
33. Avantages de l'algorithme Adaboost.
1. Bonne capacité de généralisation. En vrais
problèmes (pas toujours, mais souvent) il
est possible de construire une composition
qui est de qualité supérieure par rapport
l’algorithme de base. La capacité de la
généralisation peut être améliorée (dans
certains problèmes) en augmentant le
nombre d'algorithmes de base.
33
35. Avantages de l'algorithme Adaboost.
3. La durée de la construction des
compositions est presque entièrement
déterminé par les algorithmes
d'apprentissage de base.
35
36. Avantages de l'algorithme Adaboost.
4. Capable d'identifier les objets qui sont
des émissions de bruit.
36
39. Inconvénients de l'algorithme
Adaboost.
3. La stratégie d’ajouter un grand nombre de
classificateurs conduits à la
construction d'un ensemble non optimal
de la base des algorithmes.
39
44. Dans l'approche « Boosting » classique, une
recherche exhaustive est utilisée pour
trouver le meilleur classificateur faible.
Par conséquent, avec un énorme ensemble de
caractéristiques, cette approche devient
impossible de calculer.
44
45. Le « evolutionary weak learner » minimise le
poids d'erreur de l’Adaboost :
(1)
Où:
X = {(xi, yi)|i = 1 : m} sont les paires
d'échantillons-étiquette composées de
l’ensemble d’apprentissage
W = {w1,w2, ...,wm} est la distribution de poids
Adaboost sur l'ensemble d'apprentissages
h (xi) correspond à l'étiquette prédite par
l'hypothèse h pour le xi objet d’apprentissage
45
46. Les approches classiques basées sur la
descente de gradient ne peuvent pas être
appliquées sur ce problème.
Une autre solution est l'utilisation d'une
approche évolutive.
46
47. La stratégie évolutive plus connu est
l'algorithme génétique, qui fait une
recherche sur les espaces de solutions
utilisant les trois concepts de base de la
théorie de Darwin:
1. mutation
2. cross-over
3. sélection naturelle.
47
48. L'algorithme évolutionnaire remplace la
recherche exhaustive sur toutes les
caractéristiques de sorte que même de très
grands ensembles de caractéristiques
peuvent être recherchés dans un délai
raisonnable.
L'utilisation d’algorithmes évolutionnaires dans le domaine du
traitement de l'image, en particulier l'apprentissage automatique
des caractéristiques de détection d'objet, est un domaine de
recherche qui reçoit un intérêt croissant.!!!
48
50. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
50
51. Lorsqu’on travaille avec des algorithmes
évolutionnaires, nous devons définir deux
éléments de base: les individus et la
fonction d'évaluation.
51
53. L'étape suivante est de déterminer les
paramètres qui sont nécessaires pour
définir h, ou en d'autres termes, pour
décider la dimension de I.
53
54. La définition de l'apprenant faible « Weak
Learner » est constitué d'une
caractéristique et une valeur de
seuil(threshold).
La fonction peut être paramétré par la
position en haut à gauche, et la taille de
l'une des régions et leur type.
54
55. La taille, le poids, et la position des autres
régions qui sont conformes à la fonction Haar-
like sont fixées par le type de
caractéristique.
Fig.9 La définition des caractéristiques de Haar à partir d'une
région donnée et du type de valeur.
55
56. On définit un classificateur faible sur la
base du dissocié dipôle que
h(I,Thr,xi)->{-1, 1}
où
I=(Rex,Rey,Rew,Reh,Rix,Riy,Piw,Rih)
Re étant le dipôle excitateur
et le paramètre de type T est changé par
les paramètres du dipôle inhibiteur Ri.
Les dipôles dissociés ne sont pas affectés par l'échelle étant
donné que la valeur moyenne est utilisée au lieu de la somme.
56
57. Cette approche présente deux avantages
principaux:
la normalisation de l'éclairement n’est pas
nécessaire
et l'élimination du processus
d'apprentissage par seuil(threshold) réduit
le temps d'évaluation.
57
58. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
58
59. L'approche finale est résumée dans
l'algorithme évolutionnaire Adaboost montré
dans l'algorithme 1.
Cet algorithme est utilisé pour apprendre
toutes les étapes de la cascade de
détection.
Cet algorithme utilise itérativement un
algorithme génétique pour minimiser
l'erreur pondérée et pour instancier les
paramètres d'un nouveau classificateur
faible qui est ajouté à l'ensemble final.
59
61. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
61
62. Une fois un objet trouvé, nous devons le
classer parmi un grand nombre de classes.
En ce sens, ECOCs représentent une
technique de classification qui permet la
combinaison des classificateurs de base
pour résoudre le problème multi-classes.
62
63. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
63
64. La conception d'un ECOC est basée sur un
codage et une stratégie de décodage, où le
codage à pour objectif d’assigner un
codeword à chacune des classes Nc (jusqu'à
mots de code Nc), et le décodage vise à
attribuer une étiquette de classe à un
nouveau test de codeword .
Codeword - est une séquence de bits qui
représente une classe.
64
65. Fig.10 « Traffic Sign Recognition using Evolutionary Adaboost
detection and Forest-ECOC classification », page 4, [1]
Les distances communes à décoder sont la Hamming et les distances
euclidiennes
65
66. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
66
67. fait en sorte que la
séparation de codeword optimal est
sacrifiée en faveur d'une amélioration de
la discrimination de classe dans les
partitions. La création de l'ensemble de
séparation hiérarchique est effectuée en
utilisant un arbre binaire. En conséquence,
une matrice compacte à haut pouvoir de
discrimination est obtenue.
67
69. Fig.11 « Traffic Sign Recognition using Evolutionary Adaboost detection and Forest-ECOC
classification », page 5, [1]
69
70. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
70
71. Fig.12 « Traffic Sign Recognition using Evolutionary Adaboost
detection and Forest-ECOC classification », page 5, [1]
71
72. Le système de cartographie mobile possède
une paire stéréo de caméras calibrées, qui
sont synchronisés avec un système GPS. Par
conséquent, le résultat de l'étape
d'acquisition est un ensemble de couples
stéréoscopiques d'images avec leur position
et de l'information d'orientation.
72
73. Fig.13 « Traffic Sign Recognition using Evolutionary Adaboost
detection and Forest-ECOC classification », page 7, [1]
73
74. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
74
75. Les auteurs ont exécuté le processus
d'apprentissage au cours du même
entraînement et test 50 fois, en utilisant
50 itérations de l'Adaboost évolutive.
Dans le cas de l'algorithme génétique, ils
ont calculé la valeur d'erreur moyenne sur
tous les tours pour chaque itération.
75
76. Fig.14 « Traffic Sign Recognition using Evolutionary Adaboost
detection and Forest-ECOC classification », page 7, [1]
76
77. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
77
78. Les auteurs ont présenté une méthode de calcul faisable
pour la sélection de caractéristiques basée sur une
stratégie évolutive. Depuis la recherche exhaustive sur
toutes les combinaisons entre caractéristiques et le
seuil(threshold) sont remplacées par l'approche
évolutionniste et caractéristiques ordinales.
L'approche finale a deux avantages principaux:
1. Elle accélère le processus d'apprentissage et permet de
travailler avec de grands ensembles de caractéristiques
et de distinguer entre l'objet et le plan-arrière, dont
le calcul est impossible en utilisant les méthodes
traditionnelles en raison du nombre énorme de
caractéristiques.
2. Elle propose la stratégie de classification Forest-CEC
pour résoudre le problème de la catégorisation multi-
classes.
78
79. 1.Introduction
2.Détection
a. Architecture de détection
b. Dipôles dissociés
c. « Evolutive Adaboost »
d. Classificateur faible
e. Algorithme d'apprentissage
3.Classification: Forest-ECOC
a. « Error Correcting Output Codes »
b. « Forest-ECOC »
4.Système de reconnaissance de signes de circulation
5.Résultats
6.Conclusion
7.Références
79
80. [1] « Traffic Sign Recognition using Evolutionary Adaboost detection and Forest-ECOC
classification », Xavier Baro, Sergio Escalera et al., Intelligent Transportation Systems,
IEEE Transactions on (Volume:10 , Issue: 1 ), pages: 113-126, March 2009;
URL: http://www.maia.ub.es/~sergio/files/Transport09.pdf
[2] « Combining Adaboost Learning and Evolutionary Search to select Features for Real-Time Object
Detection », Andre Treptow and Andreas Zell, Evolutionary Computation, 2004. CEC2004. Congress
on (Volume:2 ), pages: 2107-2113, June 2004;
URL: http://u-173-c140.cs.uni-tuebingen.de/mitarb/treptow/publications/treptow04-cec.pdf
[3] « An Extended Set of Haar-like Features for Rapid Object Detection», R. Lienhart and J. Maydt,
Proc. of IEEE Conf. Image Processing, pages: 155–162, 2002;
URL: http://www.lienhart.de/Prof._Dr._Rainer_Lienhart/Source_Code_files/ICIP2002.pdf
[4] « Circulation et Signalisation routière reconnaissance », Hasan Fleyeh, July 2008;
URL: http://www.diva-portal.org/smash/get/diva2:523372/FULLTEXT01.pdf
[5] « Dissociated Dipoles: Image Representation via Non-local Comparisons », Benjamin J.Balas et
Pawan Sinha, Massachusetts Institute of Technology — Artificial Intelligence laboratory,
August 2003
URL: http://dspace.mit.edu/bitstream/handle/1721.1/7276/AIM-2003-018.pdf?sequence=2
[6] « Explaining AdaBoost », Robert E. Schapire, In Bernhard Schölkopf, Zhiyuan Luo, Vladimir
Vovk, editors, Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik, Springer, 2013
URL: https://www.cs.princeton.edu/~schapire/papers/explaining-adaboost.pdf
[7] La présentation « AdaBoost » de Jan Sochman, Jiri Matas, Center for Machine Perception
Czech Technical University, Prague
URL: http://cmp.felk.cvut.cz/~sochmj1/adaboost_talk.pdf
80