1. B R I G U I N A R J E S S
F I A 3 _ - G L - I E
LES MODÈLES DE
MARKOV CACHÉS
2. PLAN
Introduction
1. Qu'est ce qu’un MMC?
2. Historique
3. Exemple d’un mmc
4. Utilisation
5. Algorithmes
6. Quelques domaines d’application
7. Apprentissage
a. Apprentissage étiqueté
b. Maximisation de la vraisemblance
Conclusion
3. INTRODUCTION
• La reconnaissance automatique des séquences
temporelles est une problématique en plein essor, Sous
ses différents formes , elle a déjà donné lieu à une
grande variété d’application comme le traitement
automatique de la parole, le reconnaissance des
mouvements, la vision robotique, et dans le domaine
médicale tel que le diagnostique,
• Une méthode efficace et très employer dans la
reconnaissance automatiques de tel séquences, il s’agit
de modèle de Markov caché
4. QU'EST CE QU’UN MMC?
• Les MMC sont des outils permettant de modéliser des
phénomènes stochastiques , ces modèles sont utiliser dans
des nombreux domaines comme la reconnaissance de la
parole, la biologie, l’ordonnancement et l’indexation des
documents, la reconnaissance d’images,,,,
• Le MMC permet d’étudier une séquence d’observations que
l’on sait lié a une séquence d’états cachés qui n’est pas
directement observable
• Encore entraine a reconnaitre quelque chose puis déterminer
si autre chose y ressemble ou pas et s’il y ressemble, à quel
point?
5. HISTORIQUE
• Le MMC est Introduit par Baum dans les années 60
Utilisés à partir des années 80 en reconnaissance de la
parole où ils se sont rapidement imposés comme
modèle de référence.
• Appliqués ensuite à la reconnaissance de textes
manuscrits, au traitement d’images....et la Bio-
informatique.
6. EXEMPLE D’UN MMC
Deux états : ‘Soleil’ et ‘Pluie’.
• Probabilité de transition:
P(‘Pluie ’|‘Pluie’)=0.3 ,
P(‘Soleil’|‘Pluie’)=0.7 ,
P(‘Pluie’|‘Soleil’)=0.2,
P(‘Soleil’|‘Soleil’)=0.8
• Probabilité initiales:
P(‘Pluie’)=0.4 , P(‘Soleil’)=0.6 .
• La probabilité d’occurrence d’une séquence
{‘Soleil’,‘Soleil’,‘Pluie’,Pluie’}:
P(‘Pluie’|‘Pluie’) P(‘Pluie’|‘Soleil’) P(‘Soleil’|‘Soleil’) P(‘Soleil ‘)
=0.3*0.2*0.8*0.6
7. UTILISATION
• Problème de base de MMC:
Probleme1:
Calculer la probabilité d’observation de la séquence
d’observation étant donnée un MMC
→Algorithme de forward
Probleme2:
Trouver la séquence d’état qui maximise la séquence
d’observation
→ L’algorithme de viterbi
Probleme3:
Ajuster les paramètres du MMC afin de maximiser la probabilité
de générer une séquence d’observation à partir de donnée
d’entrainement
→ L’algorithme de forward-backward
8. ALGORITHMES(1)
• L’algorithme de FORWARD et l’algorithme de BACKWORD
permettent de calculer la vraisemblance d’une séquence de
T observations par rapport à un MMC λ avec une complexité
O(N²T)
• L’algorithme de viterbi permet de trouver la séquence d’état
caché qui a engendré une séquence d’observation avec une
complexité O(N²T)
• L’algorithme de viterbi consiste à resoudre
• 𝑄∗
=arg max (p(𝑣=𝑜 , s=q/λ))
• o𝜖 l’ensemble des états observés
• q𝜖 l’ensemble des états cachés
9. ALGORITHMES(2)
• Algorithme de FORWARD:
Pour i=1,,N;t=2,,T
1(i)=𝜋𝑖 𝑏𝑖(𝑜1)
Fin pour
Pour t=1,,T-1faire
Pour j=1,,N faire
𝑡+1(j)=𝑏𝑗(𝑜𝑡+1) 𝑖=1
𝑁
𝑡 i 𝑎𝑖𝑗
Fin pour
Fin pour
p(𝑣=𝑜 /λ)= 𝑖=1
𝑁
𝑡 i
10. QUELQUES DOMAINES D’APPLICATION
Reconnaissance de formes
Reconnaissance de caractère
La localisation des mots dans une phrase
La reconnaissance d’images
L’ordonnancement des taches
Reconnaissance automatique de la parole
Traitement de la langue naturelle
Analyse des séquences biologiques
Robotique
Diagnostic
Etc….
11. APPRENTISSAGE
• Apprendre un MMC, c’est ajuster les paramètres du
modèle de manière à maximiser certain critère:
Différentes critères sont disponibles, nous allons présenter
les plus importants qui sont l’apprentissage étiqueté et la
maximisation de la vraisemblance
12. APPRENTISSAGE ÉTIQUETÉ
• Pour effectuer un apprentissage étiqueté, on dispose de
deux informations: la séquence d’observations O et la
séquence d’état caché Q
• Le critère que l’on cherche à maximiser est p(V=O,S=Q/
λ)
13. MAXIMISATION DE LA
VRAISEMBLANCE
• Ce critère consiste à trouver le modèle λ∗
maximisant la
probabilité p(V=O/ λ), en générale , il n’est pas possible
de trouver un modèle optimale
• Pour resoudre ce problème il existe deux méthode
• L’algorithme Expectation-Maximization ou la descente de
gradient
14. L’ALGORITHME EXPECTATION-
MAXIMIZATION
• L’algorithme Expectation-Maximization est une méthode
générale d’optimisation en présence d’information
incomplète , cette algorithme permet a partir d’un
modèle initial 𝑚∗, de trouver un modèle m qui augmente
la vraisemblance
• L’une des plus célèbre application de l’algorithme est
l’algorithme de baum-welch permettant l’apprentissage
des MMC
15. LA DESCENTE DE GRADIENT
• Cette deuxième méthode qui permet d’optimiser la
vraisemblance p(V=O/ λ) consiste à utiliser la descente
de gradient
• L’utilisation de la méthode avec des MMC pose un
problème de taille
• La solution est de re-parametrer les MMC avec des
variables réels
16. CONCLUSION
• Les applications de MMC prouvent que cet outil reste
très efficace, performant et outil puissant pour la
modélisation