B R I G U I N A R J E S S
F I A 3 _ - G L - I E
LES MODÈLES DE
MARKOV CACHÉS
PLAN
Introduction
1. Qu'est ce qu’un MMC?
2. Historique
3. Exemple d’un mmc
4. Utilisation
5. Algorithmes
6. Quelques domaines d’application
7. Apprentissage
a. Apprentissage étiqueté
b. Maximisation de la vraisemblance
Conclusion
INTRODUCTION
• La reconnaissance automatique des séquences
temporelles est une problématique en plein essor, Sous
ses différents formes , elle a déjà donné lieu à une
grande variété d’application comme le traitement
automatique de la parole, le reconnaissance des
mouvements, la vision robotique, et dans le domaine
médicale tel que le diagnostique,
• Une méthode efficace et très employer dans la
reconnaissance automatiques de tel séquences, il s’agit
de modèle de Markov caché
QU'EST CE QU’UN MMC?
• Les MMC sont des outils permettant de modéliser des
phénomènes stochastiques , ces modèles sont utiliser dans
des nombreux domaines comme la reconnaissance de la
parole, la biologie, l’ordonnancement et l’indexation des
documents, la reconnaissance d’images,,,,
• Le MMC permet d’étudier une séquence d’observations que
l’on sait lié a une séquence d’états cachés qui n’est pas
directement observable
• Encore entraine a reconnaitre quelque chose puis déterminer
si autre chose y ressemble ou pas et s’il y ressemble, à quel
point?
HISTORIQUE
• Le MMC est Introduit par Baum dans les années 60
Utilisés à partir des années 80 en reconnaissance de la
parole où ils se sont rapidement imposés comme
modèle de référence.
• Appliqués ensuite à la reconnaissance de textes
manuscrits, au traitement d’images....et la Bio-
informatique.
EXEMPLE D’UN MMC
Deux états : ‘Soleil’ et ‘Pluie’.
• Probabilité de transition:
P(‘Pluie ’|‘Pluie’)=0.3 ,
P(‘Soleil’|‘Pluie’)=0.7 ,
P(‘Pluie’|‘Soleil’)=0.2,
P(‘Soleil’|‘Soleil’)=0.8
• Probabilité initiales:
P(‘Pluie’)=0.4 , P(‘Soleil’)=0.6 .
• La probabilité d’occurrence d’une séquence
{‘Soleil’,‘Soleil’,‘Pluie’,Pluie’}:
P(‘Pluie’|‘Pluie’) P(‘Pluie’|‘Soleil’) P(‘Soleil’|‘Soleil’) P(‘Soleil ‘)
=0.3*0.2*0.8*0.6
UTILISATION
• Problème de base de MMC:
Probleme1:
Calculer la probabilité d’observation de la séquence
d’observation étant donnée un MMC
→Algorithme de forward
Probleme2:
Trouver la séquence d’état qui maximise la séquence
d’observation
→ L’algorithme de viterbi
Probleme3:
Ajuster les paramètres du MMC afin de maximiser la probabilité
de générer une séquence d’observation à partir de donnée
d’entrainement
→ L’algorithme de forward-backward
ALGORITHMES(1)
• L’algorithme de FORWARD et l’algorithme de BACKWORD
permettent de calculer la vraisemblance d’une séquence de
T observations par rapport à un MMC λ avec une complexité
O(N²T)
• L’algorithme de viterbi permet de trouver la séquence d’état
caché qui a engendré une séquence d’observation avec une
complexité O(N²T)
• L’algorithme de viterbi consiste à resoudre
• 𝑄∗
=arg max (p(𝑣=𝑜 , s=q/λ))
• o𝜖 l’ensemble des états observés
• q𝜖 l’ensemble des états cachés
ALGORITHMES(2)
• Algorithme de FORWARD:
Pour i=1,,N;t=2,,T
1(i)=𝜋𝑖 𝑏𝑖(𝑜1)
Fin pour
Pour t=1,,T-1faire
Pour j=1,,N faire
𝑡+1(j)=𝑏𝑗(𝑜𝑡+1) 𝑖=1
𝑁
𝑡 i 𝑎𝑖𝑗
Fin pour
Fin pour
p(𝑣=𝑜 /λ)= 𝑖=1
𝑁
𝑡 i
QUELQUES DOMAINES D’APPLICATION
 Reconnaissance de formes
 Reconnaissance de caractère
 La localisation des mots dans une phrase
 La reconnaissance d’images
 L’ordonnancement des taches
 Reconnaissance automatique de la parole
 Traitement de la langue naturelle
 Analyse des séquences biologiques
 Robotique
 Diagnostic
 Etc….
APPRENTISSAGE
• Apprendre un MMC, c’est ajuster les paramètres du
modèle de manière à maximiser certain critère:
Différentes critères sont disponibles, nous allons présenter
les plus importants qui sont l’apprentissage étiqueté et la
maximisation de la vraisemblance
APPRENTISSAGE ÉTIQUETÉ
• Pour effectuer un apprentissage étiqueté, on dispose de
deux informations: la séquence d’observations O et la
séquence d’état caché Q
• Le critère que l’on cherche à maximiser est p(V=O,S=Q/
λ)
MAXIMISATION DE LA
VRAISEMBLANCE
• Ce critère consiste à trouver le modèle λ∗
maximisant la
probabilité p(V=O/ λ), en générale , il n’est pas possible
de trouver un modèle optimale
• Pour resoudre ce problème il existe deux méthode
• L’algorithme Expectation-Maximization ou la descente de
gradient
L’ALGORITHME EXPECTATION-
MAXIMIZATION
• L’algorithme Expectation-Maximization est une méthode
générale d’optimisation en présence d’information
incomplète , cette algorithme permet a partir d’un
modèle initial 𝑚∗, de trouver un modèle m qui augmente
la vraisemblance
• L’une des plus célèbre application de l’algorithme est
l’algorithme de baum-welch permettant l’apprentissage
des MMC
LA DESCENTE DE GRADIENT
• Cette deuxième méthode qui permet d’optimiser la
vraisemblance p(V=O/ λ) consiste à utiliser la descente
de gradient
• L’utilisation de la méthode avec des MMC pose un
problème de taille
• La solution est de re-parametrer les MMC avec des
variables réels
CONCLUSION
• Les applications de MMC prouvent que cet outil reste
très efficace, performant et outil puissant pour la
modélisation
BIBLIOGRAPHIES
• https://fr.wikipedia.org/wiki/Modèle_de_Markov_caché
• http://dspace.univ-
tlemcen.dz/bitstream/112/1020/9/chapitre2.pdf
• http://www-igm.univ-
mlv.fr/~dr/XPOSE2012/HiddenMarkovModel/exemples.html
• http://www-igm.univ-
mlv.fr/~dr/XPOSE2012/HiddenMarkovModel/index.html
• http://www.lifl.fr/~grisoni/IMA5/IHM/cours3_classification.pdf
• http://www.iro.umontreal.ca/~csuros/IFT3290/H05/materiel/Br
ehelin.pdf

MMC

  • 1.
    B R IG U I N A R J E S S F I A 3 _ - G L - I E LES MODÈLES DE MARKOV CACHÉS
  • 2.
    PLAN Introduction 1. Qu'est cequ’un MMC? 2. Historique 3. Exemple d’un mmc 4. Utilisation 5. Algorithmes 6. Quelques domaines d’application 7. Apprentissage a. Apprentissage étiqueté b. Maximisation de la vraisemblance Conclusion
  • 3.
    INTRODUCTION • La reconnaissanceautomatique des séquences temporelles est une problématique en plein essor, Sous ses différents formes , elle a déjà donné lieu à une grande variété d’application comme le traitement automatique de la parole, le reconnaissance des mouvements, la vision robotique, et dans le domaine médicale tel que le diagnostique, • Une méthode efficace et très employer dans la reconnaissance automatiques de tel séquences, il s’agit de modèle de Markov caché
  • 4.
    QU'EST CE QU’UNMMC? • Les MMC sont des outils permettant de modéliser des phénomènes stochastiques , ces modèles sont utiliser dans des nombreux domaines comme la reconnaissance de la parole, la biologie, l’ordonnancement et l’indexation des documents, la reconnaissance d’images,,,, • Le MMC permet d’étudier une séquence d’observations que l’on sait lié a une séquence d’états cachés qui n’est pas directement observable • Encore entraine a reconnaitre quelque chose puis déterminer si autre chose y ressemble ou pas et s’il y ressemble, à quel point?
  • 5.
    HISTORIQUE • Le MMCest Introduit par Baum dans les années 60 Utilisés à partir des années 80 en reconnaissance de la parole où ils se sont rapidement imposés comme modèle de référence. • Appliqués ensuite à la reconnaissance de textes manuscrits, au traitement d’images....et la Bio- informatique.
  • 6.
    EXEMPLE D’UN MMC Deuxétats : ‘Soleil’ et ‘Pluie’. • Probabilité de transition: P(‘Pluie ’|‘Pluie’)=0.3 , P(‘Soleil’|‘Pluie’)=0.7 , P(‘Pluie’|‘Soleil’)=0.2, P(‘Soleil’|‘Soleil’)=0.8 • Probabilité initiales: P(‘Pluie’)=0.4 , P(‘Soleil’)=0.6 . • La probabilité d’occurrence d’une séquence {‘Soleil’,‘Soleil’,‘Pluie’,Pluie’}: P(‘Pluie’|‘Pluie’) P(‘Pluie’|‘Soleil’) P(‘Soleil’|‘Soleil’) P(‘Soleil ‘) =0.3*0.2*0.8*0.6
  • 7.
    UTILISATION • Problème debase de MMC: Probleme1: Calculer la probabilité d’observation de la séquence d’observation étant donnée un MMC →Algorithme de forward Probleme2: Trouver la séquence d’état qui maximise la séquence d’observation → L’algorithme de viterbi Probleme3: Ajuster les paramètres du MMC afin de maximiser la probabilité de générer une séquence d’observation à partir de donnée d’entrainement → L’algorithme de forward-backward
  • 8.
    ALGORITHMES(1) • L’algorithme deFORWARD et l’algorithme de BACKWORD permettent de calculer la vraisemblance d’une séquence de T observations par rapport à un MMC λ avec une complexité O(N²T) • L’algorithme de viterbi permet de trouver la séquence d’état caché qui a engendré une séquence d’observation avec une complexité O(N²T) • L’algorithme de viterbi consiste à resoudre • 𝑄∗ =arg max (p(𝑣=𝑜 , s=q/λ)) • o𝜖 l’ensemble des états observés • q𝜖 l’ensemble des états cachés
  • 9.
    ALGORITHMES(2) • Algorithme deFORWARD: Pour i=1,,N;t=2,,T 1(i)=𝜋𝑖 𝑏𝑖(𝑜1) Fin pour Pour t=1,,T-1faire Pour j=1,,N faire 𝑡+1(j)=𝑏𝑗(𝑜𝑡+1) 𝑖=1 𝑁 𝑡 i 𝑎𝑖𝑗 Fin pour Fin pour p(𝑣=𝑜 /λ)= 𝑖=1 𝑁 𝑡 i
  • 10.
    QUELQUES DOMAINES D’APPLICATION Reconnaissance de formes  Reconnaissance de caractère  La localisation des mots dans une phrase  La reconnaissance d’images  L’ordonnancement des taches  Reconnaissance automatique de la parole  Traitement de la langue naturelle  Analyse des séquences biologiques  Robotique  Diagnostic  Etc….
  • 11.
    APPRENTISSAGE • Apprendre unMMC, c’est ajuster les paramètres du modèle de manière à maximiser certain critère: Différentes critères sont disponibles, nous allons présenter les plus importants qui sont l’apprentissage étiqueté et la maximisation de la vraisemblance
  • 12.
    APPRENTISSAGE ÉTIQUETÉ • Poureffectuer un apprentissage étiqueté, on dispose de deux informations: la séquence d’observations O et la séquence d’état caché Q • Le critère que l’on cherche à maximiser est p(V=O,S=Q/ λ)
  • 13.
    MAXIMISATION DE LA VRAISEMBLANCE •Ce critère consiste à trouver le modèle λ∗ maximisant la probabilité p(V=O/ λ), en générale , il n’est pas possible de trouver un modèle optimale • Pour resoudre ce problème il existe deux méthode • L’algorithme Expectation-Maximization ou la descente de gradient
  • 14.
    L’ALGORITHME EXPECTATION- MAXIMIZATION • L’algorithmeExpectation-Maximization est une méthode générale d’optimisation en présence d’information incomplète , cette algorithme permet a partir d’un modèle initial 𝑚∗, de trouver un modèle m qui augmente la vraisemblance • L’une des plus célèbre application de l’algorithme est l’algorithme de baum-welch permettant l’apprentissage des MMC
  • 15.
    LA DESCENTE DEGRADIENT • Cette deuxième méthode qui permet d’optimiser la vraisemblance p(V=O/ λ) consiste à utiliser la descente de gradient • L’utilisation de la méthode avec des MMC pose un problème de taille • La solution est de re-parametrer les MMC avec des variables réels
  • 16.
    CONCLUSION • Les applicationsde MMC prouvent que cet outil reste très efficace, performant et outil puissant pour la modélisation
  • 17.
    BIBLIOGRAPHIES • https://fr.wikipedia.org/wiki/Modèle_de_Markov_caché • http://dspace.univ- tlemcen.dz/bitstream/112/1020/9/chapitre2.pdf •http://www-igm.univ- mlv.fr/~dr/XPOSE2012/HiddenMarkovModel/exemples.html • http://www-igm.univ- mlv.fr/~dr/XPOSE2012/HiddenMarkovModel/index.html • http://www.lifl.fr/~grisoni/IMA5/IHM/cours3_classification.pdf • http://www.iro.umontreal.ca/~csuros/IFT3290/H05/materiel/Br ehelin.pdf