MMC

378 vues

Publié le

le modèle de Markov caché

Publié dans : Ingénierie
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
378
Sur SlideShare
0
Issues des intégrations
0
Intégrations
6
Actions
Partages
0
Téléchargements
17
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

MMC

  1. 1. B R I G U I N A R J E S S F I A 3 _ - G L - I E LES MODÈLES DE MARKOV CACHÉS
  2. 2. PLAN Introduction 1. Qu'est ce qu’un MMC? 2. Historique 3. Exemple d’un mmc 4. Utilisation 5. Algorithmes 6. Quelques domaines d’application 7. Apprentissage a. Apprentissage étiqueté b. Maximisation de la vraisemblance Conclusion
  3. 3. INTRODUCTION • La reconnaissance automatique des séquences temporelles est une problématique en plein essor, Sous ses différents formes , elle a déjà donné lieu à une grande variété d’application comme le traitement automatique de la parole, le reconnaissance des mouvements, la vision robotique, et dans le domaine médicale tel que le diagnostique, • Une méthode efficace et très employer dans la reconnaissance automatiques de tel séquences, il s’agit de modèle de Markov caché
  4. 4. QU'EST CE QU’UN MMC? • Les MMC sont des outils permettant de modéliser des phénomènes stochastiques , ces modèles sont utiliser dans des nombreux domaines comme la reconnaissance de la parole, la biologie, l’ordonnancement et l’indexation des documents, la reconnaissance d’images,,,, • Le MMC permet d’étudier une séquence d’observations que l’on sait lié a une séquence d’états cachés qui n’est pas directement observable • Encore entraine a reconnaitre quelque chose puis déterminer si autre chose y ressemble ou pas et s’il y ressemble, à quel point?
  5. 5. HISTORIQUE • Le MMC est Introduit par Baum dans les années 60 Utilisés à partir des années 80 en reconnaissance de la parole où ils se sont rapidement imposés comme modèle de référence. • Appliqués ensuite à la reconnaissance de textes manuscrits, au traitement d’images....et la Bio- informatique.
  6. 6. EXEMPLE D’UN MMC Deux états : ‘Soleil’ et ‘Pluie’. • Probabilité de transition: P(‘Pluie ’|‘Pluie’)=0.3 , P(‘Soleil’|‘Pluie’)=0.7 , P(‘Pluie’|‘Soleil’)=0.2, P(‘Soleil’|‘Soleil’)=0.8 • Probabilité initiales: P(‘Pluie’)=0.4 , P(‘Soleil’)=0.6 . • La probabilité d’occurrence d’une séquence {‘Soleil’,‘Soleil’,‘Pluie’,Pluie’}: P(‘Pluie’|‘Pluie’) P(‘Pluie’|‘Soleil’) P(‘Soleil’|‘Soleil’) P(‘Soleil ‘) =0.3*0.2*0.8*0.6
  7. 7. UTILISATION • Problème de base de MMC: Probleme1: Calculer la probabilité d’observation de la séquence d’observation étant donnée un MMC →Algorithme de forward Probleme2: Trouver la séquence d’état qui maximise la séquence d’observation → L’algorithme de viterbi Probleme3: Ajuster les paramètres du MMC afin de maximiser la probabilité de générer une séquence d’observation à partir de donnée d’entrainement → L’algorithme de forward-backward
  8. 8. ALGORITHMES(1) • L’algorithme de FORWARD et l’algorithme de BACKWORD permettent de calculer la vraisemblance d’une séquence de T observations par rapport à un MMC λ avec une complexité O(N²T) • L’algorithme de viterbi permet de trouver la séquence d’état caché qui a engendré une séquence d’observation avec une complexité O(N²T) • L’algorithme de viterbi consiste à resoudre • 𝑄∗ =arg max (p(𝑣=𝑜 , s=q/λ)) • o𝜖 l’ensemble des états observés • q𝜖 l’ensemble des états cachés
  9. 9. ALGORITHMES(2) • Algorithme de FORWARD: Pour i=1,,N;t=2,,T 1(i)=𝜋𝑖 𝑏𝑖(𝑜1) Fin pour Pour t=1,,T-1faire Pour j=1,,N faire 𝑡+1(j)=𝑏𝑗(𝑜𝑡+1) 𝑖=1 𝑁 𝑡 i 𝑎𝑖𝑗 Fin pour Fin pour p(𝑣=𝑜 /λ)= 𝑖=1 𝑁 𝑡 i
  10. 10. QUELQUES DOMAINES D’APPLICATION  Reconnaissance de formes  Reconnaissance de caractère  La localisation des mots dans une phrase  La reconnaissance d’images  L’ordonnancement des taches  Reconnaissance automatique de la parole  Traitement de la langue naturelle  Analyse des séquences biologiques  Robotique  Diagnostic  Etc….
  11. 11. APPRENTISSAGE • Apprendre un MMC, c’est ajuster les paramètres du modèle de manière à maximiser certain critère: Différentes critères sont disponibles, nous allons présenter les plus importants qui sont l’apprentissage étiqueté et la maximisation de la vraisemblance
  12. 12. APPRENTISSAGE ÉTIQUETÉ • Pour effectuer un apprentissage étiqueté, on dispose de deux informations: la séquence d’observations O et la séquence d’état caché Q • Le critère que l’on cherche à maximiser est p(V=O,S=Q/ λ)
  13. 13. MAXIMISATION DE LA VRAISEMBLANCE • Ce critère consiste à trouver le modèle λ∗ maximisant la probabilité p(V=O/ λ), en générale , il n’est pas possible de trouver un modèle optimale • Pour resoudre ce problème il existe deux méthode • L’algorithme Expectation-Maximization ou la descente de gradient
  14. 14. L’ALGORITHME EXPECTATION- MAXIMIZATION • L’algorithme Expectation-Maximization est une méthode générale d’optimisation en présence d’information incomplète , cette algorithme permet a partir d’un modèle initial 𝑚∗, de trouver un modèle m qui augmente la vraisemblance • L’une des plus célèbre application de l’algorithme est l’algorithme de baum-welch permettant l’apprentissage des MMC
  15. 15. LA DESCENTE DE GRADIENT • Cette deuxième méthode qui permet d’optimiser la vraisemblance p(V=O/ λ) consiste à utiliser la descente de gradient • L’utilisation de la méthode avec des MMC pose un problème de taille • La solution est de re-parametrer les MMC avec des variables réels
  16. 16. CONCLUSION • Les applications de MMC prouvent que cet outil reste très efficace, performant et outil puissant pour la modélisation
  17. 17. BIBLIOGRAPHIES • https://fr.wikipedia.org/wiki/Modèle_de_Markov_caché • http://dspace.univ- tlemcen.dz/bitstream/112/1020/9/chapitre2.pdf • http://www-igm.univ- mlv.fr/~dr/XPOSE2012/HiddenMarkovModel/exemples.html • http://www-igm.univ- mlv.fr/~dr/XPOSE2012/HiddenMarkovModel/index.html • http://www.lifl.fr/~grisoni/IMA5/IHM/cours3_classification.pdf • http://www.iro.umontreal.ca/~csuros/IFT3290/H05/materiel/Br ehelin.pdf

×