SlideShare une entreprise Scribd logo
1  sur  60
Télécharger pour lire hors ligne
Recherche Opérationnelle
Chaı̂nes de Markov finies et homogènes à
temps discret
Jean-François Hêche
Institut de Mathématiques
École Polytechnique Fédérale de Lausanne
Les chaı̂nes de Markov finies et homogènes
à temps discret
• Les processus stochastiques : définition et classification
• La propriété de Markov et les processus markoviens
• Les chaı̂nes de Markov finies et homogènes à temps discret
I Probabilités de transition et matrices de transition
I Équations de Chapman-Kolmogorov
I Graphes représentatifs et classification
I Distribution initiale et comportement transitoire
I Comportement asymptotique des chaı̂nes irréductibles
I Comportement asymptotique des chaı̂nes absorbantes
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 1
Les processus stochastiques
Un processus stochastique {Xt, t 2 T} est une collection de variables
aléatoires indexées par un paramètre t et définies sur un même espace de
probabilités (⌦, F, P).
Le paramètre t est généralement interprété comme le temps et appartient à
un ensemble ordonné T.
La variable Xt représente l’état du processus au temps t et l’ensemble de
toutes les valeurs possibles pour cette variable est appelée l’espace des
états du processus et sera noté S.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 2
Classification
Un processus stochastique dont l’ensemble des états S est fini ou
dénombrable est appelé une chaı̂ne.
Un processus est à temps continu lorsque l’ensemble T est non
dénombrable. Le plus souvent, on aura alors T = R+ et le processus sera
noté {Xt, t 0} ou {Xt}t 0.
Un processus est à temps discret lorsque l’ensemble T est fini ou
dénombrable. Le plus souvent, on aura alors T = Z+ et le processus sera
noté {Xn, n = 0, 1, . . .} ou {Xn}
1
n=0.
L’évolution d’un processus à temps discret est découpée en étapes ou
périodes et le processus e↵ectue une transition (peut-être stationnaire) à
chaque étape.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 3
Trajectoires et historiques
Tout évènement élémentaire ! 2 ⌦ définit une a↵ectation de valeurs à la
variable d’état Xt = Xt(!) pour tout t 2 T (plusieurs ! pouvant définir la
même a↵ectation). Ces valeurs représentent une évolution particulière du
système appelée trajectoire ou réalisation.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 4
Trajectoires et historiques
Tout évènement élémentaire ! 2 ⌦ définit une a↵ectation de valeurs à la
variable d’état Xt = Xt(!) pour tout t 2 T (plusieurs ! pouvant définir la
même a↵ectation). Ces valeurs représentent une évolution particulière du
système appelée trajectoire ou réalisation.
Pour une trajectoire particulière, l’historique (ou histoire) du processus au
temps t n’est rien d’autre que la suite {Xu, 0  u  t} des valeurs prises
par la variable d’état Xt entre l’instant 0 (le début de l’évolution du
processus) et l’instant t.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 4
Trajectoires et historiques
Tout évènement élémentaire ! 2 ⌦ définit une a↵ectation de valeurs à la
variable d’état Xt = Xt(!) pour tout t 2 T (plusieurs ! pouvant définir la
même a↵ectation). Ces valeurs représentent une évolution particulière du
système appelée trajectoire ou réalisation.
Pour une trajectoire particulière, l’historique (ou histoire) du processus au
temps t n’est rien d’autre que la suite {Xu, 0  u  t} des valeurs prises
par la variable d’état Xt entre l’instant 0 (le début de l’évolution du
processus) et l’instant t.
Pour t 2 T fixé, la fonction (de !) Xt = Xt(!) est une variable aléatoire
représentant l’état du processus au temps t.
Pour ! 2 ⌦ fixé, la fonction (de t) Xt = Xt(!) est une trajectoire ou
réalisation du processus.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 4
Exemple
On lance un dé équilibré à 6 faces plusieurs fois et on définit la variable
d’état Xn comme la di↵érence entre le nombre de résultats pairs et impairs
après n lancés. La suite {Xn, n = 0, 1, . . .} est un processus stochastique à
temps discret (on pose naturellement X0 = 0). L’espace des états de ce
processus est S = Z.
L’évènement ! = (3, 5, 2, 2, 6, . . .) définit la réalisation
{Xn, n = 0, 1, . . .} = {0, 1, 2, 1, 0, 1, . . .}
et les évènements ! = (2, 1, 2, 6, 2, . . .) et ! = (6, 5, 6, 4, 6, . . .) définissent
la réalisation
{Xn, n = 0, 1, . . .} = {0, 1, 0, 1, 2, 3, . . .}.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 5
La propriété de Markov et les processus markoviens
Un processus stochastique {Xt, t 0} défini sur un espace d’états S
satisfait la propriété de Markov si, pour tout instant t 0 et tout
sous-ensemble d’états I 2 S, il est vrai que
P [Xt+ 2 I | Xu, 0  u  t] = P [Xt+ 2 I | Xt] 8 > 0.
Un processus stochastique vérifiant la propriété précédente est appelé un
processus de Markov ou processus markovien.
En mots, un processus est markovien si, pour tout instant t, l’état courant
Xt résume, à lui seul, tout l’historique du système susceptible d’influencer
son évolution future.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 6
Les chaı̂nes de Markov finies et homogènes
à temps discret
Une chaı̂ne de Markov à temps discret est un processus stochastique
{Xn, n = 0, 1, . . .} à temps discret, défini sur un espace d’états
dénombrable et vérifiant la propriété de Markov
P [Xn = i | X0, . . . , Xn 1] = P [Xn = i | Xn 1]
pour tout i 2 S et quel que soit n 1.
Une chaı̂ne de Markov à temps discret est homogène (dans le temps) si,
pour tout paire d’états (i, j) et tout instant n,
P [Xn = j | Xn 1 = i] = P [Xn+k = j | Xn+k 1 = i]
quel que soit k 0.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 7
Hypothèse
Dès à présent et pour le reste de ce chapitre, le terme chaı̂ne de Markov
(CM) désignera (sauf mention contraire explicite) une chaı̂ne de Markov à
temps discret, définie sur un ensemble d’états S fini et homogène dans le
temps.
Notons que les résultats que nous allons présenter s’appliquent le plus
souvent tels quels aux chaı̂nes de Markov à temps discret, homogènes mais
définies sur un espace d’états dénombrable (par exemple lorsque S = Z).
Cette classe de processus comprend, cependant, des cas pathologiques
nécessitant une analyse plus fine sans grand intérêt pour la plupart des
applications pratiques.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 8
Probabilités de transition et matrice de transition
Pour une chaı̂ne de Markov homogène {Xn, n = 0, 1, . . .}, on a
P [Xn = j | Xn 1 = i] = P [X1 = j | X0 = i] 8 n 1.
On peut donc définir la probabilité de transition (en 1 étape) de i à j
comme
pij = P [X1 = j | X0 = i] 8 (i, j) 2 S2
.
En mots, la probabilité pij est égale à la probabilité conditionnelle que le
système se retrouve dans l’état j à l’étape suivante sachant qu’il se trouve
actuellement dans l’état i.
Si la chaı̂ne possède s = |S| états, les probabilités précédentes peuvent être
rangées dans une matrice de transition P = (pij) de taille s ⇥ s dont les
lignes et les colonnes sont indexées par les éléments de S.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 9
Matrices stochastiques
Une matrice carrée P = (pij) est stochastique si
1) ses éléments sont non négatifs : pij 0 pour tout i et j ;
2) la somme des éléments de chacune de ses lignes est égale à 1 :
P
j pij = 1 pour tout i.
Propriété 1. Une matrice de transition est une matrice stochastique.
Propriété 2. Soit P une matrice stochastique de taille s finie, alors toute
puissance P m
, m 0, de P est une matrice stochastique.
Preuve. Par induction, le résultat est vrai pour m = 0 (P 0
= I pour tout
P carrée) et m = 1. Pour m 1, on a (P m
)ij 0, 8 i, j et, 8 i,
X
j
(P m
)ij =
X
j
X
k
P m 1
ik
pkj =
X
k
h
P m 1
ik
X
j
pkj
i
= 1.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 10
Probabilités de transition en m étapes
La probabilité conditionnelle d’aller de i à j en m étapes exactement est
p
(m)
ij = P [Xm = j | X0 = i] = P [Xn+m = j | Xn = i] 8 n 1.
Cette probabilité est indépendante de n car le processus est homogène et
est appelée la probabilité de transition en m étapes de i à j.
La matrice P (m)
dont l’élément (i, j) est égal à p
(m)
ij est appelée la
matrice de transition en m étapes.
Remarque. On a évidemment p
(1)
ij = pij et P (1)
= P .
Convention. On adoptera la convention naturelle P (0)
= I, c.-à-d.
p
(0)
ij = ij =
⇢
1 si i = j
0 si i 6= j.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 11
Théorème 1. Pour tout m 0, la probabilité p
(m)
ij de transition de i à j
en m étapes est donnée par l’élément (i, j) de la matrice P m
.
Sous forme matricielle ce résultat s’écrit : P (m)
= P m
, pour tout m 0.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 12
Théorème 1. Pour tout m 0, la probabilité p
(m)
ij de transition de i à j
en m étapes est donnée par l’élément (i, j) de la matrice P m
.
Sous forme matricielle ce résultat s’écrit : P (m)
= P m
, pour tout m 0.
Preuve. Le résultat est vrai pour m = 0 et 1. Supposons-le vrai pour m 1.
Utilisant la loi des probabilités totales, nous obtenons, pour tout i, j 2 S,
p
(m)
ij = P [Xm = j | X0 = i]
=
X
k2S
P [Xm = j | Xm 1 = k] P [Xm 1 = k | X0 = i]
=
X
k2S
p
(1)
kj p
(m 1)
ik =
X
k2S
p
(m 1)
ik pkj
=
X
k2S
P m 1
ik
(P )kj = (P m
)ij .
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 12
Équations de Chapman-Kolmogorov
Corollaire 1. Soit P (n)
, n 0, la matrice de transition en n étapes d’une
chaı̂ne de Markov. Alors pour tout entier non négatif l et m
P (l+m)
= P (l)
P (m)
ce qui sous forme développée s’écrit
p
(l+m)
ij =
X
k2S
p
(l)
ik p
(m)
kj 8 i, j 2 S.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 13
Graphes représentatifs
La matrice de transition P d’une chaı̂ne de Markov peut être représentée
par un graphe orienté G = (V, E) dont les sommets correspondent aux
états de la chaı̂ne et où un arc relie les sommets associés aux états i et j si
la probabilité de transition de i à j est positive, c.-à-d. si pij > 0.
Le graphe ainsi défini est appelé le graphe représentatif, ou graphe de
transition, de la chaı̂ne de Markov.
Remarque. Les sommets du graphe représentatif G d’une chaı̂ne étant en
bijection avec les états de cette dernière, nous parlerons souvent de l’état i
de G tout en gardant à l’esprit qu’une telle expression désigne, en fait, le
sommet de G associé à l’état i.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 14
Exemple
Matrice de transition P Graphe représentatif G
0
B
B
B
B
B
@
1 0 0 0 0
1/3 1/6 1/4 1/4 0
0 1/2 0 0 1/2
0 0 0 0 1
0 0 0 1 0
1
C
C
C
C
C
A
1
4
3
2
5
1/6
1/2
1/2
1/4
1
1
1
1/4
1/3
Remarque. L’ensemble des états de la chaı̂ne est S = {1, 2, 3, 4, 5}.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 15
Classes et graphe réduit
Soit P la matrice de transition d’une chaı̂ne de Markov et G = (V, E) le
graphe représentatif de P .
L’état j est accessible depuis l’état i s’il existe, dans G, au moins un
chemin de i à j.
Remarque. Tout état j est accessible depuis lui-même.
Propriété 3. L’état j est accessible depuis l’état i si et seulement s’il existe
n 0 tel que p
(n)
ij > 0.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 16
Classes et graphe réduit
Soit P la matrice de transition d’une chaı̂ne de Markov et G = (V, E) le
graphe représentatif de P .
L’état j est accessible depuis l’état i s’il existe, dans G, au moins un
chemin de i à j.
Remarque. Tout état j est accessible depuis lui-même.
Propriété 3. L’état j est accessible depuis l’état i si et seulement s’il existe
n 0 tel que p
(n)
ij > 0.
Les états i et j communiquent s’ils sont accessibles l’un à partir de l’autre.
Propriété 4. Les états i et j communiquent si et seulement s’il existe
n 0 et m 0 tels que p
(n)
ij > 0 et p
(m)
ji > 0.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 16
La relation « i et j communiquent » est une relation d’équivalence dont les
classes correspondent aux composantes fortement connexes de G. Ainsi, les
états i et j communiquent si et seulement s’ils appartiennent à la même
composante fortement connexe de G.
Les classes de la chaı̂ne correspondent aux composantes fortement
connexes de G.
Si C1, . . . , Cr dénotent les classes d’une chaı̂ne de Markov, le graphe
réduit GR de la chaı̂ne est obtenu en associant un sommet à chaque classe
Ci et en reliant les sommets u et v par un arc (u, v) s’il existe i 2 Cu et
j 2 Cv avec pij > 0.
Propriété 5. Le graphe réduit GR d’une chaı̂ne de Markov est un graphe
sans circuit.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 17
Exemple
Pour la chaı̂ne de Markov de l’exemple précédent, on a
1
4
3
2
5
1/6
1/2
1/2
1/4
1
1
1
1/4
1/3
Graphe représentatif
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 18
Exemple
Pour la chaı̂ne de Markov de l’exemple précédent, on a
1
4
3
2
5
1/6
1/2
1/2
1/4
1
1
1
1/4
1/3
Graphe représentatif
C2 C3
C1
Graphe réduit
C1 C2 C3
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 18
Classification des classes et des états
Une classe est persistante si elle correspond à un sommet sans successeur
de GR. Si tel n’est pas le cas, la classe est transitoire.
Les états d’une classe persistante sont persistants ou récurrents et ceux
d’une classe transitoire sont transitoires.
Une classe persistante composée d’un seul état est absorbante et un état
est absorbant s’il forme, à lui seul, une classe persistante.
Propriété 6. L’état i est absorbant si et seulement si pii = 1 (on a alors
pij = 0, 8 j 6= i).
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 19
Classification des chaı̂nes
Une chaı̂ne de Markov est irréductible si elle ne compte qu’une seule
classe. Dans le cas contraire, elle est réductible.
Propriété 7. Une chaı̂ne de Markov est irréductible si et seulement si son
graphe représentatif est fortement connexe.
Propriété 8. Une chaı̂ne de Markov est irréductible si et seulement si toutes
ses paires d’états communiquent.
Une chaı̂ne de Markov est absorbante si tous ses états persistants le sont.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 20
Période
La période d de l’état i d’une chaı̂ne de Markov est égale au plus grand
commun diviseur de tous les n pour lesquels p
(n)
ii > 0.
L’état i est périodique lorsque d > 1 et apériodique lorsque d = 1.
Propriété 9. L’état i a période d si et seulement si d est le plus grand
commun diviseur des longueurs des circuits (pas forcément élémentaires) du
graphe représentatif G passant par i.
Propriété 10. Si pii > 0, l’état i est apériodique.
Théorème 2. Les états d’une classe ont tous la même période.
La période étant une propriété de classe, on parlera de classes périodiques
/ apériodiques et de chaı̂nes de Markov irréductibles périodiques /
apériodiques selon les propriétés de leurs états.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 21
Distribution des états d’une chaı̂ne
La distribution des états d’une chaı̂ne de Markov après n transitions est
notée ⇡(n)
. Cette distribution est un vecteur de probabilités contenant la loi
de la variable aléatoire Xn
⇡
(n)
i = P[Xn = i] 8 i 2 S.
La distribution ⇡(n)
dépend de la matrice de transition P mais également
de l’état dans lequel le processus a commencé son évolution. De manière
générale, cet état est choisi selon une distribution initiale ⇡(0)
.
Remarque. Si l’état initial est connu avec certitude et est égal à i, on a
simplement ⇡
(0)
i = 1 et ⇡
(0)
j = 0 pour tout j 6= i.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 22
Comportement transitoire
Théorème 3. Soit P la matrice de transition d’une chaı̂ne de Markov et
⇡(0)
la distribution de son état initial. Pour tout n 1, on a
⇡(n)
= ⇡(n 1)
P
et
⇡(n)
= ⇡(0)
P n
.
Preuve. Premièrement, on a, pour tout j 2 S,
⇡
(1)
j = P[X1 = j] =
X
i2S
P[X1 = j | X0 = i]P[X0 = i]
=
X
i2S
pij⇡
(0)
i =
X
i2S
⇡
(0)
i pij
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 23
et
⇡(1)
= ⇡(0)
P .
La chaı̂ne étant homogène, on obtient immédiatement le premier résultat
⇡(n)
= ⇡(n 1)
P 8 n 1.
Pour démontrer le second il suffit de résoudre l’équation de récurrence
précédente par substitution. ⇤
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 24
Comportement asymptotique
L’étude du comportement à long terme d’une chaı̂ne de Markov cherche à
répondre à des questions aussi diverses que
• la distribution ⇡(n)
converge-t-elle lorsque n ! 1 ?
• si la distribution ⇡(n)
converge lorsque n ! 1, quelle est la limite ⇡⇤
et cette limite est-elle indépendante de la distribution initiale ⇡(0)
?
• si l’état i est persistant, quelle est la proportion du temps passé dans
cet état et quel est le nombre moyen de transitions entre deux visites
successives de cet état ?
• si l’état i est transitoire, quel est le nombre moyen de visites de cet
état ?
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 25
Distribution invariante
Une distribution ⇡ est invariante ou stationnaire si
⇡ = ⇡P .
Propriété 11. Si limn!1 ⇡(n)
existe, alors la limite est une distribution
invariante.
Les deux résultats suivants sont cités sans preuve.
Théorème 4. Une chaı̂ne de Markov possède toujours au moins une distri-
bution invariante.
Théorème 5. Une chaı̂ne de Markov possède autant de distributions inva-
riantes linéairement indépendantes que la multiplicité de la valeur propre 1
de sa matrice de transition.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 26
Théorème 6. La distribution ⇡(n)
des états d’une chaı̂ne de Markov
converge vers une distribution (invariante) ⇡⇤
indépendante de la distri-
bution initiale ⇡(0)
si et seulement si la suite des puissances de la matrice de
transition P de la chaı̂ne converge vers une matrice (stochastique) P ⇤
dont
toutes les lignes sont égales entre elles. De plus, si tel est le cas, chaque
ligne de P ⇤
est égale à ⇡⇤
.
Preuve. La condition est nécessaire car si, indépendamment de ⇡(0)
,
limn!1 ⇡(n)
= ⇡⇤
, il suffit de considérer successivement les distributions
initiales
⇡1 = (1 0 . . . 0 ) . . . ⇡s = (0 . . . 0 1)
pour obtenir
⇡⇤
= lim
n!1
⇡(n)
= lim
n!1
⇡iP n
= lim
n!1
(P n
)i = (P ⇤
)i .
Ainsi P ⇤
existe et toutes ses lignes sont égales à ⇡⇤
.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 27
La condition est suffisante. Si P ⇤
existe et si p⇤
ij = p⇤
j pour tout i 2 S, on a
lim
n!1
⇡(n)
= lim
n!1
⇡(0)
P n
= ⇡(0)
lim
n!1
P n
= ⇡(0)
P ⇤
et la limite ⇡⇤
existe. De plus
⇡⇤
j =
X
i2S
⇡
(0)
i p⇤
ij =
X
i2S
⇡
(0)
i p⇤
j = p⇤
j
X
i2S
⇡
(0)
i = p⇤
j
et ⇡⇤
est indépendante de ⇡(0)
et identique à n’importe quelle ligne de P ⇤
.
⇤
Remarque. Si ⇡⇤
= limn!1 ⇡n
, on parlera de distribution asymptotique,
stationnaire ou invariante.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 28
Les chaı̂nes irréductibles et apériodiques
Le théorème suivant résume le comportement asymptotique des chaı̂nes
irréductibles et apériodiques.
Théorème 7. Soit P la matrice de transition d’une chaı̂ne irréductible et
apériodique. Les propriétés suivantes sont vérifiées.
• La matrice P n
tend vers une matrice stochastique P ⇤
lorsque n tend
vers l’infini.
• Les lignes de P ⇤
sont toutes égales entre elles.
• p⇤
ij > 0 pour tout i, j 2 S.
• Pour toute distribution initiale ⇡(0)
,
lim
n!1
⇡(n)
= lim
n!1
⇡(0)
P n
= ⇡⇤
.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 29
• ⇡⇤
est la solution unique du système
⇢
⇡P = ⇡
⇡1 = 1.
• ⇡⇤
est égal à n’importe quelle ligne de la matrice P ⇤
.
• Pour tout i 2 S,
⇡⇤
i =
1
µi
où µi est l’espérance du nombre de transitions entre deux visites
successives de l’état i.
Remarque. Pour n suffisamment grand, on a ⇡(n)
' ⇡⇤
et ⇡⇤
i « est » la
probabilité que la chaı̂ne se trouve dans l’état i à un instant quelconque.
Cette valeur représente aussi la proportion du temps passé dans l’état i.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 30
Exemple
Soit la chaı̂ne de Markov irréductible et apériodique définie par la matrice
de transition
P =
0
B
@
1/4 0 3/4
1/4 1/4 1/2
1/4 1/2 1/4
1
C
A .
L’unique solution du système
⇢
⇡P = ⇡
⇡1 = 1
est
⇡⇤
= (1/4 3/10 9/20) .
Le processus passe donc, en moyenne, 30% du temps dans l’état 2 et il
faut, en moyenne, 4 transitions entre deux visites successives de l’état 1.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 31
Les chaı̂nes ergodiques
Une chaı̂ne de Markov est ergodique si elle admet une distribution
asymptotique, i.e. si limn!1 ⇡(n)
existe, unique et indépendante de la
distribution initiale.
Propriété 12. Les chaı̂nes irréductibles et apériodiques sont ergodiques.
Théorème 8. [Théorème ergodique] Soit {Xn, n = 0, 1, . . .} une chaı̂ne
de Markov ergodique de distribution stationnaire ⇡⇤
et f une fonction réelle
définie sur l’espace des états S de la chaı̂ne. Alors,
lim
n!1
1
n + 1
n
X
k=0
f(Xk) =
X
i2S
⇡⇤
i f(i)
presque sûrement.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 32
Les chaı̂nes irréductibles périodiques
Lemme 1. Si une chaı̂ne de Markov a période d, l’ensemble S de ses états
peut être divisé en d classes disjointes D0, D1, . . . , Dd 1 de manière à ce
que chaque transition se fasse d’une classe Dk à la classe Dk+1, les indices
étant pris modulo d.
En (re-)numérotant de manière consécutive les états de chaque classe Dk,
la matrice P d
prend la forme
P d
=
0
B
@
P 0 0
...
0 P d 1
1
C
A .
Chaque matrice P i définit une chaı̂ne irréductible et apériodique sur
l’ensemble des états de la classe Di. Une transition de la chaı̂ne associée à
P i correspond à d transitions de la chaı̂ne initiale.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 33
Convergence au sens de Cesàro
Une suite {Xn, n = 1, 2, . . .} converge au sens de Cesàro vers X⇤
si
lim
n!1
1
n
n
X
k=1
Xk = X⇤
.
La convergence au sens de Cesàro est une convergence en moyenne
contrairement à la définition ordinaire qui est une convergence en valeur.
La convergence ordinaire implique la convergence au sens de Cesàro mais la
réciproque est fausse.
Contre-exemple. La suite {0, 1, 0, 1, 0, 1, . . .} converge vers 1
2 au sens de
Cesàro.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 34
Comportement asymptotique
En remplaçant la convergence ordinaire par celle au sens de Cesàro, les
chaı̂nes de Markov irréductibles présentent toutes les mêmes propriétés
asymptotiques, indépendamment de leur période.
En particulier, la suite des puissances de P converge en moyenne vers une
matrice stochastique P ⇤
ayant toutes ses lignes égales. De même, la suite
des distributions ⇡(n)
converge, au sens de Cesàro, vers une distribution
⇡⇤
, unique et indépendante de la distribution initiale ⇡(0)
. De plus ⇡⇤
est
égal à n’importe quelle ligne de P ⇤
.
Remarque. Si la chaı̂ne a période d, chaque matrice P i définit une chaı̂ne
ergodique possédant une distribution stationnaire unique ⇡⇤
i . On a alors
⇡⇤
“=”
1
d
(⇡⇤
0 “+” . . . “+” ⇡⇤
d 1).
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 35
Les chaı̂nes réductibles
Théorème 9. Pour tout état initial i, la probabilité de se retrouver dans un
état persistant à l’étape n tend vers 1 lorsque n tend vers l’infini.
Preuve. Soit pi(m) = P[Xm transitoire | X0 = i]. Si s = |S|, on a
pi(s) < 1 pour tout i 2 S car il est possible d’atteindre un état persistant
en au plus s transitions depuis n’importe quel état initial. Ainsi
p = max
i2S
(pi(s)) < 1
et, pour tout i 2 S,
pi(2s) =
X
j transitoire
p
(s)
ij pj(s) 
X
j transitoire
p
(s)
ij p = pi(s)p  p2
.
Ainsi pi(ks)  pk
et limk!1 pi(ks) = 0.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 36
D’autre part, pour tout n 0,
pi(n + 1) =
X
j trans.
p
(n+1)
ij =
X
j,k trans.
p
(n)
ik pkj
=
X
k trans.
p
(n)
ik
0
@
X
j trans.
pkj
1
A  pi(n)
ce qui permet de conclure que limn!1 pi(n) = 0. ⇤
Corollaire 2. limn!1 p
(n)
ij = 0 pour tout j transitoire, quel que soit i.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 37
Forme canonique
La matrice de transition d’une chaı̂ne de Markov réductible est sous forme
canonique si
1. les sommets d’une classe (persistante) sont numérotés consécutivement ;
2. les sommets persistants sont numérotés en premier.
Si une chaı̂ne a k classes persistantes, sa matrice sous forme canonique
ressemble à
P =
0
B
B
B
@
P1 0 0
... .
.
.
0 Pk 0
R1 · · · Rk Q
1
C
C
C
A
.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 38
Chaque sous-matrice P i définit une chaı̂ne de Markov irréductible sur
l’ensemble des états de la classe persistante Ci.
Remarque. Pour obtenir une matrice de transition sous forme canonique, il
est important de numéroter consécutivement les états de chaque classe
persistante.
La matrice de transition, sous forme canonique, d’une chaı̂ne absorbante est
P =
I 0
R Q
!
.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 39
Matrice fondamentale
Lemme 2. Soit Q telle que limn!1 Qn
= 0, alors
(I Q) 1
= I + Q + Q2
+ . . . =
1
X
n=0
Qn
.
Preuve. On va utiliser l’identité
(I Q)(I + Q + Q2
+ . . . + Qn 1
) = I Qn
.
1. On a limn!1(I Qn
) = I et, par linéarité du déterminant,
limn!1 det(I Qn
) = det(I) = 1.
2. det(A) étant une fonction continue des éléments de A, 9 m t.q. 8 n m,
det(I Qn
) > 0 et (I Q) 1
existe.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 40
3. limn!1(I Q)(I + Q + Q2
+ . . . + Qn 1
) = limn!1(I Qn
) = I et
(I Q) 1
=
P1
n=0 Qn
.
⇤
Corollaire 3. Soit P la matrice de transition, sous forme canonique, d’une
chaı̂ne de Markov absorbante. Alors,
lim
n!1
P n
= lim
n!1
I 0
Pn 1
k=0 Qk
R Qn
!
=
I 0
(I Q) 1
R 0
!
.
La matrice N = (I Q) 1
est appelée la matrice fondamentale de la
chaı̂ne de Markov.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 41
Temps avant absorption
Théorème 10. Le nombre moyen de périodes séjournées dans l’état tran-
sitoire j par une chaı̂ne de Markov débutant sont évolution dans l’état
transitoire i est égal à l’élément nij de la matrice fondamentale N.
Preuve. Posons Fj(Xn) = 1 si Xn = j et Fj(Xn) = 0 sinon. Le nombre de
visites dans l’état j est
1
X
n=0
Fj(Xn)
et l’espérance cherchée est
E
" 1
X
n=0
Fj(Xn) X0 = i
#
.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 42
Or,
E
" 1
X
n=0
Fj(Xn) X0 = i
#
=
1
X
n=0
E [Fj(Xn) | X0 = i]
=
1
X
n=0
p
(n)
ij =
1
X
n=0
q
(n)
ij = nij.
⇤
Corollaire 4. Partant de l’état transitoire i, le nombre moyen de transitions
avant d’atteindre un état absorbant (persistant) est égal à la somme des
termes de la ie
ligne de la matrice fondamentale N.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 43
Exemple : roulette française
Vous sentant en veine vous avez achetez 3 jetons et vous vous dirigez vers
la table de roulette la plus proche. Votre stratégie est simple : vous misez
un jeton à chaque jeu et ne sélectionnez que les chances simples
(pair/impair, rouge/noir, manque/passe). De plus vous arrêtez de jouer dès
que vous avez doublé votre mise initiale ou, mais cela n’arrivera
évidemment pas, dès que vous êtes ruiné.
Définissant Xn comme votre nombre de jeton après n jeux, la suite
{Xn, n = 0, 1, . . .} est une chaı̂ne de Markov sur l’espace des états
S = {0, 1, . . . , 6}
Pour i = 1, . . . , 5, on a pi,i+1 = 18
37 et pi,i 1 = 19
37. Pour i = 0 ou 6, on a
pii = 1. Ces deux états sont absorbants, les autres transitoires et la chaı̂ne
est absorbante.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 44
Pour l’ordre des états {0, 6, 1, 2, 3, 4, 5}, P est sous forme canonique
P =
1
37
0
B
B
B
B
B
B
B
B
@
37 0 0 0 0 0 0
0 37 0 0 0 0 0
19 0 0 18 0 0 0
0 0 19 0 18 0 0
0 0 0 19 0 18 0
0 0 0 0 19 0 18
0 18 0 0 0 19 0
1
C
C
C
C
C
C
C
C
A
0
6
1
2
3
4
5
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 45
Pour l’ordre des états {0, 6, 1, 2, 3, 4, 5}, P est sous forme canonique
P =
1
37
0
B
B
B
B
B
B
B
B
@
37 0 0 0 0 0 0
0 37 0 0 0 0 0
19 0 0 18 0 0 0
0 0 19 0 18 0 0
0 0 0 19 0 18 0
0 0 0 0 19 0 18
0 18 0 0 0 19 0
1
C
C
C
C
C
C
C
C
A
0
6
1
2
3
4
5
La matrice fondamentale de la chaı̂ne est
N = (I Q) 1
=
0
B
B
B
B
@
1.67 1.3 .945 .613 .298
1.37 2.66 1.94 1.26 .613
1.05 2.05 2.99 1.94 .945
.72 1.4 2.05 2.66 1.3
.37 .72 1.05 1.37 1.67
1
C
C
C
C
A
et pour X0 = 3, le nombre moyen de jeux est
1.05 + 2.05 + 2.99 + 1.94 + .945 = 8.975.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 45
Probabilités d’absorption
Théorème 11. La probabilité d’être absorbé par l’état j partant de l’état
transitoire i est donnée par l’élément bij de la matrice
B = NR = (I Q) 1
R.
Preuve. La probabilité cherchée est
1
X
n=0
X
k transitoire
p
(n)
ik pkj
!
.
Or, p
(n)
ik = q
(n)
ik et pkj = rkj. Ainsi,
1
X
n=0
X
k trans.
p
(n)
ik pkj
!
=
X
k trans.
1
X
n=0
q
(n)
ik
!
rkj =
X
k trans.
nikrkj = bij.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 46
Exemple : roulette française (suite)
La matrice des probabilités d’absorption de la chaı̂ne est
B = NR =
0
B
B
B
B
B
@
.855 .145
.702 .298
.54 .46
.37 .63
.19 .81
1
C
C
C
C
C
A
Votre probabilité de finir ruiné est donc de 0.54 et celle de doubler votre
mise de 0.46.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 47
Exemple : roulette française (suite)
La matrice des probabilités d’absorption de la chaı̂ne est
B = NR =
0
B
B
B
B
B
@
.855 .145
.702 .298
.54 .46
.37 .63
.19 .81
1
C
C
C
C
C
A
Votre probabilité de finir ruiné est donc de 0.54 et celle de doubler votre
mise de 0.46.
Remarque. À la roulette américaine, qui possède non seulement un 0 mais
également un 00, votre probabilité de ruine monte à 0.578 ! Pas con l’oncle
Sam !
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 47
Les chaı̂nes ergodiques (suite)
Une chaı̂ne de Markov à temps discret est ergodique si la distribution de ses
états converge vers une distribution stationnaire unique, qui est alors
indépendante de la distribution initiale de la chaı̂ne.
Les chaı̂nes irréductibles et apériodiques sont ergodiques mais ce ne sont
pas les seules.
En fait une chaı̂ne est ergodique si et seulement si
1) elle possède une seule classe persistante ;
2) ses états persistants sont apériodiques.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 48
Étude d’une chaı̂ne réductible
L’étude d’une chaı̂ne de Markov réductible se décompose en deux étapes.
1) Étude des classes persistantes
On applique les résultats obtenus pour les chaı̂nes irréductibles afin
de déterminer la période et la distribution stationnaire de chacune des
sous-chaı̂nes associées aux classes persistantes.
2) Étude des classes transitoires
On rend la chaı̂ne absorbante soit en contractant les classes persistantes
en un seul état, soit en rendant absorbants tous les états persistants.
On calcule ensuite les temps moyens avant absorption (donnés par la
matrice fondamentale N) et les probabilités d’absorption (données par
la matrice B = NR).
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 49
Analyse d’une chaı̂ne de Markov (résumé)
(1) Classification de la chaı̂ne et de ses états
I Déterminer les classes en calculant les composantes fortement
connexes du graphe représentatif G de la chaı̂ne.
I Construire le graphe réduit GR et en déduire les classes et les états
transitoires, persistants et absorbants.
I Déterminer si la chaı̂ne est irréductible ou non, absorbante ou, encore,
ergodique.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 50
Analyse d’une chaı̂ne de Markov (résumé)
(1) Classification de la chaı̂ne et de ses états
I Déterminer les classes en calculant les composantes fortement
connexes du graphe représentatif G de la chaı̂ne.
I Construire le graphe réduit GR et en déduire les classes et les états
transitoires, persistants et absorbants.
I Déterminer si la chaı̂ne est irréductible ou non, absorbante ou, encore,
ergodique.
(2) Étude des classes persistantes
Pour chaque classe persistante (si la classe est absorbante, les calculs
sont triviaux)
I Déterminer sa période en examinant les circuits de G.
I Calculer sa distribution stationnaire en résolvant ⇡P = ⇡ et ⇡1 = 1.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 50
(3) Étude des états transitoires
I Contracter les classes persistantes afin d’obtenir une chaı̂ne absor-
bante (cette transformation n’est pas nécessaire).
I Mettre la matrice de la chaı̂ne sous forme canonique.
I Calculer la matrice fondamentale N = (I Q) 1
et la matrice des
probabilités d’absorption B = NR.
J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 51

Contenu connexe

Tendances

Presentation pfe
Presentation pfePresentation pfe
Presentation pfezinebcher
 
Cour simulation ns2
Cour simulation ns2Cour simulation ns2
Cour simulation ns2Gilles Samba
 
conception et réalisation d'une application de gestion des rapports téléphoni...
conception et réalisation d'une application de gestion des rapports téléphoni...conception et réalisation d'une application de gestion des rapports téléphoni...
conception et réalisation d'une application de gestion des rapports téléphoni...ismailbou
 
Remerciements
RemerciementsRemerciements
Remerciementspp
 
La declinaison des objectifs
La declinaison des objectifsLa declinaison des objectifs
La declinaison des objectifsfadwa-slh
 
Techniques et-methodes-calcul-integral-mr-anis-ben-ali
Techniques et-methodes-calcul-integral-mr-anis-ben-aliTechniques et-methodes-calcul-integral-mr-anis-ben-ali
Techniques et-methodes-calcul-integral-mr-anis-ben-alim.a bensaaoud
 
Deploiement du pare feu checkpoint gaia r77
Deploiement du pare feu checkpoint gaia r77Deploiement du pare feu checkpoint gaia r77
Deploiement du pare feu checkpoint gaia r77Mame Cheikh Ibra Niang
 
Chapitre 3 la recherche tabou
Chapitre 3 la recherche tabouChapitre 3 la recherche tabou
Chapitre 3 la recherche tabouAchraf Manaa
 
Système d’information décisionnel et la logistique
Système d’information décisionnel et la logistiqueSystème d’information décisionnel et la logistique
Système d’information décisionnel et la logistiqueMohamed El Merouani
 
Iso 9001 approche processus
Iso 9001 approche processusIso 9001 approche processus
Iso 9001 approche processusazfgr
 
Techniques du data mining
Techniques du data miningTechniques du data mining
Techniques du data miningDonia Hammami
 
Intelligence Politique, renseignement, influence et organisation de l'informa...
Intelligence Politique, renseignement, influence et organisation de l'informa...Intelligence Politique, renseignement, influence et organisation de l'informa...
Intelligence Politique, renseignement, influence et organisation de l'informa...Julien Garderon
 
Tableau de bord stratégique: Séminaire
Tableau de bord stratégique: SéminaireTableau de bord stratégique: Séminaire
Tableau de bord stratégique: SéminaireTSS
 
Alphorm.com Formation Hacking et Sécurité , avancé
Alphorm.com Formation Hacking et Sécurité , avancéAlphorm.com Formation Hacking et Sécurité , avancé
Alphorm.com Formation Hacking et Sécurité , avancéAlphorm
 
Les outils de base du Lean
Les outils de base du LeanLes outils de base du Lean
Les outils de base du LeanXL Groupe
 
Si RH m'était compté
Si RH m'était compté Si RH m'était compté
Si RH m'était compté RH TO YOU
 

Tendances (20)

Presentation pfe
Presentation pfePresentation pfe
Presentation pfe
 
Cour simulation ns2
Cour simulation ns2Cour simulation ns2
Cour simulation ns2
 
conception et réalisation d'une application de gestion des rapports téléphoni...
conception et réalisation d'une application de gestion des rapports téléphoni...conception et réalisation d'une application de gestion des rapports téléphoni...
conception et réalisation d'une application de gestion des rapports téléphoni...
 
Remerciements
RemerciementsRemerciements
Remerciements
 
Td2 pg2-corrige
Td2 pg2-corrigeTd2 pg2-corrige
Td2 pg2-corrige
 
Activité addie
Activité   addieActivité   addie
Activité addie
 
La declinaison des objectifs
La declinaison des objectifsLa declinaison des objectifs
La declinaison des objectifs
 
Techniques et-methodes-calcul-integral-mr-anis-ben-ali
Techniques et-methodes-calcul-integral-mr-anis-ben-aliTechniques et-methodes-calcul-integral-mr-anis-ben-ali
Techniques et-methodes-calcul-integral-mr-anis-ben-ali
 
Introduction au M.E.S
Introduction au M.E.SIntroduction au M.E.S
Introduction au M.E.S
 
Deploiement du pare feu checkpoint gaia r77
Deploiement du pare feu checkpoint gaia r77Deploiement du pare feu checkpoint gaia r77
Deploiement du pare feu checkpoint gaia r77
 
Rapprt de stage
Rapprt de stageRapprt de stage
Rapprt de stage
 
Chapitre 3 la recherche tabou
Chapitre 3 la recherche tabouChapitre 3 la recherche tabou
Chapitre 3 la recherche tabou
 
Système d’information décisionnel et la logistique
Système d’information décisionnel et la logistiqueSystème d’information décisionnel et la logistique
Système d’information décisionnel et la logistique
 
Iso 9001 approche processus
Iso 9001 approche processusIso 9001 approche processus
Iso 9001 approche processus
 
Techniques du data mining
Techniques du data miningTechniques du data mining
Techniques du data mining
 
Intelligence Politique, renseignement, influence et organisation de l'informa...
Intelligence Politique, renseignement, influence et organisation de l'informa...Intelligence Politique, renseignement, influence et organisation de l'informa...
Intelligence Politique, renseignement, influence et organisation de l'informa...
 
Tableau de bord stratégique: Séminaire
Tableau de bord stratégique: SéminaireTableau de bord stratégique: Séminaire
Tableau de bord stratégique: Séminaire
 
Alphorm.com Formation Hacking et Sécurité , avancé
Alphorm.com Formation Hacking et Sécurité , avancéAlphorm.com Formation Hacking et Sécurité , avancé
Alphorm.com Formation Hacking et Sécurité , avancé
 
Les outils de base du Lean
Les outils de base du LeanLes outils de base du Lean
Les outils de base du Lean
 
Si RH m'était compté
Si RH m'était compté Si RH m'était compté
Si RH m'était compté
 

Similaire à Chaines_Discretes-1.pdf

Chaînes de Markov et files d'attente
Chaînes de Markov et files d'attenteChaînes de Markov et files d'attente
Chaînes de Markov et files d'attenteGuillaume Matheron
 
Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012Florent Renucci
 
Cours_3_0910_2.pdf
Cours_3_0910_2.pdfCours_3_0910_2.pdf
Cours_3_0910_2.pdfSongSonfack
 
Hitting time for bessel processes and WOMS algorithm
Hitting time for bessel processes and WOMS algorithmHitting time for bessel processes and WOMS algorithm
Hitting time for bessel processes and WOMS algorithmVictor Bontemps
 
traitement de signal cours
traitement de signal cours traitement de signal cours
traitement de signal cours sarah Benmerzouk
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densiteManar Sefiane
 
Matlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both Ends
Matlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both EndsMatlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both Ends
Matlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both EndsAlexanderABANOBI
 
Chapitre 2 -Complexité des problèmes avec correction.pdf
Chapitre 2 -Complexité des problèmes avec correction.pdfChapitre 2 -Complexité des problèmes avec correction.pdf
Chapitre 2 -Complexité des problèmes avec correction.pdfMbarkiIsraa
 
Modélisation non paramétrique_Modèle_SCH (1).pptx
Modélisation non paramétrique_Modèle_SCH (1).pptxModélisation non paramétrique_Modèle_SCH (1).pptx
Modélisation non paramétrique_Modèle_SCH (1).pptxABDERRAHMANALAADSSI
 
Bsmf 1986 114 271 0
Bsmf 1986  114  271 0Bsmf 1986  114  271 0
Bsmf 1986 114 271 0guest80ec031
 
Bsmf 1986 114 271 0
Bsmf 1986  114  271 0Bsmf 1986  114  271 0
Bsmf 1986 114 271 0guest80ec031
 
Bsmf 1986 114 271 0
Bsmf 1986  114  271 0Bsmf 1986  114  271 0
Bsmf 1986 114 271 0guest80ec031
 
Modelisation systemes 1ddl
Modelisation systemes 1ddlModelisation systemes 1ddl
Modelisation systemes 1ddlMED MED
 
les processus VAR et SVAR
les processus VAR et SVAR  les processus VAR et SVAR
les processus VAR et SVAR Anissa ATMANI
 

Similaire à Chaines_Discretes-1.pdf (20)

Chaînes de Markov et files d'attente
Chaînes de Markov et files d'attenteChaînes de Markov et files d'attente
Chaînes de Markov et files d'attente
 
Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012
 
Cours_3_0910_2.pdf
Cours_3_0910_2.pdfCours_3_0910_2.pdf
Cours_3_0910_2.pdf
 
Cours_3_0910.pdf
Cours_3_0910.pdfCours_3_0910.pdf
Cours_3_0910.pdf
 
Hitting time for bessel processes and WOMS algorithm
Hitting time for bessel processes and WOMS algorithmHitting time for bessel processes and WOMS algorithm
Hitting time for bessel processes and WOMS algorithm
 
Ben Arous2
Ben Arous2Ben Arous2
Ben Arous2
 
traitement de signal cours
traitement de signal cours traitement de signal cours
traitement de signal cours
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densite
 
4e ds2-2012-2013
4e ds2-2012-20134e ds2-2012-2013
4e ds2-2012-2013
 
Matlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both Ends
Matlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both EndsMatlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both Ends
Matlab Static and Time-Based Analysis of a Homogenous Beam Fixed at Both Ends
 
Chapitre 2 -Complexité des problèmes avec correction.pdf
Chapitre 2 -Complexité des problèmes avec correction.pdfChapitre 2 -Complexité des problèmes avec correction.pdf
Chapitre 2 -Complexité des problèmes avec correction.pdf
 
Modélisation non paramétrique_Modèle_SCH (1).pptx
Modélisation non paramétrique_Modèle_SCH (1).pptxModélisation non paramétrique_Modèle_SCH (1).pptx
Modélisation non paramétrique_Modèle_SCH (1).pptx
 
Filedattentemarkov
FiledattentemarkovFiledattentemarkov
Filedattentemarkov
 
Bsmf 1986 114 271 0
Bsmf 1986  114  271 0Bsmf 1986  114  271 0
Bsmf 1986 114 271 0
 
Bsmf 1986 114 271 0
Bsmf 1986  114  271 0Bsmf 1986  114  271 0
Bsmf 1986 114 271 0
 
Bsmf 1986 114 271 0
Bsmf 1986  114  271 0Bsmf 1986  114  271 0
Bsmf 1986 114 271 0
 
Modelisation systemes 1ddl
Modelisation systemes 1ddlModelisation systemes 1ddl
Modelisation systemes 1ddl
 
005.pdf texte
005.pdf texte005.pdf texte
005.pdf texte
 
les processus VAR et SVAR
les processus VAR et SVAR  les processus VAR et SVAR
les processus VAR et SVAR
 
Echantillonage
EchantillonageEchantillonage
Echantillonage
 

Dernier

Sidonie au Japon . pptx Un film français
Sidonie    au   Japon  .  pptx  Un film françaisSidonie    au   Japon  .  pptx  Un film français
Sidonie au Japon . pptx Un film françaisTxaruka
 
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptxCopie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptxikospam0
 
Chapitre 2 du cours de JavaScript. Bon Cours
Chapitre 2 du cours de JavaScript. Bon CoursChapitre 2 du cours de JavaScript. Bon Cours
Chapitre 2 du cours de JavaScript. Bon Coursebenezerngoran
 
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...Technologia Formation
 
Formation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptxFormation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptxrajaakiass01
 
Cours Préparation à l’ISO 27001 version 2022.pdf
Cours Préparation à l’ISO 27001 version 2022.pdfCours Préparation à l’ISO 27001 version 2022.pdf
Cours Préparation à l’ISO 27001 version 2022.pdfssuserc72852
 
Boléro. pptx Film français réalisé par une femme.
Boléro.  pptx   Film   français   réalisé  par une  femme.Boléro.  pptx   Film   français   réalisé  par une  femme.
Boléro. pptx Film français réalisé par une femme.Txaruka
 
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...Nguyen Thanh Tu Collection
 
Apolonia, Apolonia.pptx Film documentaire
Apolonia, Apolonia.pptx         Film documentaireApolonia, Apolonia.pptx         Film documentaire
Apolonia, Apolonia.pptx Film documentaireTxaruka
 
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projetFormation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projetJeanYvesMoine
 
L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...
L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...
L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...Faga1939
 
Computer Parts in French - Les parties de l'ordinateur.pptx
Computer Parts in French - Les parties de l'ordinateur.pptxComputer Parts in French - Les parties de l'ordinateur.pptx
Computer Parts in French - Les parties de l'ordinateur.pptxRayane619450
 
L application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptxL application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptxhamzagame
 
La nouvelle femme . pptx Film français
La   nouvelle   femme  . pptx  Film françaisLa   nouvelle   femme  . pptx  Film français
La nouvelle femme . pptx Film françaisTxaruka
 
Les roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptxLes roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptxShinyaHilalYamanaka
 
Bilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdfBilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdfAmgdoulHatim
 
COURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdf
COURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdfCOURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdf
COURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdfabatanebureau
 
Cours ofppt du Trade-Marketing-Présentation.pdf
Cours ofppt du Trade-Marketing-Présentation.pdfCours ofppt du Trade-Marketing-Présentation.pdf
Cours ofppt du Trade-Marketing-Présentation.pdfachrafbrahimi1
 

Dernier (18)

Sidonie au Japon . pptx Un film français
Sidonie    au   Japon  .  pptx  Un film françaisSidonie    au   Japon  .  pptx  Un film français
Sidonie au Japon . pptx Un film français
 
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptxCopie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
 
Chapitre 2 du cours de JavaScript. Bon Cours
Chapitre 2 du cours de JavaScript. Bon CoursChapitre 2 du cours de JavaScript. Bon Cours
Chapitre 2 du cours de JavaScript. Bon Cours
 
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
 
Formation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptxFormation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptx
 
Cours Préparation à l’ISO 27001 version 2022.pdf
Cours Préparation à l’ISO 27001 version 2022.pdfCours Préparation à l’ISO 27001 version 2022.pdf
Cours Préparation à l’ISO 27001 version 2022.pdf
 
Boléro. pptx Film français réalisé par une femme.
Boléro.  pptx   Film   français   réalisé  par une  femme.Boléro.  pptx   Film   français   réalisé  par une  femme.
Boléro. pptx Film français réalisé par une femme.
 
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
 
Apolonia, Apolonia.pptx Film documentaire
Apolonia, Apolonia.pptx         Film documentaireApolonia, Apolonia.pptx         Film documentaire
Apolonia, Apolonia.pptx Film documentaire
 
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projetFormation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projet
 
L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...
L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...
L'ÉVOLUTION DE L'ÉDUCATION AU BRÉSIL À TRAVERS L'HISTOIRE ET LES EXIGENCES DE...
 
Computer Parts in French - Les parties de l'ordinateur.pptx
Computer Parts in French - Les parties de l'ordinateur.pptxComputer Parts in French - Les parties de l'ordinateur.pptx
Computer Parts in French - Les parties de l'ordinateur.pptx
 
L application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptxL application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptx
 
La nouvelle femme . pptx Film français
La   nouvelle   femme  . pptx  Film françaisLa   nouvelle   femme  . pptx  Film français
La nouvelle femme . pptx Film français
 
Les roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptxLes roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptx
 
Bilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdfBilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdf
 
COURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdf
COURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdfCOURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdf
COURS SVT 3 EME ANNEE COLLEGE 2EME SEM.pdf
 
Cours ofppt du Trade-Marketing-Présentation.pdf
Cours ofppt du Trade-Marketing-Présentation.pdfCours ofppt du Trade-Marketing-Présentation.pdf
Cours ofppt du Trade-Marketing-Présentation.pdf
 

Chaines_Discretes-1.pdf

  • 1. Recherche Opérationnelle Chaı̂nes de Markov finies et homogènes à temps discret Jean-François Hêche Institut de Mathématiques École Polytechnique Fédérale de Lausanne
  • 2. Les chaı̂nes de Markov finies et homogènes à temps discret • Les processus stochastiques : définition et classification • La propriété de Markov et les processus markoviens • Les chaı̂nes de Markov finies et homogènes à temps discret I Probabilités de transition et matrices de transition I Équations de Chapman-Kolmogorov I Graphes représentatifs et classification I Distribution initiale et comportement transitoire I Comportement asymptotique des chaı̂nes irréductibles I Comportement asymptotique des chaı̂nes absorbantes J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 1
  • 3. Les processus stochastiques Un processus stochastique {Xt, t 2 T} est une collection de variables aléatoires indexées par un paramètre t et définies sur un même espace de probabilités (⌦, F, P). Le paramètre t est généralement interprété comme le temps et appartient à un ensemble ordonné T. La variable Xt représente l’état du processus au temps t et l’ensemble de toutes les valeurs possibles pour cette variable est appelée l’espace des états du processus et sera noté S. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 2
  • 4. Classification Un processus stochastique dont l’ensemble des états S est fini ou dénombrable est appelé une chaı̂ne. Un processus est à temps continu lorsque l’ensemble T est non dénombrable. Le plus souvent, on aura alors T = R+ et le processus sera noté {Xt, t 0} ou {Xt}t 0. Un processus est à temps discret lorsque l’ensemble T est fini ou dénombrable. Le plus souvent, on aura alors T = Z+ et le processus sera noté {Xn, n = 0, 1, . . .} ou {Xn} 1 n=0. L’évolution d’un processus à temps discret est découpée en étapes ou périodes et le processus e↵ectue une transition (peut-être stationnaire) à chaque étape. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 3
  • 5. Trajectoires et historiques Tout évènement élémentaire ! 2 ⌦ définit une a↵ectation de valeurs à la variable d’état Xt = Xt(!) pour tout t 2 T (plusieurs ! pouvant définir la même a↵ectation). Ces valeurs représentent une évolution particulière du système appelée trajectoire ou réalisation. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 4
  • 6. Trajectoires et historiques Tout évènement élémentaire ! 2 ⌦ définit une a↵ectation de valeurs à la variable d’état Xt = Xt(!) pour tout t 2 T (plusieurs ! pouvant définir la même a↵ectation). Ces valeurs représentent une évolution particulière du système appelée trajectoire ou réalisation. Pour une trajectoire particulière, l’historique (ou histoire) du processus au temps t n’est rien d’autre que la suite {Xu, 0  u  t} des valeurs prises par la variable d’état Xt entre l’instant 0 (le début de l’évolution du processus) et l’instant t. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 4
  • 7. Trajectoires et historiques Tout évènement élémentaire ! 2 ⌦ définit une a↵ectation de valeurs à la variable d’état Xt = Xt(!) pour tout t 2 T (plusieurs ! pouvant définir la même a↵ectation). Ces valeurs représentent une évolution particulière du système appelée trajectoire ou réalisation. Pour une trajectoire particulière, l’historique (ou histoire) du processus au temps t n’est rien d’autre que la suite {Xu, 0  u  t} des valeurs prises par la variable d’état Xt entre l’instant 0 (le début de l’évolution du processus) et l’instant t. Pour t 2 T fixé, la fonction (de !) Xt = Xt(!) est une variable aléatoire représentant l’état du processus au temps t. Pour ! 2 ⌦ fixé, la fonction (de t) Xt = Xt(!) est une trajectoire ou réalisation du processus. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 4
  • 8. Exemple On lance un dé équilibré à 6 faces plusieurs fois et on définit la variable d’état Xn comme la di↵érence entre le nombre de résultats pairs et impairs après n lancés. La suite {Xn, n = 0, 1, . . .} est un processus stochastique à temps discret (on pose naturellement X0 = 0). L’espace des états de ce processus est S = Z. L’évènement ! = (3, 5, 2, 2, 6, . . .) définit la réalisation {Xn, n = 0, 1, . . .} = {0, 1, 2, 1, 0, 1, . . .} et les évènements ! = (2, 1, 2, 6, 2, . . .) et ! = (6, 5, 6, 4, 6, . . .) définissent la réalisation {Xn, n = 0, 1, . . .} = {0, 1, 0, 1, 2, 3, . . .}. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 5
  • 9. La propriété de Markov et les processus markoviens Un processus stochastique {Xt, t 0} défini sur un espace d’états S satisfait la propriété de Markov si, pour tout instant t 0 et tout sous-ensemble d’états I 2 S, il est vrai que P [Xt+ 2 I | Xu, 0  u  t] = P [Xt+ 2 I | Xt] 8 > 0. Un processus stochastique vérifiant la propriété précédente est appelé un processus de Markov ou processus markovien. En mots, un processus est markovien si, pour tout instant t, l’état courant Xt résume, à lui seul, tout l’historique du système susceptible d’influencer son évolution future. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 6
  • 10. Les chaı̂nes de Markov finies et homogènes à temps discret Une chaı̂ne de Markov à temps discret est un processus stochastique {Xn, n = 0, 1, . . .} à temps discret, défini sur un espace d’états dénombrable et vérifiant la propriété de Markov P [Xn = i | X0, . . . , Xn 1] = P [Xn = i | Xn 1] pour tout i 2 S et quel que soit n 1. Une chaı̂ne de Markov à temps discret est homogène (dans le temps) si, pour tout paire d’états (i, j) et tout instant n, P [Xn = j | Xn 1 = i] = P [Xn+k = j | Xn+k 1 = i] quel que soit k 0. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 7
  • 11. Hypothèse Dès à présent et pour le reste de ce chapitre, le terme chaı̂ne de Markov (CM) désignera (sauf mention contraire explicite) une chaı̂ne de Markov à temps discret, définie sur un ensemble d’états S fini et homogène dans le temps. Notons que les résultats que nous allons présenter s’appliquent le plus souvent tels quels aux chaı̂nes de Markov à temps discret, homogènes mais définies sur un espace d’états dénombrable (par exemple lorsque S = Z). Cette classe de processus comprend, cependant, des cas pathologiques nécessitant une analyse plus fine sans grand intérêt pour la plupart des applications pratiques. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 8
  • 12. Probabilités de transition et matrice de transition Pour une chaı̂ne de Markov homogène {Xn, n = 0, 1, . . .}, on a P [Xn = j | Xn 1 = i] = P [X1 = j | X0 = i] 8 n 1. On peut donc définir la probabilité de transition (en 1 étape) de i à j comme pij = P [X1 = j | X0 = i] 8 (i, j) 2 S2 . En mots, la probabilité pij est égale à la probabilité conditionnelle que le système se retrouve dans l’état j à l’étape suivante sachant qu’il se trouve actuellement dans l’état i. Si la chaı̂ne possède s = |S| états, les probabilités précédentes peuvent être rangées dans une matrice de transition P = (pij) de taille s ⇥ s dont les lignes et les colonnes sont indexées par les éléments de S. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 9
  • 13. Matrices stochastiques Une matrice carrée P = (pij) est stochastique si 1) ses éléments sont non négatifs : pij 0 pour tout i et j ; 2) la somme des éléments de chacune de ses lignes est égale à 1 : P j pij = 1 pour tout i. Propriété 1. Une matrice de transition est une matrice stochastique. Propriété 2. Soit P une matrice stochastique de taille s finie, alors toute puissance P m , m 0, de P est une matrice stochastique. Preuve. Par induction, le résultat est vrai pour m = 0 (P 0 = I pour tout P carrée) et m = 1. Pour m 1, on a (P m )ij 0, 8 i, j et, 8 i, X j (P m )ij = X j X k P m 1 ik pkj = X k h P m 1 ik X j pkj i = 1. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 10
  • 14. Probabilités de transition en m étapes La probabilité conditionnelle d’aller de i à j en m étapes exactement est p (m) ij = P [Xm = j | X0 = i] = P [Xn+m = j | Xn = i] 8 n 1. Cette probabilité est indépendante de n car le processus est homogène et est appelée la probabilité de transition en m étapes de i à j. La matrice P (m) dont l’élément (i, j) est égal à p (m) ij est appelée la matrice de transition en m étapes. Remarque. On a évidemment p (1) ij = pij et P (1) = P . Convention. On adoptera la convention naturelle P (0) = I, c.-à-d. p (0) ij = ij = ⇢ 1 si i = j 0 si i 6= j. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 11
  • 15. Théorème 1. Pour tout m 0, la probabilité p (m) ij de transition de i à j en m étapes est donnée par l’élément (i, j) de la matrice P m . Sous forme matricielle ce résultat s’écrit : P (m) = P m , pour tout m 0. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 12
  • 16. Théorème 1. Pour tout m 0, la probabilité p (m) ij de transition de i à j en m étapes est donnée par l’élément (i, j) de la matrice P m . Sous forme matricielle ce résultat s’écrit : P (m) = P m , pour tout m 0. Preuve. Le résultat est vrai pour m = 0 et 1. Supposons-le vrai pour m 1. Utilisant la loi des probabilités totales, nous obtenons, pour tout i, j 2 S, p (m) ij = P [Xm = j | X0 = i] = X k2S P [Xm = j | Xm 1 = k] P [Xm 1 = k | X0 = i] = X k2S p (1) kj p (m 1) ik = X k2S p (m 1) ik pkj = X k2S P m 1 ik (P )kj = (P m )ij . J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 12
  • 17. Équations de Chapman-Kolmogorov Corollaire 1. Soit P (n) , n 0, la matrice de transition en n étapes d’une chaı̂ne de Markov. Alors pour tout entier non négatif l et m P (l+m) = P (l) P (m) ce qui sous forme développée s’écrit p (l+m) ij = X k2S p (l) ik p (m) kj 8 i, j 2 S. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 13
  • 18. Graphes représentatifs La matrice de transition P d’une chaı̂ne de Markov peut être représentée par un graphe orienté G = (V, E) dont les sommets correspondent aux états de la chaı̂ne et où un arc relie les sommets associés aux états i et j si la probabilité de transition de i à j est positive, c.-à-d. si pij > 0. Le graphe ainsi défini est appelé le graphe représentatif, ou graphe de transition, de la chaı̂ne de Markov. Remarque. Les sommets du graphe représentatif G d’une chaı̂ne étant en bijection avec les états de cette dernière, nous parlerons souvent de l’état i de G tout en gardant à l’esprit qu’une telle expression désigne, en fait, le sommet de G associé à l’état i. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 14
  • 19. Exemple Matrice de transition P Graphe représentatif G 0 B B B B B @ 1 0 0 0 0 1/3 1/6 1/4 1/4 0 0 1/2 0 0 1/2 0 0 0 0 1 0 0 0 1 0 1 C C C C C A 1 4 3 2 5 1/6 1/2 1/2 1/4 1 1 1 1/4 1/3 Remarque. L’ensemble des états de la chaı̂ne est S = {1, 2, 3, 4, 5}. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 15
  • 20. Classes et graphe réduit Soit P la matrice de transition d’une chaı̂ne de Markov et G = (V, E) le graphe représentatif de P . L’état j est accessible depuis l’état i s’il existe, dans G, au moins un chemin de i à j. Remarque. Tout état j est accessible depuis lui-même. Propriété 3. L’état j est accessible depuis l’état i si et seulement s’il existe n 0 tel que p (n) ij > 0. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 16
  • 21. Classes et graphe réduit Soit P la matrice de transition d’une chaı̂ne de Markov et G = (V, E) le graphe représentatif de P . L’état j est accessible depuis l’état i s’il existe, dans G, au moins un chemin de i à j. Remarque. Tout état j est accessible depuis lui-même. Propriété 3. L’état j est accessible depuis l’état i si et seulement s’il existe n 0 tel que p (n) ij > 0. Les états i et j communiquent s’ils sont accessibles l’un à partir de l’autre. Propriété 4. Les états i et j communiquent si et seulement s’il existe n 0 et m 0 tels que p (n) ij > 0 et p (m) ji > 0. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 16
  • 22. La relation « i et j communiquent » est une relation d’équivalence dont les classes correspondent aux composantes fortement connexes de G. Ainsi, les états i et j communiquent si et seulement s’ils appartiennent à la même composante fortement connexe de G. Les classes de la chaı̂ne correspondent aux composantes fortement connexes de G. Si C1, . . . , Cr dénotent les classes d’une chaı̂ne de Markov, le graphe réduit GR de la chaı̂ne est obtenu en associant un sommet à chaque classe Ci et en reliant les sommets u et v par un arc (u, v) s’il existe i 2 Cu et j 2 Cv avec pij > 0. Propriété 5. Le graphe réduit GR d’une chaı̂ne de Markov est un graphe sans circuit. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 17
  • 23. Exemple Pour la chaı̂ne de Markov de l’exemple précédent, on a 1 4 3 2 5 1/6 1/2 1/2 1/4 1 1 1 1/4 1/3 Graphe représentatif J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 18
  • 24. Exemple Pour la chaı̂ne de Markov de l’exemple précédent, on a 1 4 3 2 5 1/6 1/2 1/2 1/4 1 1 1 1/4 1/3 Graphe représentatif C2 C3 C1 Graphe réduit C1 C2 C3 J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 18
  • 25. Classification des classes et des états Une classe est persistante si elle correspond à un sommet sans successeur de GR. Si tel n’est pas le cas, la classe est transitoire. Les états d’une classe persistante sont persistants ou récurrents et ceux d’une classe transitoire sont transitoires. Une classe persistante composée d’un seul état est absorbante et un état est absorbant s’il forme, à lui seul, une classe persistante. Propriété 6. L’état i est absorbant si et seulement si pii = 1 (on a alors pij = 0, 8 j 6= i). J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 19
  • 26. Classification des chaı̂nes Une chaı̂ne de Markov est irréductible si elle ne compte qu’une seule classe. Dans le cas contraire, elle est réductible. Propriété 7. Une chaı̂ne de Markov est irréductible si et seulement si son graphe représentatif est fortement connexe. Propriété 8. Une chaı̂ne de Markov est irréductible si et seulement si toutes ses paires d’états communiquent. Une chaı̂ne de Markov est absorbante si tous ses états persistants le sont. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 20
  • 27. Période La période d de l’état i d’une chaı̂ne de Markov est égale au plus grand commun diviseur de tous les n pour lesquels p (n) ii > 0. L’état i est périodique lorsque d > 1 et apériodique lorsque d = 1. Propriété 9. L’état i a période d si et seulement si d est le plus grand commun diviseur des longueurs des circuits (pas forcément élémentaires) du graphe représentatif G passant par i. Propriété 10. Si pii > 0, l’état i est apériodique. Théorème 2. Les états d’une classe ont tous la même période. La période étant une propriété de classe, on parlera de classes périodiques / apériodiques et de chaı̂nes de Markov irréductibles périodiques / apériodiques selon les propriétés de leurs états. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 21
  • 28. Distribution des états d’une chaı̂ne La distribution des états d’une chaı̂ne de Markov après n transitions est notée ⇡(n) . Cette distribution est un vecteur de probabilités contenant la loi de la variable aléatoire Xn ⇡ (n) i = P[Xn = i] 8 i 2 S. La distribution ⇡(n) dépend de la matrice de transition P mais également de l’état dans lequel le processus a commencé son évolution. De manière générale, cet état est choisi selon une distribution initiale ⇡(0) . Remarque. Si l’état initial est connu avec certitude et est égal à i, on a simplement ⇡ (0) i = 1 et ⇡ (0) j = 0 pour tout j 6= i. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 22
  • 29. Comportement transitoire Théorème 3. Soit P la matrice de transition d’une chaı̂ne de Markov et ⇡(0) la distribution de son état initial. Pour tout n 1, on a ⇡(n) = ⇡(n 1) P et ⇡(n) = ⇡(0) P n . Preuve. Premièrement, on a, pour tout j 2 S, ⇡ (1) j = P[X1 = j] = X i2S P[X1 = j | X0 = i]P[X0 = i] = X i2S pij⇡ (0) i = X i2S ⇡ (0) i pij J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 23
  • 30. et ⇡(1) = ⇡(0) P . La chaı̂ne étant homogène, on obtient immédiatement le premier résultat ⇡(n) = ⇡(n 1) P 8 n 1. Pour démontrer le second il suffit de résoudre l’équation de récurrence précédente par substitution. ⇤ J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 24
  • 31. Comportement asymptotique L’étude du comportement à long terme d’une chaı̂ne de Markov cherche à répondre à des questions aussi diverses que • la distribution ⇡(n) converge-t-elle lorsque n ! 1 ? • si la distribution ⇡(n) converge lorsque n ! 1, quelle est la limite ⇡⇤ et cette limite est-elle indépendante de la distribution initiale ⇡(0) ? • si l’état i est persistant, quelle est la proportion du temps passé dans cet état et quel est le nombre moyen de transitions entre deux visites successives de cet état ? • si l’état i est transitoire, quel est le nombre moyen de visites de cet état ? J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 25
  • 32. Distribution invariante Une distribution ⇡ est invariante ou stationnaire si ⇡ = ⇡P . Propriété 11. Si limn!1 ⇡(n) existe, alors la limite est une distribution invariante. Les deux résultats suivants sont cités sans preuve. Théorème 4. Une chaı̂ne de Markov possède toujours au moins une distri- bution invariante. Théorème 5. Une chaı̂ne de Markov possède autant de distributions inva- riantes linéairement indépendantes que la multiplicité de la valeur propre 1 de sa matrice de transition. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 26
  • 33. Théorème 6. La distribution ⇡(n) des états d’une chaı̂ne de Markov converge vers une distribution (invariante) ⇡⇤ indépendante de la distri- bution initiale ⇡(0) si et seulement si la suite des puissances de la matrice de transition P de la chaı̂ne converge vers une matrice (stochastique) P ⇤ dont toutes les lignes sont égales entre elles. De plus, si tel est le cas, chaque ligne de P ⇤ est égale à ⇡⇤ . Preuve. La condition est nécessaire car si, indépendamment de ⇡(0) , limn!1 ⇡(n) = ⇡⇤ , il suffit de considérer successivement les distributions initiales ⇡1 = (1 0 . . . 0 ) . . . ⇡s = (0 . . . 0 1) pour obtenir ⇡⇤ = lim n!1 ⇡(n) = lim n!1 ⇡iP n = lim n!1 (P n )i = (P ⇤ )i . Ainsi P ⇤ existe et toutes ses lignes sont égales à ⇡⇤ . J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 27
  • 34. La condition est suffisante. Si P ⇤ existe et si p⇤ ij = p⇤ j pour tout i 2 S, on a lim n!1 ⇡(n) = lim n!1 ⇡(0) P n = ⇡(0) lim n!1 P n = ⇡(0) P ⇤ et la limite ⇡⇤ existe. De plus ⇡⇤ j = X i2S ⇡ (0) i p⇤ ij = X i2S ⇡ (0) i p⇤ j = p⇤ j X i2S ⇡ (0) i = p⇤ j et ⇡⇤ est indépendante de ⇡(0) et identique à n’importe quelle ligne de P ⇤ . ⇤ Remarque. Si ⇡⇤ = limn!1 ⇡n , on parlera de distribution asymptotique, stationnaire ou invariante. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 28
  • 35. Les chaı̂nes irréductibles et apériodiques Le théorème suivant résume le comportement asymptotique des chaı̂nes irréductibles et apériodiques. Théorème 7. Soit P la matrice de transition d’une chaı̂ne irréductible et apériodique. Les propriétés suivantes sont vérifiées. • La matrice P n tend vers une matrice stochastique P ⇤ lorsque n tend vers l’infini. • Les lignes de P ⇤ sont toutes égales entre elles. • p⇤ ij > 0 pour tout i, j 2 S. • Pour toute distribution initiale ⇡(0) , lim n!1 ⇡(n) = lim n!1 ⇡(0) P n = ⇡⇤ . J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 29
  • 36. • ⇡⇤ est la solution unique du système ⇢ ⇡P = ⇡ ⇡1 = 1. • ⇡⇤ est égal à n’importe quelle ligne de la matrice P ⇤ . • Pour tout i 2 S, ⇡⇤ i = 1 µi où µi est l’espérance du nombre de transitions entre deux visites successives de l’état i. Remarque. Pour n suffisamment grand, on a ⇡(n) ' ⇡⇤ et ⇡⇤ i « est » la probabilité que la chaı̂ne se trouve dans l’état i à un instant quelconque. Cette valeur représente aussi la proportion du temps passé dans l’état i. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 30
  • 37. Exemple Soit la chaı̂ne de Markov irréductible et apériodique définie par la matrice de transition P = 0 B @ 1/4 0 3/4 1/4 1/4 1/2 1/4 1/2 1/4 1 C A . L’unique solution du système ⇢ ⇡P = ⇡ ⇡1 = 1 est ⇡⇤ = (1/4 3/10 9/20) . Le processus passe donc, en moyenne, 30% du temps dans l’état 2 et il faut, en moyenne, 4 transitions entre deux visites successives de l’état 1. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 31
  • 38. Les chaı̂nes ergodiques Une chaı̂ne de Markov est ergodique si elle admet une distribution asymptotique, i.e. si limn!1 ⇡(n) existe, unique et indépendante de la distribution initiale. Propriété 12. Les chaı̂nes irréductibles et apériodiques sont ergodiques. Théorème 8. [Théorème ergodique] Soit {Xn, n = 0, 1, . . .} une chaı̂ne de Markov ergodique de distribution stationnaire ⇡⇤ et f une fonction réelle définie sur l’espace des états S de la chaı̂ne. Alors, lim n!1 1 n + 1 n X k=0 f(Xk) = X i2S ⇡⇤ i f(i) presque sûrement. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 32
  • 39. Les chaı̂nes irréductibles périodiques Lemme 1. Si une chaı̂ne de Markov a période d, l’ensemble S de ses états peut être divisé en d classes disjointes D0, D1, . . . , Dd 1 de manière à ce que chaque transition se fasse d’une classe Dk à la classe Dk+1, les indices étant pris modulo d. En (re-)numérotant de manière consécutive les états de chaque classe Dk, la matrice P d prend la forme P d = 0 B @ P 0 0 ... 0 P d 1 1 C A . Chaque matrice P i définit une chaı̂ne irréductible et apériodique sur l’ensemble des états de la classe Di. Une transition de la chaı̂ne associée à P i correspond à d transitions de la chaı̂ne initiale. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 33
  • 40. Convergence au sens de Cesàro Une suite {Xn, n = 1, 2, . . .} converge au sens de Cesàro vers X⇤ si lim n!1 1 n n X k=1 Xk = X⇤ . La convergence au sens de Cesàro est une convergence en moyenne contrairement à la définition ordinaire qui est une convergence en valeur. La convergence ordinaire implique la convergence au sens de Cesàro mais la réciproque est fausse. Contre-exemple. La suite {0, 1, 0, 1, 0, 1, . . .} converge vers 1 2 au sens de Cesàro. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 34
  • 41. Comportement asymptotique En remplaçant la convergence ordinaire par celle au sens de Cesàro, les chaı̂nes de Markov irréductibles présentent toutes les mêmes propriétés asymptotiques, indépendamment de leur période. En particulier, la suite des puissances de P converge en moyenne vers une matrice stochastique P ⇤ ayant toutes ses lignes égales. De même, la suite des distributions ⇡(n) converge, au sens de Cesàro, vers une distribution ⇡⇤ , unique et indépendante de la distribution initiale ⇡(0) . De plus ⇡⇤ est égal à n’importe quelle ligne de P ⇤ . Remarque. Si la chaı̂ne a période d, chaque matrice P i définit une chaı̂ne ergodique possédant une distribution stationnaire unique ⇡⇤ i . On a alors ⇡⇤ “=” 1 d (⇡⇤ 0 “+” . . . “+” ⇡⇤ d 1). J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 35
  • 42. Les chaı̂nes réductibles Théorème 9. Pour tout état initial i, la probabilité de se retrouver dans un état persistant à l’étape n tend vers 1 lorsque n tend vers l’infini. Preuve. Soit pi(m) = P[Xm transitoire | X0 = i]. Si s = |S|, on a pi(s) < 1 pour tout i 2 S car il est possible d’atteindre un état persistant en au plus s transitions depuis n’importe quel état initial. Ainsi p = max i2S (pi(s)) < 1 et, pour tout i 2 S, pi(2s) = X j transitoire p (s) ij pj(s)  X j transitoire p (s) ij p = pi(s)p  p2 . Ainsi pi(ks)  pk et limk!1 pi(ks) = 0. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 36
  • 43. D’autre part, pour tout n 0, pi(n + 1) = X j trans. p (n+1) ij = X j,k trans. p (n) ik pkj = X k trans. p (n) ik 0 @ X j trans. pkj 1 A  pi(n) ce qui permet de conclure que limn!1 pi(n) = 0. ⇤ Corollaire 2. limn!1 p (n) ij = 0 pour tout j transitoire, quel que soit i. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 37
  • 44. Forme canonique La matrice de transition d’une chaı̂ne de Markov réductible est sous forme canonique si 1. les sommets d’une classe (persistante) sont numérotés consécutivement ; 2. les sommets persistants sont numérotés en premier. Si une chaı̂ne a k classes persistantes, sa matrice sous forme canonique ressemble à P = 0 B B B @ P1 0 0 ... . . . 0 Pk 0 R1 · · · Rk Q 1 C C C A . J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 38
  • 45. Chaque sous-matrice P i définit une chaı̂ne de Markov irréductible sur l’ensemble des états de la classe persistante Ci. Remarque. Pour obtenir une matrice de transition sous forme canonique, il est important de numéroter consécutivement les états de chaque classe persistante. La matrice de transition, sous forme canonique, d’une chaı̂ne absorbante est P = I 0 R Q ! . J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 39
  • 46. Matrice fondamentale Lemme 2. Soit Q telle que limn!1 Qn = 0, alors (I Q) 1 = I + Q + Q2 + . . . = 1 X n=0 Qn . Preuve. On va utiliser l’identité (I Q)(I + Q + Q2 + . . . + Qn 1 ) = I Qn . 1. On a limn!1(I Qn ) = I et, par linéarité du déterminant, limn!1 det(I Qn ) = det(I) = 1. 2. det(A) étant une fonction continue des éléments de A, 9 m t.q. 8 n m, det(I Qn ) > 0 et (I Q) 1 existe. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 40
  • 47. 3. limn!1(I Q)(I + Q + Q2 + . . . + Qn 1 ) = limn!1(I Qn ) = I et (I Q) 1 = P1 n=0 Qn . ⇤ Corollaire 3. Soit P la matrice de transition, sous forme canonique, d’une chaı̂ne de Markov absorbante. Alors, lim n!1 P n = lim n!1 I 0 Pn 1 k=0 Qk R Qn ! = I 0 (I Q) 1 R 0 ! . La matrice N = (I Q) 1 est appelée la matrice fondamentale de la chaı̂ne de Markov. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 41
  • 48. Temps avant absorption Théorème 10. Le nombre moyen de périodes séjournées dans l’état tran- sitoire j par une chaı̂ne de Markov débutant sont évolution dans l’état transitoire i est égal à l’élément nij de la matrice fondamentale N. Preuve. Posons Fj(Xn) = 1 si Xn = j et Fj(Xn) = 0 sinon. Le nombre de visites dans l’état j est 1 X n=0 Fj(Xn) et l’espérance cherchée est E " 1 X n=0 Fj(Xn) X0 = i # . J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 42
  • 49. Or, E " 1 X n=0 Fj(Xn) X0 = i # = 1 X n=0 E [Fj(Xn) | X0 = i] = 1 X n=0 p (n) ij = 1 X n=0 q (n) ij = nij. ⇤ Corollaire 4. Partant de l’état transitoire i, le nombre moyen de transitions avant d’atteindre un état absorbant (persistant) est égal à la somme des termes de la ie ligne de la matrice fondamentale N. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 43
  • 50. Exemple : roulette française Vous sentant en veine vous avez achetez 3 jetons et vous vous dirigez vers la table de roulette la plus proche. Votre stratégie est simple : vous misez un jeton à chaque jeu et ne sélectionnez que les chances simples (pair/impair, rouge/noir, manque/passe). De plus vous arrêtez de jouer dès que vous avez doublé votre mise initiale ou, mais cela n’arrivera évidemment pas, dès que vous êtes ruiné. Définissant Xn comme votre nombre de jeton après n jeux, la suite {Xn, n = 0, 1, . . .} est une chaı̂ne de Markov sur l’espace des états S = {0, 1, . . . , 6} Pour i = 1, . . . , 5, on a pi,i+1 = 18 37 et pi,i 1 = 19 37. Pour i = 0 ou 6, on a pii = 1. Ces deux états sont absorbants, les autres transitoires et la chaı̂ne est absorbante. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 44
  • 51. Pour l’ordre des états {0, 6, 1, 2, 3, 4, 5}, P est sous forme canonique P = 1 37 0 B B B B B B B B @ 37 0 0 0 0 0 0 0 37 0 0 0 0 0 19 0 0 18 0 0 0 0 0 19 0 18 0 0 0 0 0 19 0 18 0 0 0 0 0 19 0 18 0 18 0 0 0 19 0 1 C C C C C C C C A 0 6 1 2 3 4 5 J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 45
  • 52. Pour l’ordre des états {0, 6, 1, 2, 3, 4, 5}, P est sous forme canonique P = 1 37 0 B B B B B B B B @ 37 0 0 0 0 0 0 0 37 0 0 0 0 0 19 0 0 18 0 0 0 0 0 19 0 18 0 0 0 0 0 19 0 18 0 0 0 0 0 19 0 18 0 18 0 0 0 19 0 1 C C C C C C C C A 0 6 1 2 3 4 5 La matrice fondamentale de la chaı̂ne est N = (I Q) 1 = 0 B B B B @ 1.67 1.3 .945 .613 .298 1.37 2.66 1.94 1.26 .613 1.05 2.05 2.99 1.94 .945 .72 1.4 2.05 2.66 1.3 .37 .72 1.05 1.37 1.67 1 C C C C A et pour X0 = 3, le nombre moyen de jeux est 1.05 + 2.05 + 2.99 + 1.94 + .945 = 8.975. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 45
  • 53. Probabilités d’absorption Théorème 11. La probabilité d’être absorbé par l’état j partant de l’état transitoire i est donnée par l’élément bij de la matrice B = NR = (I Q) 1 R. Preuve. La probabilité cherchée est 1 X n=0 X k transitoire p (n) ik pkj ! . Or, p (n) ik = q (n) ik et pkj = rkj. Ainsi, 1 X n=0 X k trans. p (n) ik pkj ! = X k trans. 1 X n=0 q (n) ik ! rkj = X k trans. nikrkj = bij. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 46
  • 54. Exemple : roulette française (suite) La matrice des probabilités d’absorption de la chaı̂ne est B = NR = 0 B B B B B @ .855 .145 .702 .298 .54 .46 .37 .63 .19 .81 1 C C C C C A Votre probabilité de finir ruiné est donc de 0.54 et celle de doubler votre mise de 0.46. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 47
  • 55. Exemple : roulette française (suite) La matrice des probabilités d’absorption de la chaı̂ne est B = NR = 0 B B B B B @ .855 .145 .702 .298 .54 .46 .37 .63 .19 .81 1 C C C C C A Votre probabilité de finir ruiné est donc de 0.54 et celle de doubler votre mise de 0.46. Remarque. À la roulette américaine, qui possède non seulement un 0 mais également un 00, votre probabilité de ruine monte à 0.578 ! Pas con l’oncle Sam ! J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 47
  • 56. Les chaı̂nes ergodiques (suite) Une chaı̂ne de Markov à temps discret est ergodique si la distribution de ses états converge vers une distribution stationnaire unique, qui est alors indépendante de la distribution initiale de la chaı̂ne. Les chaı̂nes irréductibles et apériodiques sont ergodiques mais ce ne sont pas les seules. En fait une chaı̂ne est ergodique si et seulement si 1) elle possède une seule classe persistante ; 2) ses états persistants sont apériodiques. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 48
  • 57. Étude d’une chaı̂ne réductible L’étude d’une chaı̂ne de Markov réductible se décompose en deux étapes. 1) Étude des classes persistantes On applique les résultats obtenus pour les chaı̂nes irréductibles afin de déterminer la période et la distribution stationnaire de chacune des sous-chaı̂nes associées aux classes persistantes. 2) Étude des classes transitoires On rend la chaı̂ne absorbante soit en contractant les classes persistantes en un seul état, soit en rendant absorbants tous les états persistants. On calcule ensuite les temps moyens avant absorption (donnés par la matrice fondamentale N) et les probabilités d’absorption (données par la matrice B = NR). J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 49
  • 58. Analyse d’une chaı̂ne de Markov (résumé) (1) Classification de la chaı̂ne et de ses états I Déterminer les classes en calculant les composantes fortement connexes du graphe représentatif G de la chaı̂ne. I Construire le graphe réduit GR et en déduire les classes et les états transitoires, persistants et absorbants. I Déterminer si la chaı̂ne est irréductible ou non, absorbante ou, encore, ergodique. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 50
  • 59. Analyse d’une chaı̂ne de Markov (résumé) (1) Classification de la chaı̂ne et de ses états I Déterminer les classes en calculant les composantes fortement connexes du graphe représentatif G de la chaı̂ne. I Construire le graphe réduit GR et en déduire les classes et les états transitoires, persistants et absorbants. I Déterminer si la chaı̂ne est irréductible ou non, absorbante ou, encore, ergodique. (2) Étude des classes persistantes Pour chaque classe persistante (si la classe est absorbante, les calculs sont triviaux) I Déterminer sa période en examinant les circuits de G. I Calculer sa distribution stationnaire en résolvant ⇡P = ⇡ et ⇡1 = 1. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 50
  • 60. (3) Étude des états transitoires I Contracter les classes persistantes afin d’obtenir une chaı̂ne absor- bante (cette transformation n’est pas nécessaire). I Mettre la matrice de la chaı̂ne sous forme canonique. I Calculer la matrice fondamentale N = (I Q) 1 et la matrice des probabilités d’absorption B = NR. J.-F. Hêche, ROSO-EPFL Chaı̂nes de Markov à temps discret 51