Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Markov Cours de Lxcée PDF

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 17

Introduction aux

chaînes de Markov Lycée


pour les professeurs
Auteur : Raymond Moché

Table des matières


1 Introduction 1
1.1 Pourquoi ce papier ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Avertissement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Définition des chaînes de Markov 2


2.1 Généralités, vocabulaire et notations de base . . . . . . . . . . . . . . . . . . . . 2
2.2 Règle de multiplication des probabilités le long d’un chemin . . . . . . . . . . . 4
2.3 Chaîne de Markov et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Exemples de chaînes de Markov 7


3.1 Lois instantanées d’une chaîne de Markov . . . . . . . . . . . . . . . . . . . . . 7
3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4 Calcul des lois instantanées 10


4.1 Calcul matriciel de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Calcul à la main des lois L1 et L2 . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3 Transitions lointaines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

5 Quels problèmes résolvent les chaînes de Markov ? 14


5.1 Lois-limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

6 Solution des exercices 16

Mots-clefs : chaînes ou processus de Markov, espace des états, loi initiale, lois instantanées,
matrice de transition, matrice stochastique, probabilité de passage d’un état à un autre, état
absorbant, règle de multiplication des probabilités le long d’un chemin, temps d’arrêt, temps
de retour, temps d’atteinte.

1 Introduction
1.1 Pourquoi ce papier ?
Il est destiné aux professeurs de lycée à l’occasion de la rentrée 2012. En effet, en Spécialité
Mathématiques de la Terminale S, apparaissent, sans être nommées (sauf par exemple dans
[2], p. 51), des chaînes de Markov. Ce sujet, qui élargit considérablement le domaine des suites
de variables aléatoires indépendantes et équidistribuées, permet de traiter de très nombreux
nouveaux problèmes (par exemple des marches aléatoires ou le modèle de diffusion d’Ehrenfest)

1
au moyen notamment de simulations et de calcul matriciel. L’intérêt est donc double, en Calcul
des probabilités et en Algorithmique.

1.2 Notations
• X = (X0 , X1 , . . .) : chaîne de Markov
• P est la probabilité de l’espace de probabilité sur lequel les variables aléatoires X0 , X1 , . . .
sont définies.
• E = (1, 2, . . . , t) : espace ou ensemble des états de la chaîne de Markov
• i, j, i0 , i1 , . . . : états de la chaîne de Markov
• t : nombre d’états de la chaîne
• Ln : loi sur E de la variable aléatoire Xn , identifiée à Ln = (Ln (1), Ln (2), . . . , Ln (t))
• T = (p(i, j)) : matrice de transition de X
• p(i, j) : probabilité de passage de l’état i à l’état j
• p(n) (i, j), n > 2 : élément générique de la matrice T n
• n est habituellement l’instant présent du processus (par opposition au passé ou au futur).

1.3 Avertissement
En principe, cet exposé est facile. Les obscurités ou difficultés éventuelles ne sont pas né-
cessairement du fait de l’auteur. Il faut aussi tenir compte
3 du manque de connaissances supposé du lecteur. Par exemple, on ne peut pas parler
correctement de la loi d’une variable aléatoire car c’est une mesure. Le Calcul des proba-
bilités est basé sur l’intégrale de Lebesgue (voir par exemple [5]). Toute théorie restreinte
basée sur l’intégrale de Riemann, les sommes et les séries conduit à des difficultés insur-
montables, même au niveau de l’enseignement au lycée. On triche donc. Ci-dessus, on a
confondu Ln et Ln . C’est un moindre mal.
3 de l’ambigüité modélisation/mathématiques. Les chaînes de Markov sont des objets ma-
thématiques parfaitement définis. On les utilise comme modèle. Plaquer un modèle sur
un phénomène réel est plutôt un acte de foi. On peut être convaincu ou non. La distinc-
tion modélisation/mathématiques n’est pas toujours claire dans le papier car tout est
imbriqué.
3 de la lourdeur des notations et des conditionnements. Il est tentant d’oublier qu’on ne
peut conditionner que par un événement de probabilité > 0 car la théorie des chaînes de
Markov est connue : on sait que ça marche. Nous n’avons pas cédé à la tentation.

2 Définition des chaînes de Markov


2.1 Généralités, vocabulaire et notations de base
Définition 1 On appelle matrice stochastique toute matrice carrée T de réels > 0 dont la
somme des éléments sur chaque ligne vaut 1. 

Exemple 1  
0 1 0
 
T = 1/2 0 1/2  △
1/2 1/6 1/3

2
Les éléments d’une matrice stochastique appartiennent donc à l’intervalle [0, 1]. Il n’est pas très
utile de s’appesantir sur les matrices stochastiques en soi. Voici une propriété simple :

Exercice 1 Démontrer que toute les puissances d’une matrice stochastique sont des matrices
stochastiques. △

Solution : On démontrera que le produit de deux matrices stochastiques de même taille est
une matrice stochastique puis on fera une récurrence. 

Définition 2 Soit X = (X0 , X1 , . . . , Xn , . . .) une suite de variables aléatoires à valeurs dans


l’ensemble E = (1, 2, . . . , t). On dit que X est une chaîne de Markov d’espace des états E ,
de loi initiale L0 sur E et de matrice de transition T , T étant une matrice stochastique (t × t)
dont les coefficients seront notés p(· , · ) si
3 L0 est la loi suivie par X0 ,
3 quel que soit l’entier n > 0 et quels que soient les états i0 , i1 , . . . , in−1 , i et j tels que
P(X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) > 0,
P (Xn+1 = j/X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) = p(i, j).  (1)

• La condition P (X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) > 0 assure évidemment que la probabilité


conditionnelle (1) a bien un sens.
• p(i, j), élément générique de la matrice de transition T s’appelle probabilité de transition de
l’état i à l’état j. (2) nous dit que p(i, j) est une probabilité conditionnelle (si i est un état visité,
c’est à dire s’il existe un instant n tel que P (Xn = i) > 0, ce que l’on peut évidemment toujours
supposer). Ce n’est pas une probabilité sauf si l’on se réfère à la notion de loi conditionnelle.
La terminologie est trompeuse.
• On devrait évidemment se poser le problème de l’existence de tels objets mathématiques.
C’est trop difficile pour ce papier, voir [4], pp. 127-128 : Chaînes de Markov homogènes.
La propriété de Markov - égalité (1) - porte sur un conditionnement par l’instant présent (l’ins-
tant n) et tous les instants passés, s’il y en a (si n > 1). Voici une propriété de conditionnement
par l’instant présent seulement :

Théorème 1 Soit X une chaîne de Markov d’espace des états E , de loi initiale L0 sur E
et de matrice de transition T . Alors, quels que soient les états i, j et l’entier n > 0 tels que
P(Xn = i) > 0,
P (Xn+1 = j/Xn = i) = p(i, j).  (2)

Au lieu du théorème 1, nous allons plutôt démontrer le théorème plus général 2, dans lequel on
conditionne par le présent (l’instant n) et une partie quelconque du passé.

Théorème 2 Soit X une chaîne de Markov d’espace des états E , de loi initiale L0 sur E et de
matrice de transition T , n, n1 , (. . . , np , où p > 0, des instants tels) que 0 6 n1 < · · · < np < n,
i1 , . . . , ip, i des états tel que P Xn1 = i1 , . . . , Xnp = ip , Xn = i > 0. Alors,
( )
P Xn+1 = j/Xn1 = i1 , . . . , Xnp = ip , Xn = i = p(i, j).  (3)

Nous ferons dériver le théorème 2 de l’importante règle de multiplication des probabilités le


long d’un chemin.

3
2.2 Règle de multiplication des probabilités le long d’un chemin
Cette règle permet souvent d’éviter les conditionnements et leurs contraintes.

Théorème 3 Pour tout entier n > 0 et quels que soient les états i0 , i1 , . . . , in−1 , in ,

P (X0 = i0 , . . . , Xn = in ) = L0 (i0 )· p(i0 , i1 )· p(i1 , i2 ) · · · p(in−1 , in ). (4)

Si de plus P (X0 = i0 ) > 0,

P (X1 = i1 , . . . , Xn = in /X0 = i0 ) = p(i0 , i1 )· p(i1 , i2 ) · · · p(in−1 , in ). (5)

Plus généralement, pour tous entiers m > n > 0 et quels que soient les états in , in+1 , . . .,
im−1 , im ,

P (Xn = in , . . . , Xm = im ) = Ln (in )· p(in , in+1 )· p(in+1 , in+2 ) · · · p(im−1 , im ). (6)

Si de plus P (Xn = in ) > 0,

P (Xn+1 = in+1 , . . . , Xm = im /Xn = in ) = p(in , in+1 )· p(in+1 , in+2 ) · · · p(im−1 , im ).  (7)

Démonstration : Si n = 1, l’égalité

P (X0 = i0 , X1 = i1 ) = L0 (i0 )· p(i0 , i1 )

est trivialement vraie si L0 (i0 ) = P(X0 = i0 ) = 0 puisqu’alors le deuxième membre est nul ainsi
que le premier puisque

(X0 = i0 , X1 = i1 ) ⊆ (X0 = i0 ) ⇒ P (X0 = i0 , X1 = i1 ) 6 L0 (i0 ) ⇒ P (X0 = i0 , X1 = i1 ) = 0

Sinon, on peut conditionner et utiliser la propriété (2) :

P (X0 = i0 , X1 = i1 ) = P(X0 = i0 )· P (X1 = i1 /X0 = i0 ) = L0 (i0 )· p(i0 , i1 )

Supposons maintenant que pour un certain entier n > 1, on ait établi que pour toute suite
d’états i0 , . . . , in ,

P (X0 = i0 , . . . , Xn = in ) = L0 (i0 )· p(i0 , i1 )· p(i1 , i2 ) · · · p(in−1 , in )

Soit une suite quelconque d’états i0 , i1 , . . . , in+1 . Si P (X0 = i0 , . . . , Xn = in ) = 0, on démontre


comme précédemment que l’égalité

P (X0 = i0 , . . . , Xn+1 = in+1 ) = p(in , in+1 )· P (X0 = i0 , . . . , Xn = in ) (8)

est vérifiée. Sinon, en conditionnant par l’événement (X0 = i0 , . . . , Xn = in ), on retrouve de


nouveau (8). On peut ensuite appliquer l’hypothèse de récurrence et terminer cette récurrence.
(5) découle de la définition de la probabilité conditionnelle ; (6) et (7) se démontrent comme
(4) et (5). 

4
5 i2
;
;
;
p(i1 ,i2 ) ;
2 i1 ;
;
p(i0 ,i1 ) ;
;
;
;
i0 ;
;
;
;
in−1

∏n−1 p(in−1 ,in )


k=0 p(ik , ik+1 )


-i
n
• (4) montre que la probabilité de tout événement attaché à une chaîne de Markov est calcu-
lable à partir de sa loi initiale L0 et de sa matrice de transition T . Il suffit d’additionner les
probabilités des chemins qui composent cet événement, d’après l’additivité de la probabilité.
• (4) s’applique dans tous les cas, y compris s’il s’agit d’une chaîne de Markov dont l’état initial
n’est pas aléatoire (cas où L0 comprend un seul 1 et des 0 : c’est le cas de la souris de l’exemple
(2) où L0 = [1, 0, 0, 0]). Si le 1 se trouve en ième position, on obtiendra :
P (X1 = i1 , . . . , Xn = in ) = p(i, i1 )· p(i1 , i2 ) · · · p(in−1 , in )
Démonstration du théorème 2
( )
P Xn+1 = j/Xn1 = i1 , . . . , Xnp = ip , Xn = i
( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i, Xn+1 = j
=(1) ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i

P (X0 = j0 , . . . , Xn−1 = jn−1 , Xn = i, Xn+1 = j)
=(2) ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i

L0 (j0 )· p(j0 , j1 ) · · · p(jn−1 , i)· p(i, j)
=(3) ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i

P (X0 = j0 , . . . , Xn−1 = jn−1 , Xn = i)
=(4)
p(i, j)· ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i

=(5) p(i, j)
Justification du calcul :
• =(1) provient de la définition de la probabilité conditionnelle.
• Dans =(2) , le numérateur de la fraction précédente est remplacé par une sommation sur tous
les états j0 , . . . , jn−1 tels que( jn1 = i1 ,. . . , jnp = ip . Cette sommation provient
)
de l’additivité de
la probabilité, l’événement Xn1 = i1 , . . . , Xnp = ip , Xn = i, Xn+1 = j ayant été partitionné
selon les valeurs prises par ( les variables) aléatoires de la famille (X0 , . . . , Xn−1 ) qui n’appar-
tiennent pas à la famille Xn1 , . . . , Xnp .
• =(3) provient de la règle de multiplication des probabilités le long d’un chemin.

5
• =(4) résulte de la règle de multiplication.
• Enfin, pour obtenir =(5) , on remarque que (la somme dans =(4) est la somme ) des probabilités
des éléments d’une partition de l’événement Xj1 = i1 , . . . , Xjp = ip , Xn = i . 
Le théorème 1 se déduit du théorème 2 dans le cas p = 0.
Remarques sur la définition des chaînes de Marbov, vocabulaire
On peut supposer que les variables aléatoires X0 , X1 , X2 , . . . sont définies à partir d’une suite
d’expériences aléatoires.
• On verra d’après les exemples que ces expériences ne sont habituellement ni identiques ni
indépendantes. Ce n’est pas toujours vrai, voir la sous-section 2.3.
• La trajectoire ou le parcours de la chaîne lors d’une réalisation de la suite d’expériences est
la suite (i0 , i1 , . . .) des états visités, c’est à dire des valeurs prises par les variables aléatoires
X0 , X1 , . . .
• La propriété de Markov (1) est très forte. Normalement,
P (Xn+1 = j/X0 = i0 , . . . , Xn−1 = in−1 , Xn = i)
devrait dépendre de n, i0 , . . . , in−1 , i et j. En faisant l’hypothèse que cette quantité vaut p(i, j),
on impose qu’elle ne dépende que de i et de j, c’est à dire qu’elle dépende seulement de l’état
de la chaîne au présent et au futur immédiat.
• Par exemple, la probabilité que la chaîne aille en j à l’instant 3 sachant qu’elle est en i à
l’instant 2 est la même que la probabilité que la chaîne aille en j à l’instant 167 sachant qu’elle
est en i à l’instant 166. Ce qui s’est passé avant n’a pas d’importance. On exprime cette pro-
priété est disant que la chaîne est homogène.
• Un peu de poésie : on exprime habituellement le fait que

P (Xn+1 = j/X0 = i0 , . . . , Xn−1 = in−1 , Xn = i)

ne dépend pas de i0 , . . . , in−1 en disant que le futur du processus conditionné par son passé et
son présent ne dépend que de son présent.

Exercice 2 Soit X une chaîne de Markov d’espace des états E , de loi initiale L0 sur E et de
matrice de transition T . On observe la chaîne à partir d’un instant p > 0 donné, c’est à dire
que l’on considère la suite de variables aléatoires Y = (Y0 , Y1 , Y2 , . . .) définie par Y0 = Xp ,
Y1 = Xp+1 , Y2 = Xp+2 , . . . Démontrer que Y est une chaîne de Markov d’espace des états E ,
de loi initiale Lp et de matrice de transition T . △

2.3 Chaîne de Markov et indépendance


Les lycéens connaissent le cas d’une variable aléatoire X ne prenant qu’un nombre fini de
valeurs, définie à partir d’une expérience aléatoire que l’on répète indéfiniment, les répétitions
étant indépendantes les unes des autres. On est amené à considérer les variables aléatoires
X0 , X1 , . . . définies comme X à partir des expériences successives. La suite (Xn , n > 0), suite
de variables aléatoires indépendantes suivant la même loi, sera une chaîne de Markov très
particulière puisque l’on aura, si

6
P (X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) = P (X0 = i0 ) · · · P (Xn−1 = in−1 ) · P (Xn = i) > 0 :

P (X0 = i0 ) · · · P (Xn−1 = in−1 ) P (Xn = i) P (Xn+1 = j)


P(Xn+1 = j/X0 = i0 , . . . , Xn−1 = in−1 , Xn = i)=
P (X0 = i0 ) · · · P (Xn−1 = in−1 ) · P (Xn = i)
=P (Xn+1 = j)
=P (X1 = j) (9)
=P (X0 = j) (10)

puisque les variables aléatoires X0 , X1 , . . . sont indépendantes et équidistribuées. On voit que

∀i ∈ {1, 2, . . . , t}, (p(i, 1), p(i, 2), . . . , p(i, t)) = L0 = L1 = · · · (11)

Cela signifie que les lignes de la matrice de transition sont toutes égales à la loi commune des
variables aléatoires X0 , X1 , . . . .
Si X0 suit une loi différente (les autres hypothèses étant conservées), si la loi commune des
variables aléatoires X1 , X2 , . . . est notée L = (L(1), . . . , L(t)), les égalités ci-dessus restent
vraies sauf (10) et (11) (il faut retirer L0 ). (Xn , n > 0) est une chaîne de Markov dont l’espace
des états est E , dont la loi initiale est la loi de X0 et dont la matrice de transition est
 
L(1) L(2) . . . . . . . . . L(t)

 L(1) L(2) . . . . . . . . . L(t) 

 
 ... ... ... ... ... ... 
T =


 ... ... ... ... ... ...  
 
 ... ... ... ... ... ... 
L(1) L(2) . . . . . . . . . L(t)

Voir aussi la réciproque de l’exercice 1.


La notion de chaîne de Markov est plus générale que la notion de suite de variables aléatoires
indépendantes et équidistribuées. La théorie des chaînes de Markov résout des problèmes
qui échappe au cas indépendant équidistribué. Elle est une porte d’entrée à la théorie des
processus stochastiques. On verra qu’elle s’appuie fortement sur le calcul matriciel.

3 Exemples de chaînes de Markov


3.1 Lois instantanées d’une chaîne de Markov
On appelle ainsi les lois L0 , L1 , . . . , Ln , . . . des variables aléatoires X0 , X1 , . . . , Xn , . . .
Ce sont des lois sur E . On les confond avec les matrices-lignes Ln = (Ln (1), Ln (2), . . . , Ln (t)).

3.2 Exemples
Exemple 2 : Souris sans mémoire Une souris se déplace dans une cage comportant 4 com-
partiments : C1 , C2 , C3 et C4 , disposés selon le dessin ci-dessous :

7
On suppose que la souris se trouve dans le compartiment C1 à l’instant initial et qu’elle change
indéfiniment de compartiment de la manière suivante : lorsqu’elle se trouve dans un comparti-
1
ment ayant k portes, elle choisit au hasard l’une des portes (avec la probabilité ). Comment
k
peut-on modéliser ce jeu ? △

Modélisation du déplacement de la souris


On peut représenter le mouvement de la souris à l’aide d’un graphe :

E1

1
1/3


2Y r
1/2
24
1/3 E

1/3 1/2
1/2 1/2

 
3
Dans cet exemple, le graphe apporte peu. La matrice de transition T ci-dessous est aussi
parlante. Il est naturel de modéliser le parcours aléatoire de la souris par une chaîne de Markov
dont les états sont 1, 2, 3 et 4 (pour C1 , C2 , C3 et C4 ), de loi initiale

L0 = (1, 0, 0, 0) (12)

(parce que la souris se trouve dans la case C1 au début du jeu) et de matrice de transition
 
0 1 0 0
 
 1/3 0 1/3 1/3 
 
T =

.
 ▽ (13)
 0 1/2 0 1/2 
 
0 1/2 1/2 0

Cette modélisation est convaincante. Si à l’instant 0, la souris était placée au hasard dans la
cage, on remplacerait (12) par L0 = (1/4, 1/4, 1/4, 1/4). Cette nouvelle chaîne de Markov ne
serait pas radicalement différente de la précédente.
Il y a des limites de bon sens aux modélisations markoviennes : par exemple, si l’on
imagine que la souris est à la recherche d’un morceau de fromage et qu’elle a de la mémoire,

8
on ne pourra plus proposer un modèle qui impliquerait (1) parce que la souris ne retournerait
pas dans un compartiment où elle est déjà passée sans trouver de fromage. Intuitivement, dès
que l’on introduit de la mémoire dans un système, la propriété markovienne disparaît. Elle se
conserve quand même quand la mémoire est bornée (par exemple limitée à n − 1 et n − 2 quand
n désigne le présent). Il faut alors faire une théorie ad hoc.

Exercice 3 (voir la solution page 16) Modéliser le déplacement de la souris dans le cas suivant :
quelqu’un a placé un morceau de quiche lorraine dont elle raffole mais qui est empoisonné en
C4 . Si elle entre dans cette case, elle en mange et meurt instantanément. △

Si la chaîne atteint l’état 4, elle y reste. On dit que 4 est un état absorbant.
Voici maintenant un exemple très dégénéré de chaîne de Markov :

Exercice 4 Décrire le comportement de la chaîne X qui est modélisé par


 
0 1 0
 
 
E = (1, 2, 3), L0 = (1/3, 1/3, 1/3), 
T = 0 0 1 . △

 
1 0 0

Exemple 3 Marche aléatoire sur une pyramide (voir la suite à l’exemple 6)


Le terme marche aléatoire est assez vague. L’exemple 2 et l’exercice 3 sont des marches aléa-
toires, voir aussi les activités [7] et [11]. Typiquement, une particule se déplace sur un réseau.
À chaque nœud de ce réseau, elle choisit au hasard un chemin parmi ceux qui se présentent à
elle. Voici une marche aléatoire sur un tétraèdre ABCD. On peut coder les sommets 1 pour A,
2 pour B, etc. Quand la particule arrive à un sommet, elle ne peut y rester. Elle a le choix entre
3 arêtes (autrement dit, elle peut se diriger vers l’un des 3 autres sommets). Elle en choisit une
au hasard (avec la probabilité 1/3). T est la matrice de transition de cette marche aléatoire. On
traduit par un zéro le fait que la particule ne peut rester en un sommet (c’est à dire qu’elle peut
y rester avec la probabilité 0)
b
A

 
0 1/3 1/3 1/3
 1/3 0 1/3 1/3 
 
T = . △
B  1/3 1/3 0 1/3 
b
b
D
1/3 1/3 1/3 0

b
C

Exemple 4 Modèle de diffusion d’Ehrenfest (cf. [4], chapitre 20, pp. 274-276 ou [2], pp.
51-53).
Ce modèle a été conçu pour expliquer certains résultats expérimentaux qui semblaient para-
doxaux (cf. [12]). À l’origine, c’est un modèle d’échange de chaleur entre deux corps. T. et P.
Ehrenfest ont proposé l’interprétation suivante : dans une boîte à 2 compartiments se trouvent
N particules. À l’instant initial, il y a i0 particules dans le premier, N − i0 dans le second.
On tire une particule de la boîte au hasard et on la change de compartiment. On répète cette
manipulation à chaque instant suivant. L’état du système est décrit à l’instant n par Xn , va-
riable aléatoire du nombre de particules dans le premier compartiment à cet instant (on pourra
de même définir X0 si le nombre de particules dans le premier compartiment à l’instant initial

9
est lui-même aléatoire ; il faudra alors spécifier la loi L0 de X0 sur E = (0, 1, . . . , N )).
On se demande quel est l’état du système à l’instant n, en clair : quelle est la loi de Xn ?
Bien sûr, l’état du système à l’instant n+1 ne dépend que de son état à l’instant n. On modélise
par une chaîne de Markov. L’évolution du système peut être représentée par un graphe :
j/N 1−j/N
0
1 /1 (j − 1) o j / (j + 1) (N − 1) o 1
N
(parce que si à l’instant n, il y a j particules (1 6 j 6 N − 1) dans le premier compartiment, la
probabilité de tirer dans la boîte une particule de ce compartiment est j/N et qu’alors, à l’ins-
tant n + 1, il ne reste plus que j − 1 particules dans le premier compartiment) ou, de manière
équivalente, par la matrice de transition
 
0 1 0 0 0 0 0 0 0
 


1/N 0 1 − 1/N 0 0 0 0 0 0 

 0 2/N 0 1 − 2/N 0 0 0 0 0 
 
 ... ... ... 
 
T =


 △ (14)

 ··· ··· ··· ··· ··· ··· ··· ··· ··· 

 ... ... ... 
 
 

 0 0 0 0 0 0 1 − 1/N 0 1/N 
0 0 0 0 0 0 0 1 0

4 Calcul des lois instantanées


4.1 Calcul matriciel de lois
Théorème 4 Pour tout entier n > 1,

Ln = Ln−1 · T = L0 · T n .  (15)

Démonstration : Pour tout état j, l’événement (Xn = j) est évidemment la réunion des
événements deux à deux disjoints (Xn−1 = i, Xn = j), i ∈ E . Ln (j) est donc la somme


de leurs probabilités, qui se réduit à la somme notée ci-dessous sur les états i tels que
P (Xn−1 = i) > 0. Pour ces états, on peut conditionner par (Xn−1 = i) et écrire, d’après le
théorème 1,

P (Xn−1 = i, Xn = j) = P (Xn−1 = i)· P (Xn = j/Xn−1 = i) = P (Xn−1 = i)· p(i, j)

ce qui montre que, quel que soit l’état j :



Ln (j) = P (Xn−1 = i, Xn = j)
i∈E
∑∗
= P (Xn−1 = i)· p(i, j)

= Ln−1 (i)· p(i, j)
i∈E

On voit alors que le j ème élément de Ln est le j ème élément du produit matriciel Ln−1 · T , ce qui
prouve que
Ln = Ln−1 · T
En appliquant de nouveau cette égalité, on obtient :

Ln = Ln−1 · T = Ln−2 · T 2 = · · · = L1 · T n−1 = L0 · T n . 

10
Le calcul des lois instantanées d’une chaîne de Markov est donc ramené au calcul des puissances
de la matrice de transition. On a ainsi ramené un problème de Calcul des probabilités à un
calcul matriciel qui pourra être exécuté par un logiciel de calcul formel comme « Xcas » (cf. [6],
p. 23).
Remarquons que dans le courant de la démonstration, on a notamment vu passer le résultat
suivant :

Théorème 5 Pour tous entiers m et n tels que m > n > 0,

Lm = Ln · T m−n .  (16)

L’égalité (16) permet, si l’on connaît la loi de Xn , d’en déduire la loi de Xm . Il y a un cas
particulièrement simple :

Théorème 6 Si la chaîne de Markov part de l’état i, autrement dit si X0 = i (la variable


aléatoire X0 est constante et vaut i), pour tout entier n > 1, la loi de Xn est la ième ligne de la
matrice T n . 

Dans le cas général de la formule (16), on peut dire que Lm est le barycentre des lignes de T m−n
affectées des coefficients Ln (1), . . . , Ln (t).

4.2 Calcul à la main des lois L1 et L2


Exemple 5 On reprend l’exemple (2) en supposant que la souris est placée au hasard dans
l’un des 4 compartiments à l’instant 0, c’est à dire qu’on suppose que L0 = [1/4, 1/4, 1/4, 1/4].
Calculer L1 et L2 . △

On se limite aux lois L1 et L2 parce que c’est long. La bonne solution est évidemment d’utiliser
la formule (15).
Calcul de L1 On peut s’aider d’un graphe :
/2
y< 1
1
yyy
yy
yy
yy
5
lll 1
1/4
y
yyy lllll
yy
llll
1/3
y yy lll
y / 2 RlR /3
3E3E 1/4 RRRR 1/3
33EEE RR
33 EE 1/3 RR
33 EEE RRRR
RR)
33 1/4
33 EE 4
33 EE
EE
33 EE
3 EE
" /2
1/433 3 RRRRR 1/2
33 RRR
33 1/2 RR
33 RRRR
33 RR)
33 4
33
33

4 RRRRR 1/2 /2
RRR
1/2 RR
RRRR
RR)
3
En utilisant la règle de multiplication des probabilités le long d’un chemin et l’additivité de la
probabilité, on obtient la loi L1 que l’on peut résumer ainsi :

11
l5 1
lllll
l
ll
1/12
ll lll
RlEERR 1/2 /2
EERRRRR
1 2 3 4 EE
ou EE 5/24 RR
1/12 1/2 5/24 5/24 EE RRR
RR)
5/24E 3
EE
EE
EE
EE
E"
4

Calcul de L2
Compte-tenu de la règle de multiplication des probabilités le long d’un chemin, on peut partir
de L1 :
<1 1 /2
yy
yyy
y
yy
yy
5
lll 1
1/12
y
yyy lllll
yy
llll
1/3
y yy lll
y / 2 RlR /3
3E3E 1/2 RRRR 1/3
33EEE RR
33 EE 1/3 RR
33 EEE RRRR
RR)
33 5/24
33 EE 4
33 EE
EE
33 EE
3 EE
" /2
33
5/24 3 RRRRR 1/2
33 RRR
33 1/2 RR
33 RRRR
33 RR)
33 4
33
33

4 RRRRR 1/2 /2
RRR
1/2 RR
RRRR
RR)
3
ce qui donne les résumés suivants :
51
lllllll
l
ll 1/6
l llll
lRER /2
EERRRR 7/24
1 2 3 4 EE RR
ou EE 13/48R ▽
EE RRR
1/6 7/24 13/48 13/48 E RRR
)
13/48EE 3
EE
EE
EE
EE
"
4

4.3 Transitions lointaines


On notera p(n) (i, j) l’élément générique de la matrice T n pour tout entier n > 2 (pour n = 1,
on rappelle que l’élément générique de T a été noté plus simplement p(i, j)). On a vu que p(i, j)

12
est, non une probabilité, mais une probabilité conditionnelle. Il en est de même de p(n) (i, j).
n désignant toujours le présent, on va supposer que le futur m que nous allons considérer
vérifie m > n + 2. C’est un futur lointain et non plus un futur immédiat (m = n + 1), cas
envisagé jusqu’à maintenant. C’est pourquoi nous parlons de transitions lointaines. On peut
dire cela autrement : dans les conditionnements, ce n’est plus le présent qui va compter (sauf
si np = n ci-dessous), mais le passé le plus proche du futur considéré.
Théorème 7 Pour tous entiers 0 6 n1 < n2 < · · · < np , p > 2 et tous états i1 , i2 , . . . , ip ,
( )
P Xn1 = i1 , Xn2 = i2 , . . . , Xnp = ip = Ln1 (i1 )· p(n2−n1 ) (i1 , i2 ) · · · p(np−np−1 ) (ip−1 , ip ).  (17)

Démonstration du théorème 8 : Elle repose sur (6).


( )
P Xn1 = i1 , Xn2 = i2 , . . . , Xnp = ip
∑ ( )
=(1) P Xn1 = jn1 , . . . , Xnp −1 = jnp −1 , Xnp = jnp
jn1 ,...,jnp ∈E
jn1 =i1 ,...,jnp =ip

=(2) Ln1 (jn1 )· p(jn1 , jn1 +1 )· p(jn1 +1 , jn1 +2 ) · · · p(jnp −1 , jnp )
jn1 ,...,jnp ∈E
jn1 =i1 ,...,jnp =ip
 
 ∑ 
 
=(3) Ln1 (i1 )·  p(jn1 , jn1 +1 )· p(jn1 +1 , jn1 +2 ) · · · p(jnp−1 −1 , jnp−1 ) ×
 jn1 ,...,jnp−1 ∈E

jn1 =i1 ,...,jnp−1 =ip−1
 
 ∑ 
 
 p(jnp−1 , jnp−1 +1 ) · · · p(jnp −1 , jnp )
 jnp−1 ,...,jnp ∈E

jnp−1 =ip−1 , jnp =ip
 
 ∑ 
=(4) Ln1 (i1 )·
 p(jn1 , jn1+1 )· p(jn1+1 , jn1+2 ) · · · p(jnp−1−1 , jnp−1 )
 · p(np−np−1 ) (ip−1 , ip )
 jn1 ,...,jnp−1 ∈E

jn1 =i1 ,...,jnp−1 =ip−1

= ...
=(5)Ln1 (i1 )· p(n2 −n1 ) (i1 , i2 ) · · · p(np −np−1 ) (ip−1 , ip ) (18)

Justification du calcul :
• =(1) : on partitionne en tenant compte de tous les instants de n1 à np et on utilise l’additivité
de la probabilité. On obtient une sommation sur np − n1 + 1 indices dont p sont fixes.
• =(2) provient de (6).
• =(3) provient d’une mise en facteur. Ne pas oublier, dans tout ce calcul, que les états jn1 , jn2 ,
. . . , jnp−1 , jnp ne varient pas et sont égaux respectivement à i1 , i2 , . . . , ip−1 et ip .
• =(4) : on reconnaît, dans la deuxième somme de =(3) l’élément de la ip−1 ème ligne et de la ip ème
colonne de la matrice T np −np−1 . 
On en déduit facilement les corollaires suivants :
Théorème 8 Quels que soient (l’entier p > 1, les instants ) 0 6 n1 < n2 < · · · < np < m et les
états i1 , i2 , . . . , ip , j tels que P Xn1 = i1 , . . . , Xnp = ip > 0
( )
P Xm = j/Xn1 = i1 , . . . , Xnp = ip = p(m−np ) (ip , j)  (19)

Pour p = 1, on obtient :

13
Théorème 9 Pour tous entiers m, n > 0 tels que m > n + 2 et tous états i et j tels que
P (Xn = i) > 0,
P (Xm = j/Xn = i) = p(m−n) (i, j).  (20)

Le cas m = n + 1 avait fait l’objet du théorème 1. Le théorème 9 nous donne la signification


probabiliste des coefficients des puissances de la matrice de transition T .

5 Quels problèmes résolvent les chaînes de Markov ?


Les chaînes de Markov permettent de résoudre de nombreux problèmes qui se posent natu-
rellement. Le calcul des lois instantanées est l’un de ces problèmes, traité dans les sous-sections
4.1 et 4.2.

5.1 Lois-limites
Définition 3 Soit X une chaîne de Markov. On dit qu’elle a une loi-limite L∞ identifiée à
L∞ = [L∞ (1), L∞ (2), . . . , L∞ (t)] si

Ln −−−−→ L∞ (21)
n→+∞

autrement dit si pour i = 1, . . . , t,

Ln (i) −−−−→ L∞ (i) △ (22)


n→+∞

Remarques :
• On voit que la convergence d’une suite de matrices utilisée dans cette définition est la conver-
gence composante par composante.
• S’il y a une loi-limite, quand n est assez grand, on pourra dans la pratique confondre L∞ et
Ln .
• Si L∞ existe, d’après (16), plus précisément d’après Ln+1 = Ln · T , elle vérifie l’égalité

L∞ = L∞ · T (23)

(par passage à la limite), ce qui est un système de t équations linéaires à t inconnues.


• Si L0 = L∞ , d’après (15), L0 = L1 = . . . Cela signifie que la chaîne de Markov est une suite
de variables aléatoires équidistribuées. Sauf cas particulier, elles ne seront pas indépendantes.

Exemple 6 (Suite de l’exemple 3) On démontre dans [2], p. 19, que, quelle que soit la loi
initiale, les lois instantanées convergent vers la loi L∞ = [1/4, 1/4, 1/4, 1/4]. Il est intéressant
de noter que cette loi-limite ne dépend pas de la loi initiale (contrairement aux lois instantanées).
Si la particule est placée au hasard sur un sommet du tétraèdre à l’instant 0, les variables
aléatoires Xn , n > 0, suivront toutes la loi uniforme sur E . △

5.2 Temps d’arrêt


Soit X = (X0 , X1 , . . .) une chaîne de Markov (sous-entendu d’espace des états E , de loi
initiale L0 et de matrice de transition T ). On peut en général lui associer de nombreux temps
d’arrêt. Un temps d’arrêt esu une variable aléatoire dont les valeurs sont des instants : 0, 1, 2,
. . . et qui ne prennent la valeur n qu’en fonction du comportement de la chaîne jusqu’à l’instant

14
n. La définition exacte des temps d’arrêt demande des connaissances précises de mesurabilité.
Nous en donnons seulement des exemples ci-dessous.
Temps de retour à l’état initial : C’est la variable aléatoire R définie par

R = min (n, n > 1, Xn = X0 ) (24)

autrement dit, R est le premier instant de retour à l’état initial (s’il existe). R est définie sur

l’événement n>1 (Xn = X0 ). Cet événement peut être de probabilité < 1, éventuellement vide.
Temps d’atteinte : Soit E0 un sous-ensemble de E ni vide ni égal à E . Le temps d’atteinte
de E est la variable aléatoire A définie par

A = min (n, n > 0, Xn ∈ E ) (25)



A est définie sur l’événement n>0 (Xn ∈ E ) dont la probabilité peut être < 1. Il peut éventuel-
lement être vide.
E0 peut être une classe absorbante (éventuellement réduite à un état) : quand la particule
atteint E , elle ne peut plus en sortir. En voici un exemple :

Exemple 7 Soit X une chaîne de Markov de matrice de transition T représentée par le graphe
suivant :
5X

1/5

4/5 1/12


k
@ 2N

1/2

1/2

1/3  y
4 1/12

3/4 1/2
1

1/3

2/3

)  x
3X
1/4

E0 = (1, 2, 3) est une classe absorbante : si la particule (ou la souris ou . . . ) s’y trouve ou y
entre, elle n’en sortira plus.

15
Ce graphe apporte la même information que la matrice de transition T de la chaîne :
 
0 1/3 2/3 0 0
 
 1/2 0 1/2 0 0 
 
T =
 0 3/4 1/4 0 0 
 (26)
 
 0 1/2 1/3 1/12 1/12 
0 1/5 0 4/5 0

La présence d’une classe absorbante se traduit ici par un bloc de 6 zéros en haut à droite. Bien
sûr, si les états avaient été numérotés autrement, ce bloc pourrait être masqué. Ce bloc restera
tel quel dans T 2 , T 3 , . . . car on ne peut pas sortir de E0 en 2 coups, en 3 coups, . . . △

Dans l’exercice 3, l’état 4 est un état absorbant (mort de la souris) et le temps d’atteinte de E0
est simplement sa durée de vie.
Remarque sur la simulation de temps d’arrêt : Avant de simuler un temps d’arrêt,
démontrer qu’il est défini avec probabilité 1 ; sinon, être prêt à utiliser la touche d’interruption
du calcul !
Voici un autre temps d’arrêt :

Exemple 8 (Suite de l’exemple 3) On peut appeler V la variable aléatoire égale au premier


instant où la particule a visité tous les sommets de la pyramide. Démontrer qu’elle est définie
avec probabilité 1, trouver sa loi, ses moyenne et variance, etc. △

6 Solution des exercices


Solution de l’exercice 3
On modifiera comme suit le graphe et la matrice de transition de l’exemple 2 :

 
1H 0 1 0 0
 
1  1/3 0 1/3 1/3 

1/3  
34
y T =

.
 ▽ (27)
2V 1/3 H 1  0 1/2 0 1/2 
1/3  
1/2

1/2 0 0 0 1
3

Références
[1] B.O. spécial n˚8 du 13 octobre 2011. Programme de l’enseignement spécifique et de
spécialité de mathématiques Classe terminale de la série scientifique
http://media.education.gouv.fr/file/special_8_men/98/4/mathematiques_S_
195984.pdf
[2] Ressources pour la classe terminale générale et technologique Mathématiques Série S
Enseignement de spécialité
http://media.eduscol.education.fr/file/Mathematiques/62/6/ressource_
specialite_v5_210626.pdf
[3] William Feller An Introduction to Probability Theory and its Applications, Volume 1,
3 rd Edition, Wiley, New York (1968), p.121 et pp.377-378.
[4] Dominique Foata et Aimé Fuchs Calcul des Probabilités, 2 ème édition, Dunod, Paris
(1998), pp.127-128 : chaînes de Markov homogènes.

16
[5] Olivier Garet et Aline Kurtzmannn De l’intégration aux probabilités, Ellipse, Paris
(2011).
[6] R. De Graeve, B. Parisse, B.Ycart Tutoriel Xcas
http://www-fourier.ujf-grenoble.fr/~parisse/giac/tutoriel.html
[7] Pierre Lapôtre La marche de l’ivrogne, activité, Première Algorithmique
http://gradus-ad-mathematicam.fr/Premiere_Algorithmique3.htm
[8] Pierre Lapôtre & Raymond Moché Marche aléatoire d’une souris, activité TS Spé
Maths.
http://gradus-ad-mathematicam.fr/TSSpecialiteMaths6.htm
La marche aléatoire de cette souris se modélise comme une chaîne de Markov à 4 états. À
l’aide de « Xcas », on calcule la loi Ln de l’état de la chaîne à l’instant n, on montre qu’il
y a une loi limite et on la calcule.
[9] Pierre Lapôtre & Raymond Moché Simulation de la marche aléatoire d’une souris,
activité TS Proba/Stat.
http://gradus-ad-mathematicam.fr/TSProbaStat3.htm
[10] Raymond Moché. La puce, marche aléatoire, activité Seconde
http://gradus-ad-mathematicam.fr/Seconde_SPA1.htm
[11] Raymond Moché. Marche aléatoire sur un tétraèdre, activité TS Spécialité Maths
http://gradus-ad-mathematicam.fr/TSSpecialite4.htm
[12] Wikipedia Modèle des urnes d’Ehrenfest
http://fr.wikipedia.org/wiki/Modèle_des_urnes_d%27Ehrenfest
[13] Wikipedia Andreï Markov
http://fr.wikipedia.org/wiki/Andreï_Markov_(mathématicien)
Le logo de l’exposé provient de cet article de Wikipedia.

17

Vous aimerez peut-être aussi