Markov Cours de Lxcée PDF
Markov Cours de Lxcée PDF
Markov Cours de Lxcée PDF
Mots-clefs : chaînes ou processus de Markov, espace des états, loi initiale, lois instantanées,
matrice de transition, matrice stochastique, probabilité de passage d’un état à un autre, état
absorbant, règle de multiplication des probabilités le long d’un chemin, temps d’arrêt, temps
de retour, temps d’atteinte.
1 Introduction
1.1 Pourquoi ce papier ?
Il est destiné aux professeurs de lycée à l’occasion de la rentrée 2012. En effet, en Spécialité
Mathématiques de la Terminale S, apparaissent, sans être nommées (sauf par exemple dans
[2], p. 51), des chaînes de Markov. Ce sujet, qui élargit considérablement le domaine des suites
de variables aléatoires indépendantes et équidistribuées, permet de traiter de très nombreux
nouveaux problèmes (par exemple des marches aléatoires ou le modèle de diffusion d’Ehrenfest)
1
au moyen notamment de simulations et de calcul matriciel. L’intérêt est donc double, en Calcul
des probabilités et en Algorithmique.
1.2 Notations
• X = (X0 , X1 , . . .) : chaîne de Markov
• P est la probabilité de l’espace de probabilité sur lequel les variables aléatoires X0 , X1 , . . .
sont définies.
• E = (1, 2, . . . , t) : espace ou ensemble des états de la chaîne de Markov
• i, j, i0 , i1 , . . . : états de la chaîne de Markov
• t : nombre d’états de la chaîne
• Ln : loi sur E de la variable aléatoire Xn , identifiée à Ln = (Ln (1), Ln (2), . . . , Ln (t))
• T = (p(i, j)) : matrice de transition de X
• p(i, j) : probabilité de passage de l’état i à l’état j
• p(n) (i, j), n > 2 : élément générique de la matrice T n
• n est habituellement l’instant présent du processus (par opposition au passé ou au futur).
1.3 Avertissement
En principe, cet exposé est facile. Les obscurités ou difficultés éventuelles ne sont pas né-
cessairement du fait de l’auteur. Il faut aussi tenir compte
3 du manque de connaissances supposé du lecteur. Par exemple, on ne peut pas parler
correctement de la loi d’une variable aléatoire car c’est une mesure. Le Calcul des proba-
bilités est basé sur l’intégrale de Lebesgue (voir par exemple [5]). Toute théorie restreinte
basée sur l’intégrale de Riemann, les sommes et les séries conduit à des difficultés insur-
montables, même au niveau de l’enseignement au lycée. On triche donc. Ci-dessus, on a
confondu Ln et Ln . C’est un moindre mal.
3 de l’ambigüité modélisation/mathématiques. Les chaînes de Markov sont des objets ma-
thématiques parfaitement définis. On les utilise comme modèle. Plaquer un modèle sur
un phénomène réel est plutôt un acte de foi. On peut être convaincu ou non. La distinc-
tion modélisation/mathématiques n’est pas toujours claire dans le papier car tout est
imbriqué.
3 de la lourdeur des notations et des conditionnements. Il est tentant d’oublier qu’on ne
peut conditionner que par un événement de probabilité > 0 car la théorie des chaînes de
Markov est connue : on sait que ça marche. Nous n’avons pas cédé à la tentation.
Exemple 1
0 1 0
T = 1/2 0 1/2 △
1/2 1/6 1/3
2
Les éléments d’une matrice stochastique appartiennent donc à l’intervalle [0, 1]. Il n’est pas très
utile de s’appesantir sur les matrices stochastiques en soi. Voici une propriété simple :
Exercice 1 Démontrer que toute les puissances d’une matrice stochastique sont des matrices
stochastiques. △
Solution : On démontrera que le produit de deux matrices stochastiques de même taille est
une matrice stochastique puis on fera une récurrence.
Théorème 1 Soit X une chaîne de Markov d’espace des états E , de loi initiale L0 sur E
et de matrice de transition T . Alors, quels que soient les états i, j et l’entier n > 0 tels que
P(Xn = i) > 0,
P (Xn+1 = j/Xn = i) = p(i, j). (2)
Au lieu du théorème 1, nous allons plutôt démontrer le théorème plus général 2, dans lequel on
conditionne par le présent (l’instant n) et une partie quelconque du passé.
Théorème 2 Soit X une chaîne de Markov d’espace des états E , de loi initiale L0 sur E et de
matrice de transition T , n, n1 , (. . . , np , où p > 0, des instants tels) que 0 6 n1 < · · · < np < n,
i1 , . . . , ip, i des états tel que P Xn1 = i1 , . . . , Xnp = ip , Xn = i > 0. Alors,
( )
P Xn+1 = j/Xn1 = i1 , . . . , Xnp = ip , Xn = i = p(i, j). (3)
3
2.2 Règle de multiplication des probabilités le long d’un chemin
Cette règle permet souvent d’éviter les conditionnements et leurs contraintes.
Théorème 3 Pour tout entier n > 0 et quels que soient les états i0 , i1 , . . . , in−1 , in ,
Plus généralement, pour tous entiers m > n > 0 et quels que soient les états in , in+1 , . . .,
im−1 , im ,
Démonstration : Si n = 1, l’égalité
est trivialement vraie si L0 (i0 ) = P(X0 = i0 ) = 0 puisqu’alors le deuxième membre est nul ainsi
que le premier puisque
Supposons maintenant que pour un certain entier n > 1, on ait établi que pour toute suite
d’états i0 , . . . , in ,
4
5 i2
;
;
;
p(i1 ,i2 ) ;
2 i1 ;
;
p(i0 ,i1 ) ;
;
;
;
i0 ;
;
;
;
in−1
-i
n
• (4) montre que la probabilité de tout événement attaché à une chaîne de Markov est calcu-
lable à partir de sa loi initiale L0 et de sa matrice de transition T . Il suffit d’additionner les
probabilités des chemins qui composent cet événement, d’après l’additivité de la probabilité.
• (4) s’applique dans tous les cas, y compris s’il s’agit d’une chaîne de Markov dont l’état initial
n’est pas aléatoire (cas où L0 comprend un seul 1 et des 0 : c’est le cas de la souris de l’exemple
(2) où L0 = [1, 0, 0, 0]). Si le 1 se trouve en ième position, on obtiendra :
P (X1 = i1 , . . . , Xn = in ) = p(i, i1 )· p(i1 , i2 ) · · · p(in−1 , in )
Démonstration du théorème 2
( )
P Xn+1 = j/Xn1 = i1 , . . . , Xnp = ip , Xn = i
( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i, Xn+1 = j
=(1) ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i
∑
P (X0 = j0 , . . . , Xn−1 = jn−1 , Xn = i, Xn+1 = j)
=(2) ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i
∑
L0 (j0 )· p(j0 , j1 ) · · · p(jn−1 , i)· p(i, j)
=(3) ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i
∑
P (X0 = j0 , . . . , Xn−1 = jn−1 , Xn = i)
=(4)
p(i, j)· ( )
P Xn1 = i1 , . . . , Xnp = ip , Xn = i
=(5) p(i, j)
Justification du calcul :
• =(1) provient de la définition de la probabilité conditionnelle.
• Dans =(2) , le numérateur de la fraction précédente est remplacé par une sommation sur tous
les états j0 , . . . , jn−1 tels que( jn1 = i1 ,. . . , jnp = ip . Cette sommation provient
)
de l’additivité de
la probabilité, l’événement Xn1 = i1 , . . . , Xnp = ip , Xn = i, Xn+1 = j ayant été partitionné
selon les valeurs prises par ( les variables) aléatoires de la famille (X0 , . . . , Xn−1 ) qui n’appar-
tiennent pas à la famille Xn1 , . . . , Xnp .
• =(3) provient de la règle de multiplication des probabilités le long d’un chemin.
5
• =(4) résulte de la règle de multiplication.
• Enfin, pour obtenir =(5) , on remarque que (la somme dans =(4) est la somme ) des probabilités
des éléments d’une partition de l’événement Xj1 = i1 , . . . , Xjp = ip , Xn = i .
Le théorème 1 se déduit du théorème 2 dans le cas p = 0.
Remarques sur la définition des chaînes de Marbov, vocabulaire
On peut supposer que les variables aléatoires X0 , X1 , X2 , . . . sont définies à partir d’une suite
d’expériences aléatoires.
• On verra d’après les exemples que ces expériences ne sont habituellement ni identiques ni
indépendantes. Ce n’est pas toujours vrai, voir la sous-section 2.3.
• La trajectoire ou le parcours de la chaîne lors d’une réalisation de la suite d’expériences est
la suite (i0 , i1 , . . .) des états visités, c’est à dire des valeurs prises par les variables aléatoires
X0 , X1 , . . .
• La propriété de Markov (1) est très forte. Normalement,
P (Xn+1 = j/X0 = i0 , . . . , Xn−1 = in−1 , Xn = i)
devrait dépendre de n, i0 , . . . , in−1 , i et j. En faisant l’hypothèse que cette quantité vaut p(i, j),
on impose qu’elle ne dépende que de i et de j, c’est à dire qu’elle dépende seulement de l’état
de la chaîne au présent et au futur immédiat.
• Par exemple, la probabilité que la chaîne aille en j à l’instant 3 sachant qu’elle est en i à
l’instant 2 est la même que la probabilité que la chaîne aille en j à l’instant 167 sachant qu’elle
est en i à l’instant 166. Ce qui s’est passé avant n’a pas d’importance. On exprime cette pro-
priété est disant que la chaîne est homogène.
• Un peu de poésie : on exprime habituellement le fait que
ne dépend pas de i0 , . . . , in−1 en disant que le futur du processus conditionné par son passé et
son présent ne dépend que de son présent.
Exercice 2 Soit X une chaîne de Markov d’espace des états E , de loi initiale L0 sur E et de
matrice de transition T . On observe la chaîne à partir d’un instant p > 0 donné, c’est à dire
que l’on considère la suite de variables aléatoires Y = (Y0 , Y1 , Y2 , . . .) définie par Y0 = Xp ,
Y1 = Xp+1 , Y2 = Xp+2 , . . . Démontrer que Y est une chaîne de Markov d’espace des états E ,
de loi initiale Lp et de matrice de transition T . △
6
P (X0 = i0 , . . . , Xn−1 = in−1 , Xn = i) = P (X0 = i0 ) · · · P (Xn−1 = in−1 ) · P (Xn = i) > 0 :
Cela signifie que les lignes de la matrice de transition sont toutes égales à la loi commune des
variables aléatoires X0 , X1 , . . . .
Si X0 suit une loi différente (les autres hypothèses étant conservées), si la loi commune des
variables aléatoires X1 , X2 , . . . est notée L = (L(1), . . . , L(t)), les égalités ci-dessus restent
vraies sauf (10) et (11) (il faut retirer L0 ). (Xn , n > 0) est une chaîne de Markov dont l’espace
des états est E , dont la loi initiale est la loi de X0 et dont la matrice de transition est
L(1) L(2) . . . . . . . . . L(t)
L(1) L(2) . . . . . . . . . L(t)
... ... ... ... ... ...
T =
... ... ... ... ... ...
... ... ... ... ... ...
L(1) L(2) . . . . . . . . . L(t)
3.2 Exemples
Exemple 2 : Souris sans mémoire Une souris se déplace dans une cage comportant 4 com-
partiments : C1 , C2 , C3 et C4 , disposés selon le dessin ci-dessous :
7
On suppose que la souris se trouve dans le compartiment C1 à l’instant initial et qu’elle change
indéfiniment de compartiment de la manière suivante : lorsqu’elle se trouve dans un comparti-
1
ment ayant k portes, elle choisit au hasard l’une des portes (avec la probabilité ). Comment
k
peut-on modéliser ce jeu ? △
E1
1
1/3
2Y r
1/2
24
1/3 E
1/3 1/2
1/2 1/2
3
Dans cet exemple, le graphe apporte peu. La matrice de transition T ci-dessous est aussi
parlante. Il est naturel de modéliser le parcours aléatoire de la souris par une chaîne de Markov
dont les états sont 1, 2, 3 et 4 (pour C1 , C2 , C3 et C4 ), de loi initiale
L0 = (1, 0, 0, 0) (12)
(parce que la souris se trouve dans la case C1 au début du jeu) et de matrice de transition
0 1 0 0
1/3 0 1/3 1/3
T =
.
▽ (13)
0 1/2 0 1/2
0 1/2 1/2 0
Cette modélisation est convaincante. Si à l’instant 0, la souris était placée au hasard dans la
cage, on remplacerait (12) par L0 = (1/4, 1/4, 1/4, 1/4). Cette nouvelle chaîne de Markov ne
serait pas radicalement différente de la précédente.
Il y a des limites de bon sens aux modélisations markoviennes : par exemple, si l’on
imagine que la souris est à la recherche d’un morceau de fromage et qu’elle a de la mémoire,
8
on ne pourra plus proposer un modèle qui impliquerait (1) parce que la souris ne retournerait
pas dans un compartiment où elle est déjà passée sans trouver de fromage. Intuitivement, dès
que l’on introduit de la mémoire dans un système, la propriété markovienne disparaît. Elle se
conserve quand même quand la mémoire est bornée (par exemple limitée à n − 1 et n − 2 quand
n désigne le présent). Il faut alors faire une théorie ad hoc.
Exercice 3 (voir la solution page 16) Modéliser le déplacement de la souris dans le cas suivant :
quelqu’un a placé un morceau de quiche lorraine dont elle raffole mais qui est empoisonné en
C4 . Si elle entre dans cette case, elle en mange et meurt instantanément. △
Si la chaîne atteint l’état 4, elle y reste. On dit que 4 est un état absorbant.
Voici maintenant un exemple très dégénéré de chaîne de Markov :
0 1/3 1/3 1/3
1/3 0 1/3 1/3
T = . △
B 1/3 1/3 0 1/3
b
b
D
1/3 1/3 1/3 0
b
C
Exemple 4 Modèle de diffusion d’Ehrenfest (cf. [4], chapitre 20, pp. 274-276 ou [2], pp.
51-53).
Ce modèle a été conçu pour expliquer certains résultats expérimentaux qui semblaient para-
doxaux (cf. [12]). À l’origine, c’est un modèle d’échange de chaleur entre deux corps. T. et P.
Ehrenfest ont proposé l’interprétation suivante : dans une boîte à 2 compartiments se trouvent
N particules. À l’instant initial, il y a i0 particules dans le premier, N − i0 dans le second.
On tire une particule de la boîte au hasard et on la change de compartiment. On répète cette
manipulation à chaque instant suivant. L’état du système est décrit à l’instant n par Xn , va-
riable aléatoire du nombre de particules dans le premier compartiment à cet instant (on pourra
de même définir X0 si le nombre de particules dans le premier compartiment à l’instant initial
9
est lui-même aléatoire ; il faudra alors spécifier la loi L0 de X0 sur E = (0, 1, . . . , N )).
On se demande quel est l’état du système à l’instant n, en clair : quelle est la loi de Xn ?
Bien sûr, l’état du système à l’instant n+1 ne dépend que de son état à l’instant n. On modélise
par une chaîne de Markov. L’évolution du système peut être représentée par un graphe :
j/N 1−j/N
0
1 /1 (j − 1) o j / (j + 1) (N − 1) o 1
N
(parce que si à l’instant n, il y a j particules (1 6 j 6 N − 1) dans le premier compartiment, la
probabilité de tirer dans la boîte une particule de ce compartiment est j/N et qu’alors, à l’ins-
tant n + 1, il ne reste plus que j − 1 particules dans le premier compartiment) ou, de manière
équivalente, par la matrice de transition
0 1 0 0 0 0 0 0 0
1/N 0 1 − 1/N 0 0 0 0 0 0
0 2/N 0 1 − 2/N 0 0 0 0 0
... ... ...
T =
△ (14)
··· ··· ··· ··· ··· ··· ··· ··· ···
... ... ...
0 0 0 0 0 0 1 − 1/N 0 1/N
0 0 0 0 0 0 0 1 0
Ln = Ln−1 · T = L0 · T n . (15)
Démonstration : Pour tout état j, l’événement (Xn = j) est évidemment la réunion des
événements deux à deux disjoints (Xn−1 = i, Xn = j), i ∈ E . Ln (j) est donc la somme
∗
∑
de leurs probabilités, qui se réduit à la somme notée ci-dessous sur les états i tels que
P (Xn−1 = i) > 0. Pour ces états, on peut conditionner par (Xn−1 = i) et écrire, d’après le
théorème 1,
On voit alors que le j ème élément de Ln est le j ème élément du produit matriciel Ln−1 · T , ce qui
prouve que
Ln = Ln−1 · T
En appliquant de nouveau cette égalité, on obtient :
10
Le calcul des lois instantanées d’une chaîne de Markov est donc ramené au calcul des puissances
de la matrice de transition. On a ainsi ramené un problème de Calcul des probabilités à un
calcul matriciel qui pourra être exécuté par un logiciel de calcul formel comme « Xcas » (cf. [6],
p. 23).
Remarquons que dans le courant de la démonstration, on a notamment vu passer le résultat
suivant :
Lm = Ln · T m−n . (16)
L’égalité (16) permet, si l’on connaît la loi de Xn , d’en déduire la loi de Xm . Il y a un cas
particulièrement simple :
Dans le cas général de la formule (16), on peut dire que Lm est le barycentre des lignes de T m−n
affectées des coefficients Ln (1), . . . , Ln (t).
On se limite aux lois L1 et L2 parce que c’est long. La bonne solution est évidemment d’utiliser
la formule (15).
Calcul de L1 On peut s’aider d’un graphe :
/2
y< 1
1
yyy
yy
yy
yy
5
lll 1
1/4
y
yyy lllll
yy
llll
1/3
y yy lll
y / 2 RlR /3
3E3E 1/4 RRRR 1/3
33EEE RR
33 EE 1/3 RR
33 EEE RRRR
RR)
33 1/4
33 EE 4
33 EE
EE
33 EE
3 EE
" /2
1/433 3 RRRRR 1/2
33 RRR
33 1/2 RR
33 RRRR
33 RR)
33 4
33
33
4 RRRRR 1/2 /2
RRR
1/2 RR
RRRR
RR)
3
En utilisant la règle de multiplication des probabilités le long d’un chemin et l’additivité de la
probabilité, on obtient la loi L1 que l’on peut résumer ainsi :
11
l5 1
lllll
l
ll
1/12
ll lll
RlEERR 1/2 /2
EERRRRR
1 2 3 4 EE
ou EE 5/24 RR
1/12 1/2 5/24 5/24 EE RRR
RR)
5/24E 3
EE
EE
EE
EE
E"
4
Calcul de L2
Compte-tenu de la règle de multiplication des probabilités le long d’un chemin, on peut partir
de L1 :
<1 1 /2
yy
yyy
y
yy
yy
5
lll 1
1/12
y
yyy lllll
yy
llll
1/3
y yy lll
y / 2 RlR /3
3E3E 1/2 RRRR 1/3
33EEE RR
33 EE 1/3 RR
33 EEE RRRR
RR)
33 5/24
33 EE 4
33 EE
EE
33 EE
3 EE
" /2
33
5/24 3 RRRRR 1/2
33 RRR
33 1/2 RR
33 RRRR
33 RR)
33 4
33
33
4 RRRRR 1/2 /2
RRR
1/2 RR
RRRR
RR)
3
ce qui donne les résumés suivants :
51
lllllll
l
ll 1/6
l llll
lRER /2
EERRRR 7/24
1 2 3 4 EE RR
ou EE 13/48R ▽
EE RRR
1/6 7/24 13/48 13/48 E RRR
)
13/48EE 3
EE
EE
EE
EE
"
4
12
est, non une probabilité, mais une probabilité conditionnelle. Il en est de même de p(n) (i, j).
n désignant toujours le présent, on va supposer que le futur m que nous allons considérer
vérifie m > n + 2. C’est un futur lointain et non plus un futur immédiat (m = n + 1), cas
envisagé jusqu’à maintenant. C’est pourquoi nous parlons de transitions lointaines. On peut
dire cela autrement : dans les conditionnements, ce n’est plus le présent qui va compter (sauf
si np = n ci-dessous), mais le passé le plus proche du futur considéré.
Théorème 7 Pour tous entiers 0 6 n1 < n2 < · · · < np , p > 2 et tous états i1 , i2 , . . . , ip ,
( )
P Xn1 = i1 , Xn2 = i2 , . . . , Xnp = ip = Ln1 (i1 )· p(n2−n1 ) (i1 , i2 ) · · · p(np−np−1 ) (ip−1 , ip ). (17)
= ...
=(5)Ln1 (i1 )· p(n2 −n1 ) (i1 , i2 ) · · · p(np −np−1 ) (ip−1 , ip ) (18)
Justification du calcul :
• =(1) : on partitionne en tenant compte de tous les instants de n1 à np et on utilise l’additivité
de la probabilité. On obtient une sommation sur np − n1 + 1 indices dont p sont fixes.
• =(2) provient de (6).
• =(3) provient d’une mise en facteur. Ne pas oublier, dans tout ce calcul, que les états jn1 , jn2 ,
. . . , jnp−1 , jnp ne varient pas et sont égaux respectivement à i1 , i2 , . . . , ip−1 et ip .
• =(4) : on reconnaît, dans la deuxième somme de =(3) l’élément de la ip−1 ème ligne et de la ip ème
colonne de la matrice T np −np−1 .
On en déduit facilement les corollaires suivants :
Théorème 8 Quels que soient (l’entier p > 1, les instants ) 0 6 n1 < n2 < · · · < np < m et les
états i1 , i2 , . . . , ip , j tels que P Xn1 = i1 , . . . , Xnp = ip > 0
( )
P Xm = j/Xn1 = i1 , . . . , Xnp = ip = p(m−np ) (ip , j) (19)
Pour p = 1, on obtient :
13
Théorème 9 Pour tous entiers m, n > 0 tels que m > n + 2 et tous états i et j tels que
P (Xn = i) > 0,
P (Xm = j/Xn = i) = p(m−n) (i, j). (20)
5.1 Lois-limites
Définition 3 Soit X une chaîne de Markov. On dit qu’elle a une loi-limite L∞ identifiée à
L∞ = [L∞ (1), L∞ (2), . . . , L∞ (t)] si
Ln −−−−→ L∞ (21)
n→+∞
Remarques :
• On voit que la convergence d’une suite de matrices utilisée dans cette définition est la conver-
gence composante par composante.
• S’il y a une loi-limite, quand n est assez grand, on pourra dans la pratique confondre L∞ et
Ln .
• Si L∞ existe, d’après (16), plus précisément d’après Ln+1 = Ln · T , elle vérifie l’égalité
L∞ = L∞ · T (23)
Exemple 6 (Suite de l’exemple 3) On démontre dans [2], p. 19, que, quelle que soit la loi
initiale, les lois instantanées convergent vers la loi L∞ = [1/4, 1/4, 1/4, 1/4]. Il est intéressant
de noter que cette loi-limite ne dépend pas de la loi initiale (contrairement aux lois instantanées).
Si la particule est placée au hasard sur un sommet du tétraèdre à l’instant 0, les variables
aléatoires Xn , n > 0, suivront toutes la loi uniforme sur E . △
14
n. La définition exacte des temps d’arrêt demande des connaissances précises de mesurabilité.
Nous en donnons seulement des exemples ci-dessous.
Temps de retour à l’état initial : C’est la variable aléatoire R définie par
autrement dit, R est le premier instant de retour à l’état initial (s’il existe). R est définie sur
∪
l’événement n>1 (Xn = X0 ). Cet événement peut être de probabilité < 1, éventuellement vide.
Temps d’atteinte : Soit E0 un sous-ensemble de E ni vide ni égal à E . Le temps d’atteinte
de E est la variable aléatoire A définie par
Exemple 7 Soit X une chaîne de Markov de matrice de transition T représentée par le graphe
suivant :
5X
1/5
4/5 1/12
k
@ 2N
1/2
1/2
1/3 y
4 1/12
3/4 1/2
1
1/3
2/3
) x
3X
1/4
E0 = (1, 2, 3) est une classe absorbante : si la particule (ou la souris ou . . . ) s’y trouve ou y
entre, elle n’en sortira plus.
15
Ce graphe apporte la même information que la matrice de transition T de la chaîne :
0 1/3 2/3 0 0
1/2 0 1/2 0 0
T =
0 3/4 1/4 0 0
(26)
0 1/2 1/3 1/12 1/12
0 1/5 0 4/5 0
La présence d’une classe absorbante se traduit ici par un bloc de 6 zéros en haut à droite. Bien
sûr, si les états avaient été numérotés autrement, ce bloc pourrait être masqué. Ce bloc restera
tel quel dans T 2 , T 3 , . . . car on ne peut pas sortir de E0 en 2 coups, en 3 coups, . . . △
Dans l’exercice 3, l’état 4 est un état absorbant (mort de la souris) et le temps d’atteinte de E0
est simplement sa durée de vie.
Remarque sur la simulation de temps d’arrêt : Avant de simuler un temps d’arrêt,
démontrer qu’il est défini avec probabilité 1 ; sinon, être prêt à utiliser la touche d’interruption
du calcul !
Voici un autre temps d’arrêt :
1H 0 1 0 0
1 1/3 0 1/3 1/3
1/3
34
y T =
.
▽ (27)
2V 1/3 H 1 0 1/2 0 1/2
1/3
1/2
1/2 0 0 0 1
3
Références
[1] B.O. spécial n˚8 du 13 octobre 2011. Programme de l’enseignement spécifique et de
spécialité de mathématiques Classe terminale de la série scientifique
http://media.education.gouv.fr/file/special_8_men/98/4/mathematiques_S_
195984.pdf
[2] Ressources pour la classe terminale générale et technologique Mathématiques Série S
Enseignement de spécialité
http://media.eduscol.education.fr/file/Mathematiques/62/6/ressource_
specialite_v5_210626.pdf
[3] William Feller An Introduction to Probability Theory and its Applications, Volume 1,
3 rd Edition, Wiley, New York (1968), p.121 et pp.377-378.
[4] Dominique Foata et Aimé Fuchs Calcul des Probabilités, 2 ème édition, Dunod, Paris
(1998), pp.127-128 : chaînes de Markov homogènes.
16
[5] Olivier Garet et Aline Kurtzmannn De l’intégration aux probabilités, Ellipse, Paris
(2011).
[6] R. De Graeve, B. Parisse, B.Ycart Tutoriel Xcas
http://www-fourier.ujf-grenoble.fr/~parisse/giac/tutoriel.html
[7] Pierre Lapôtre La marche de l’ivrogne, activité, Première Algorithmique
http://gradus-ad-mathematicam.fr/Premiere_Algorithmique3.htm
[8] Pierre Lapôtre & Raymond Moché Marche aléatoire d’une souris, activité TS Spé
Maths.
http://gradus-ad-mathematicam.fr/TSSpecialiteMaths6.htm
La marche aléatoire de cette souris se modélise comme une chaîne de Markov à 4 états. À
l’aide de « Xcas », on calcule la loi Ln de l’état de la chaîne à l’instant n, on montre qu’il
y a une loi limite et on la calcule.
[9] Pierre Lapôtre & Raymond Moché Simulation de la marche aléatoire d’une souris,
activité TS Proba/Stat.
http://gradus-ad-mathematicam.fr/TSProbaStat3.htm
[10] Raymond Moché. La puce, marche aléatoire, activité Seconde
http://gradus-ad-mathematicam.fr/Seconde_SPA1.htm
[11] Raymond Moché. Marche aléatoire sur un tétraèdre, activité TS Spécialité Maths
http://gradus-ad-mathematicam.fr/TSSpecialite4.htm
[12] Wikipedia Modèle des urnes d’Ehrenfest
http://fr.wikipedia.org/wiki/Modèle_des_urnes_d%27Ehrenfest
[13] Wikipedia Andreï Markov
http://fr.wikipedia.org/wiki/Andreï_Markov_(mathématicien)
Le logo de l’exposé provient de cet article de Wikipedia.
17