Chapitre 3
Chapitre 3
Chapitre 3
Dans beaucoup de cas il est nécessaire d’avoir recours à des modèles stochastiques faisant intervenir
tous les instants appartenant à un intervalle donné, c’est à dire à des processus à temps continu. On
s’intéresse dans ce chapitre aux processus qui sont à valeurs dans un espace d’états au plus dénombrable 𝐸
et possèdent la propriété de Markov tels que les chaînes de Markov ,Processus de Poisson, Processus de
naissance et de mort et leur application au système d’attente M/M/1.
Définition 1 Le processus stochastique (𝑋(𝑡))𝑡≥0 est une chaîne de Markov en temps continu si pour tout
𝑛 ∈ ℕ , pour toute suite d’instants 0 ≤ 𝑡0 < 𝑡1 <. . < 𝑡𝑛 < 𝑡 et tous états 𝑖, 𝑖0 , . . , 𝑖𝑛 on a
Pour tous réels positifs 𝑡 et 𝑡′ et pour tous états 𝑖 et 𝑗 les probabilités de transition sont définies par :
Lorsque les probabilités de transition sur un intervalle de temps de longueur 𝑡 sont définies par
Remarque 1 Les chaînes à temps discret et les chaînes à temps continu ont des propriétés analogues.
La plus importante de ces propriétés est d'être des processus sans mémoire : leur comportement futur étant
donné l'état présent ne dépend pas des états et des temps de séjour passés.
la matrice 𝑃(𝑡) dont les éléments sont les probabilités de transition 𝑝𝑖𝑗 (𝑡) , 𝑖, 𝑗 ∈ 𝐸 est appelée matrice de
transition sur un intervalle de temps de longueur 𝑡 vérifiant :
● 𝑝𝑖𝑗 (𝑡) ≥ 0 , 𝑖, 𝑗 ∈ 𝐸
1
𝑝00 (𝑡) 𝑝01 (𝑡) … 𝑝0𝑚 (𝑡)
𝑝 (𝑡) 𝑝11 (𝑡) … 𝑝1𝑚 (𝑡)
𝑃(𝑡) = ( 10 )
⋮ ⋮ ⋮
𝑝𝑚0 (𝑡) 𝑝𝑚1 (𝑡) … 𝑝𝑚𝑚 (𝑡)
Soit (𝑋(𝑡))𝑡≥0 une chaîne de Markov en temps continu à espace d’états 𝐸, de probabilité de transition 𝑝𝑖𝑗 (𝑡)
𝑖, 𝑗 ∈ 𝐸 . Alors
On peut donc voir une chaîne de Markov en temps continu comme une famille de matrices de transition
𝑃 (𝑡), 𝑡 ≥ 0 satisfaisant l’équation ci-dessus. Néanmoins, on ajoute l’hypothèse de régularité suivante :
lim 𝑃(𝑡) = 𝐼 ,
𝑡→0
2
Proposition 1 L’unique solution du système différentiel avec condition initiale
𝑃 (0) = 𝐼
{
𝑃 ′ (𝑡) = 𝐴𝑃 (𝑡) = 𝑃(𝑡)𝐴
est la matrice de transition
+∞
𝐴𝑡
(𝐴𝑡)𝑛
𝑃(𝑡) = 𝑒 = ∑
𝑛!
𝑛=0
Le calcul de la matrice 𝑃(𝑡) = 𝑒 𝐴𝑡 est facile lorsque 𝐴 est une matrice diagonalisable : 𝐴 = 𝑈𝐷𝑈 −1 , Où 𝐷
est la matrice diagonale des valeurs propres de 𝐴 et 𝑈 est une matrice inversible dont les colonnes sont des
vecteurs propres à droite associés à ces valeurs propres . Son exponentielle est alors
𝑃 (𝑡) = 𝑒 𝐴𝑡 = 𝑈𝑒 𝐷𝑡 𝑈−1
Exemple 2 Reprenons l’exemple précédent . Pour calculer 𝑃 (𝑡), on diagonalise la matrice 𝐴 . On a donc
𝐴 = 𝑈𝐷𝑈 −1 . Les valeurs propres sont alors obtenus en solutionnant l’équation caractéristique
det (𝐴 − 𝜆𝐼) = 0
−1 − 𝜆 1
det ( ) = (−1 − 𝜆)(−1 − 𝜆) − 1 = 𝜆(𝜆 + 2) = 0 . D’ où 𝜆0 = 0 , 𝜆1 = −2 .
1 −1 − 𝜆
Les vecteurs propres associés sont obtenus en solutionnant l’équation :
𝑥
(𝐴 − 𝜆𝑖 𝐼) (𝑦) = (0) , 𝑖 = 0,1
0
𝑥 −1 1 𝑥 −𝑥 + 𝑦 0
Pour 𝜆0 = 0 𝐴 (𝑦 ) = ( ) (𝑦) = ( ) ( )
𝑥 − 𝑦 = 0 alors 𝑥 = 𝑦
1 −1
𝑥 1
D’où (𝑦 ) = ( )
1
𝑥 𝑥 𝑥+𝑦
Pour 𝜆1 = −2 (𝐴 + 2𝐼 ) ( ) = (1 1) ( ) = ( 0
) ( )
𝑦 1 1 𝑦 𝑥 + 𝑦 = 0 alors 𝑥 = −𝑦
𝑥 −1
D’où (𝑦) = ( )
1
1 −1
On définit donc 𝑈=( )
1 1
on trouve alors
1 𝑡 1 1 1 1/2 1/2
𝑈 −1 = 𝐶𝑜𝑚(𝑈) = ( )=( )
𝑑𝑒𝑡𝑈 2 −1 1 −1/2 1/2
Finalement , on obtient
3
1 1 −2𝑡 1 1 −2𝑡
+ 𝑒 − 𝑒
𝑃 (𝑡) = 𝑒 𝐴𝑡 = 𝑈𝑒 𝐷𝑡 𝑈 −1 = (
1 −1 𝑒
)(
0
0 ) ( 1/2 1/2) = (2 2 2 2 )
1 1 0 𝑒 −2𝑡 −1/2 1/2 1 1 −2𝑡 1 1 −2𝑡
− 𝑒 + 𝑒
2 2 2 2
1/2 1/2
Ainsi , lim 𝑃 (𝑡) = ( )
𝑡→+∞ 1/2 1/2
On remarque que toutes les lignes de la matrice de transition limite sont identiques, Ce qui signifie que la
chaîne oublie l’état initial à long terme . De plus , les valeurs sur chaque ligne correspondent aux proportions
moyennes de temps à long terme dans les états 0,1 et 2 , respectivement.
La loi à l’instant 𝑡 de la chaine de Markov en temps continu (𝑋(𝑡))𝑡≥0 de loi initiale 𝜋(0) et de générateur
infinitésimal 𝐴, est donnée par
Où 𝜋(0) = (𝑃(𝑋(0) = 0), 𝑃 (𝑋(0) = 1), . . ) et 𝜋(𝑡) = (𝑃(𝑋(𝑡) = 0), 𝑃 (𝑋(𝑡) = 1), . . )
- Un état 𝑗 est accessible depuis un état 𝑖 s’il existe 𝑡 ≥ 0 tel que 𝑝𝑖𝑗 (𝑡) > 0
- Deux états 𝑖 et 𝑗 communiquent s’il existe 𝑡1 ≥ 0 , 𝑡2 ≥ 0 tels que 𝑝𝑖𝑗 (𝑡1 ) > 0 et 𝑝𝑗𝑖 (𝑡2 ) > 0
- Une chaîne de Markov en temps continu est irréductible si tous ses états communiquent.
Les propriétés d’irréductibilité, de récurrence et de transience d’une chaîne de Markov en temps continu
sont les mêmes que celles d’une chaînes de Markov discrètes .
Un vecteur de probabilité 𝜋 = (𝜋𝑖 )𝑖∈𝐸 est stationnaire si pour tout 𝑗 et pour tout 𝑡 ≥ 0 , on a
∑ 𝜋𝑖 𝑝𝑖𝑗 (𝑡) = 𝜋𝑗
𝑖∈𝐸
𝜋𝐴 = 0
Avec ∑𝑖∈𝐸 𝜋𝑖 = 1
4
Théorème 3 une chaîne de Markov en temps continu irréductible possède une unique distribution
stationnaire (𝜋𝑗 )𝑗∈𝐸 indépendante de la distribution initiale , elle est égale à 𝜋𝑗 = lim 𝑝𝑖𝑗 (𝑡)
𝑡→+∞
Exemple 4 le générateur d’une chaîne de Markov en temps continu à valeurs dans 𝐸 = {0,1,2} est donné
par
−1 0 1
𝐴 = ( 2 −3 1 )
0 2 −2
Son graphe de transition est
A partir du graphe , on remarque que la chaîne est irréductible donc elle possède une unique distribution
stationnaire calculée par
𝜋𝐴 = 0 −𝜋0 + 2𝜋1 = 0
−3𝜋1 + 2𝜋2 = 0
{ ⇔{
∑ 𝜋𝑖 = 1 𝜋0 + 𝜋1 − 2𝜋2 = 0
𝑖∈𝐸 𝜋0 + 𝜋1 + 𝜋2 = 1
3
Ce qui donne 𝜋0 = 2𝜋1 et 𝜋2 = 𝜋1 . De l’équation 𝜋0 + 𝜋1 + 𝜋2 = 1 , on obtient
2
3 2 4 3 4 2 3
2𝜋1 + 𝜋1 + 2 𝜋1 = 1 d’où 𝜋1 = 9 , 𝜋0 = 9 et 𝜋2 = 9 , 𝜋 = (9 , 9 , 9 )
Soit (𝑍𝑛 , 𝑛 ≥ 0) la suite des états visités par la chaîne de Markov homogène (𝑋(𝑡))𝑡≥0 d’espace d’état 𝐸 ,
et de générateur 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗∈𝐸 alors le processus (𝑍𝑛 , 𝑛 ≥ 0) est une chaîne de Markov en temps discret
∗
homogène , d’espace d’état 𝐸 et de matrice de transition 𝑄∗ = (𝑞𝑖𝑗 ) donnée par
𝑖,𝑗∈𝐸
𝑎𝑖𝑗
∗ 𝑠𝑖 𝑖 ≠ 𝑗
𝑠𝑖 𝜆𝑖 > 0 , 𝑞𝑖𝑗 = { 𝜆𝑖
0 𝑠𝑖 𝑖 = 𝑗
∗ 0 𝑠𝑖 𝑖 ≠ 𝑗
𝑠𝑖 𝜆𝑖 = 0 , 𝑞𝑖𝑗 ={
1 𝑠𝑖 𝑖 = 𝑗
En outre , 𝜆𝑖 > 0 si et seulement 𝑖 n’est pas absorbant . La chaîne de Markov (𝑍𝑛 , 𝑛 ≥ 0) est appelée
chaine incluse .