Processus de MARKOV
Processus de MARKOV
Processus de MARKOV
70
Cours master_GIM_Fiabilité
les valeurs prises dans {0, 1, 2,...}, ou continu. Lorsque le temps est discret, nous avons une
chaîne de Markov à temps discret; et quand le temps est continu, nous avons unechaîne de Markov à
temps continu. Une chaîne de Markov à temps continu est également appelé « processus
deMarkov ». Lorsque le temps est discret, on note le temps par n et la chaîne de Markov à temps
discret par {Xn, n = 0, 1, 2, ....}.
1
Nommé d'après le mathématicien russe Andrei A. Markov (I 856-1922).
La présentation de la théorique de base des chaînes de Markov dans ce livre est plutôt brève et
limitée. Le lecteur devrait consulter un manuel sur les processus stochastiquespour plus de détails.
Une excellente introduction sur les chaînes de Markov peut être trouvée, par exemple,dans Ross
(1996). Une très bonne description des chaînes de Markov à temps continu et leur application dans
l'ingénierie de fiabilité est donnée par Cocozza-Thivent (1997).
L'objectif principal de ce livre est l’étude des chaînes de Markov à temps continu et comment ces
chaînes peuvent être utilisées pour modéliser la fiabilité et la disponibilité d'un système. Dans ce qui
suit,une chaîne de Markov à temps continu sera appelé un processus de Markov. Dans ce
chapitre,nous commençons par définir la propriété de Markov et les processus de Markov. Un
ensemble de linéaire, premièreéquations différentielles d'ordre, appelées les équations de
Kolmogorov, sont établies pour déterminerla distribution de probabilité P(t)= [Po(t), P1(t)…, Pr(t)] de
Markovprocessus à l'instant t, où Pi(t) est la probabilité que le processus (le système) est en étati à
l'instantt. Nous montrons ensuite que P(t), dans des conditions spécifiques, abordera une limiteP
lorsque ttend vers l’infini. Cette limite est appelée la distribution à l'état stable du processus
(lesystème). Plusieurs mesures de performance du système - comme l'état la fréquence des visites, le
systèmela disponibilité et le temps moyen de la première défaillance du système - sont introduits.
L'état d'équilibremesures de distribution et de la performance du système sont alors déterminées
pour quelques simplesdes systèmes tels que des séries et des systèmes parallèles, des systèmes avec
des composants à charge,et divers types de systèmes de secours. Certaines approches de l'analyse
des systèmes complexessont discutés. La solution en fonction du temps des équations est
Kolmogorovbrièvement discuté. Le chapitre se termine par une brève discussion des processus semi-
Markov,une généralisation du processus de Markov.
Exemple 8.1
Considérons une structure parallèle de deux composants. Chaque composant est supposé avoir
deux états, un état de fonctionnement et un état d'échec. Etant donné que chacun des composants a
deux états possibles, la structure parallèle a 22 = 4 états possibles. Ces états sont énumérés dans le
71
Cours master_GIM_Fiabilité
tableau 8.1. L'espace d'état est donc X = {0, 1, 2, 3}. Le système est entièrement
fonctionnement lorsque l'état est 3 et a échoué lorsque l'état est 0. Dans les états 1 et 2 du
Lorsque le système a n composantes, et chaque composant a deux états (fonctionnement
et échoué), le système devra au plus 2n états différents. Dans certaines applications, nous allons
introduire plus de deux états pour chaque composant. Une pompe peut, par exemple, avoir trois
états: l'exploitation, de veille, ou échoué. Une unité de production peut fonctionner système
fonctionne avec un seul fonctionnement du composant avec une capacité de 100%, la capacité de
80%, et ainsi de suite. Dans d'autres applications, il est important de distinguer les différents modes
d'un élément d'échec, et nous pouvons définir les modes de défaillance en tant qu'Etats. Pour un
système complexe, le nombre d'états peut donc être écrasant, et nous pouvons avoir besoin de
simplifier le modèle du système, et d'examiner séparément les modules du système.
Considérons un processus stochastique {X(t), t≥0}avec le temps continu et espace d'état X = (0, 1,
2,..., r). Supposons que l'état du processus au moment de s est X(s) = i. La probabilité conditionnelle
que le processus sera dans l'état j à l'instant t + s est :
où {x (u), 0 ≤ u < s)} désigne la «histoire» du processus jusqu'à, mais sans inclure, temps s.
Le processus est dit avoir la propriété de Markov si :
En d'autres termes, lorsque l'état actuel du processus est connu, le développement futur du
processus est indépendant de tout ce qui est arrivé dans le passé. Un processus stochastique
satisfaisant la propriété de Markov (8.1) est appelé un processus de Markov (Ou une chaîne de
Markov à temps continu).
Nous allons en outre supposer que le processus de Markov pour tout i, j dans X remplit
Pr(X(t + s) = j ǀ X(s) = i) = Pr(X (t) = j ǀ X(0) = i) pour tout s, t ≥0
qui dit que la probabilité d'une transition de l'état i à l'état j ne dépend pas
le temps global et ne dépend que de l'intervalle de temps disponible pour la transition. Un processus
avec cette propriété est connu comme un processus avec transition stationnaire probabilités, ou
comme un processus temporel homogène. A partir de maintenant, nous neconsidérons que les
processus de Markov (à savoir, les processus remplissant la propriété de Markov) qui ont des
probabilités de transition stationnaires. Une conséquence de cette hypothèse est qu'un processus de
Markov ne peut pas être utilisé pour modéliser un système où les probabilités de transition sont
influencées par les tendances à long terme et/ou variations saisonnières.
Pour utiliser un processus de Markov, nous devons supposer que l'environnement et opérationnel les
conditions du système sont relativement stables en fonction du temps.
72
Cours master_GIM_Fiabilité
Comme toutes les entrées de P(t) sont des probabilités, nous avons que
Quand un processus est dans l'état i au temps 0, il doit être soit dans l'état i au temps t où on
fait une transition vers un état différent. Nous devons donc avoir
La somme de chaque ligne dans la matrice P est donc égal à 1. Notez que les entrées ligne i
représentent les transitions hors de l'état i (pour j ≠ i), et que les entrées dans la colonne j
représentent la transition vers l'état j (pour i≠ j). Soit 0 = S0 ≤ S1 ≤S2. . . quand les moments où les
transitions se produisent, et que Ti = Si+1- Si soit le iième temps d’interoccurrence, ou le temps de
séjour, pour i = 1, 2,. . .. Une "Path" possible d'un processus de Markov est illustré sur la Fig. 8.1. Le
chemin est parfois appelée la trajectoire du processus. Nous définissons Si de telle sorte que la
transition ia lieu immédiatement avant Si, dans ce cas, la trajectoire du procédé est continue à partir
73
Cours master_GIM_Fiabilité
de la droite. Le processus de Markov sur la Fig. 8.1 qui commence à l'instant t = 0 dans l'état 6 et
séjours dans cet état un temps T1. Au temps S1 = T1 procédé a une transition à l'état 0 où reste un
temps T2. A l'instant S2 =T1 + T2, le procédé présente une transition vers l'état 4, etc. sur.
Considérons un processus de Markov qui entre dans l'état i au temps 0, tel que X (0) = i. Soit Ťiêtre le
temps de séjour dans l'état i. [Notez que Ti désigne le ièmetemps interoccurrence,
tandis que Ťi est le temps passé au cours d'une visite à l'état i.] Nous voulons trouver la probabilité Pr
Ťi> t). Supposons maintenant que l'on observe que le processus est toujours dans l'état i aux temps s,
qui est, Ťi> s, et que nous sommes intéressés à trouver la probabilité pour le processus de rester dans
l'état i pendant un temps de plus. Nous voulons donc trouver Pr (Ťi>t+s ǀŤi> s). Étant donné que le
processus a la propriété de Markov, la probabilité pour que le processus de séjour pour t plusieurs
unités de temps est déterminée uniquement par l'état actuel i. Le fait que le procédé soit resté là
pour stemps,l’unité est donc dénuée de pertinence.Ainsi Pr (Ťi> t + sǀŤi.>S) = Pr (Ťi> t) pour s, t ≥0
D'où la variable aléatoire Ťiest sans mémoire et doit être distribuée de façon exponentielle. Les
temps de séjour T1, T2,. . . doit donc être aussi indépendant et exponentielle distribué.
L'indépendance résulte de la propriété de Markov. Voir Ross (1996,p. 232) pour une discussion plus
détaillée. Nous allons maintenant faire abstraction du temps passé dans les différents états et
seulement tenir compte destransitions qui ont lieu à des moments S1, S2,. . . Soient X, X = (S,)
indiquent l'état immédiatement après la transition n. Le processus {Xn , n = 1,2,. . .} est appelé le
squelette du processus de Markov. Les transitions du squelette peuvent être considérés avoir lieu
autemps discrets n = 1,2,. . .. Le squelette peut être imaginé comme une chaîne où tous les temps de
séjour sont déterministes et de longueur égale. Il est facile de montrer que
le squelette d'un processus de Markov est une chaîne de Markov à temps discret; voir Ross (1996).
Le squelette est aussi appelé la chaîne de Markov intégré. Nous pouvons maintenant (Ross, 1996, p.
232) construire un processus de Markov comme stochastique processus ayant les propriétés que
chaque fois qu'il entre dans un état i:
1. La quantité de temps Ťile processus passe dans l'état i avant de faire une transition
dans un état différent est exponentiellement distribué avec un taux, disons par intérimαi.
2. Lorsque le processus quitte l'état i, il va ensuite entrer dans l'état j avec une certaine probabilité
Pij, où
Si αiest égale à l’infini, l'état i est appelé un état instantané, depuis le temps de séjour moyen
dans un tel état est nul. Lorsque le processus de Markov pénètre dans un tel état, l'état est
instantanément à gauche. Dans ce livre, nous allons supposer que le processus de Markov n'a pas
74
Cours master_GIM_Fiabilité
états instantanés, et que 0 ≤ αi≤ o.o pour tout i. Si αi = 0, alors indiquer i est appelé absorption car
une fois entré, il n’est jamais quitté. Dans les sections 8.2 et 8.3 nous allons
supposent qu'il n'y a pas d'états absorbants. États absorbantes sont examinés plus en
Section 8.5. On peut donc envisager un processus de Markov comme un processus stochastique qui
se déplace d'un état à conformément à une chaîne de Markov à temps discret. La quantité de temps
qu'il passe dans chaque état, avant d'aller à l'état suivant, est exponentiellement distribuée.
La quantité de temps le processus passe dans l'état i, et l'état suivant visité, doit être variables
aléatoires indépendantes. Soit aij défini par :
Depuis αi est la vitesse à laquelle le processus quitte l'état i et Pij, est la probabilité que
il passe à l'état j, il en résulte que aij est le taux quand dans l'état i que le processus rend
une transition vers l'état j. Nous appelons aij le taux de transition de i à j.
Puisque , il résulte de (8.4) que
Soit Tij le temps, le processus passe dans l'état i avant d'entrer dans l'état j (≠ i). le temps Tij est
exponentiellement distribué avec aij taux.
Considérons un court intervalle de temps ∆t. Depuis Tij et Ťi sont distribués exponentiellement,
que nous avons
Pour une preuve formelle, voir Ross (1996, p. 239), Depuis que nous avons, à partir de (8,4) et (8,5),
peut en déduire aj et Pij quand on sait aij pour tous i, j dans X, on peut tout aussi bien définir un
processus de Markov en spécifiant (i) l'état l'espace X et (ii) les taux de transition aij pour tout i ≠ j en
X. La deuxième définition est souvent plus naturel et sera notre approche principale dans ce qui suit.
Nous pouvons organiser les taux de transition aij comme une matrice:
75
Cours master_GIM_Fiabilité
Nous appellerons A, une matrice de taux de transition du processus de Markov. Certains auteurs
parlent de la matrice A en tant que générateur infinitésimal du processus. Observez que les entrées
de la ligne i sont les taux de transition de l'état i (pour j ≠ i). Nous les appellerons taux de départ de
l'état i. Selon (8.5) -aii = αi est la somme des taux de départ de l'état i, et donc le taux de départ total
de l'état i. Les entrées de la colonne i sont les taux de transition dans l'état i (pour j $ i). Notez que le
somme des entrées dans la rangée i est égal à 0, pour tout i Є X.
Procédure à établir la grille Taux de transition Pour établir la transition taux matrice A, nous devons:
1. Liste et décrire tous les états du système pertinents. Les Etats non pertinents devraient être
enlevés et états identiques devraient être fusionnés (par exemple, voir l'exemple 8.3). Chaque des
états restants doit être donné une identification unique. Dans ce livre, nous utiliser les nombres
entiers de 0 à r. Nous Soit r désigner le meilleur état de fonctionnement le système et 0 représentent
le pire état. L'espace d'état du système est donc X = {0, 1,..., R}. Toute autre séquence de nombres ou
de lettres peut, cependant, aussi être utilisée.
2. Spécifiez la transition taux ai, pour tout i ≠ j et i, j ЄX. Chaque transition habituellement impliquer
un échec ou une réparation. Les taux de transition seront donc taux de défaillance et le taux de
réparation, et les combinaisons de ceux-ci.
3. Disposez les taux de transition aij, pour i ≠ j en tant que matrice, similaire à la matrice (8,8).
(Laissez les entrées diagonales aij ouvert.)
4. Remplissez les éléments diagonaux aii de telle sorte que la somme de toutes les entrées de chaque
rangée est égal à zéro, ou en utilisant de la (8,9).
Un processus de Markov peut être représenté graphiquement par un diagramme de transition d'état
qui enregistre les aij, des transitions possibles du processus de Markov. La transition d'état
diagramme est également connue comme un diagramme de Markov. Dans le diagramme de
transition d'état, les cercles sont utilisés pour représenter les états, et des arcs dirigés sont utilisés
pour représenter les transitions entre les Etats. Un exemple d'un diagramme de transition d'état est
donné à la Fig. 8.2.
Exemple 8.2
76
Cours master_GIM_Fiabilité
Nous supposons que les composantes ont des taux de défaillance𝛌i constants de réparation salut et
constante taux µi, pour i = 1, 2. Les transitions entre les quatre états du système dans le tableau 8.1
sont illustrées dans le diagramme de transition d'état à la Fig. 8.2.
Supposons que le système est en état 3 au temps 0. La première transition peut soit être à l'état 2
(défaillance du composant 2) ou à l'état 1 (échec du composant 1).
Le taux de transition à l'état 2 est a23 = 𝛌2, et le taux de transition à l'état 1 est a31 = 𝛌1. Le temps de
séjour dans l'état 3 est donc Ť3 = min {T31, T32}, où Tij est le temps de la première transition de l'état
i à l'état j. Ť3a une distribution exponentielle avec le taux a31+ a32 = 𝛌1 + 𝛌2, et le temps de séjour
moyen dans l'état 3 est l / (𝛌1 + 𝛌2). Lorsque le système est en état 2, la prochaine transition peut
être soit à l'état 3 (avec un taux a23 = µ2) ou à l'état 0 (avec un taux a20 = 𝛌1). La probabilité pour que
la transition consiste à état 3 est µ2/ (µ2 + 2 𝛌1), et la probabilité que cela va à l'état 0 est 𝛌1/ (µ2 +2
𝛌1). La propriété mémoire de la distribution exponentielle assure que la composante 1 est aussi bon
que nouveau lorsque le système passe à l'état 2. Dans cet exemple, nous supposons que composante
1 a le même taux d'échec𝛌1 dans l'état 3, où les deux composants sont fonctionnement, comme il l'a
dans l'état 2, où seulement le composant 1 fonctionne. L'échec a20 taux du composant 1 dans l'état 2
peut cependant facilement être changé pour un tauxd'échec 𝛌1’qui est différent (par exemple,
supérieure à) 𝛌1,
Lorsque le système est à l'état 0, les deux composants sont en état d'échec et deux équipes de
réparations indépendantes travaillent pour amener les composants à un état fonctionnement. Les
temps de réparation T01 et T02 sont indépendants et distribué exponentiellement avec
les taux de réparation µ1 et µ2, respectivement. Le temps de séjour Ť0 à l’etat 0, min {T0l,T02} a une
distribution exponentielle avec un taux (µ1 +µ2), et le temps d'arrêt moyen (MDT)du système est donc
1 / (µ1 +µ2). Lorsque le système passe à l'état 0, l'un des composants auront déjà échoué et être en
réparation lorsque l'autre composant échoue. La propriété mémoire de la distribution exponentielle
assure, cependant, que le temps pour effectuer la réparation est indépendante de la durée de la
composante a en réparation.
77
Cours master_GIM_Fiabilité
Notez que lors de l'élaboration du diagramme de transition d'état, nous considérons un très court
intervalle de temps, de telle sorte que le diagramme de transition enregistre uniquement les
événements de transitions simples. Analogue avec le processus de Poisson, la probabilité d'avoir
deux ou plusieurs événements un court laps de temps ∆t est o(∆t), et donc les événements de
multiples transitions ne sont pas inclus dansle diagramme de transition d'état. Il est donc impossible
d'avoir une transition de l'état 1 à l'état 2 sur la Fig. 8.2, étant donné que cet échec impliquerait du
composant 2 et dans le même temps de réparation terminée du composant 1. Une défaillance de
cause commune peut être modélisée comme transition de l'état 3 à l'état 0 sur la Fig. 8.2. Une telle
transition impliquera l'échec de deux composants, mais peut être considérée comme un événement
unique.
Exemple 8.3
Considérons à nouveau le système parallèle dans l'exemple 8.1, mais supposer que les deux
composants sont indépendants et identiques avec le même taux d'échec 𝛌. Dans ce cas, il est non
nécessaire de faire la distinction entre les états 1 et 2 dans le tableau 8.1, et nous pouvons réduire
l'espace d'état pour les trois états:
Supposons que le système est pris en charge par une seule équipe de réparation qui a adopté
une première réparation en cas d'échec de politique. Le temps de réparation d'un composant est
supposé être de façon exponentielle distribué avec le taux de réparation µ. Le temps moyen de
réparation (temps d'arrêt) est alors 1 / µ. Les transitions entre les trois états du système sont
illustrées sur la Fig. 8.3.
Une transition de l'état 2 à l'état 1 aura lieu dès que l'un des deux composants indépendants échoue.
Le taux de transition est donc a21 = 2𝛌. Quand le système est à l'état 1, il sera soit passé à l'état 2
[avec la probabilité µ / (µ + 𝛌)], ou à l'état 0 [avec une probabilité 𝛌 / (µ + 𝛌)].
78
Cours master_GIM_Fiabilité
Une stratégie de réparation alternative pour l'état 0 serait de réparer les composants à la
en même temps et que le démarrage du système lorsque les deux composants fonctionnent à
nouveau. Si le temps de réparation pour cette action de réparation commune a le taux µc, nous
devons modifier l’état de transition schéma de la Fig. 8.2 et introduire a01 = 0 et a02 = µc (a12 est
encore µ).
Exemple 8.4
Le diagramme de transition d'état pour l'HPP est illustré sur la figure. 8.4. 0
79
Cours master_GIM_Fiabilité
Les équations (8.1 1) sont connues comme les équations de Chapman-Kolmogorov. Les équations
peut, à l'aide de (8.2), être rédigée en termes de matrice comme
Notez que P (0) = I est la matrice identité. Notez également que, si t est un entier, il en résulte
que P(t) = [P (l)]t. Il peut être démontré que cela vaut également lorsque t est un nombre entier non.
Notez que nous ici divisé l'intervalle (0, t + ∆ t) en deux parties. Tout d'abord, nous considérons un
transition de l'état i à l'état k dans le petit intervalle (0, ∆t), et ensuite une transition de l'état k à
l'état j dans le reste de l'intervalle. Nous considérons maintenant
Depuis l'indice de sommation est finie, nous pouvons permute la limite et la sommation sur le côté
droit de (8.12) et d'obtenir, en utilisant (8.6) et (8.7),
où aii = -αi, et la notation suivante pour la dérivée dans le temps est introduit:
Les équations différentielles (8.13) sont connues comme les équations de Kolmogorov en arrière2. Ils
sont appelés équations en arrière parce que nous commençons par une transition de retour par le
début de l'intervalle.
Les équations de Kolmogorov en arrière peuvent également être écrites au format matriciel
80
Cours master_GIM_Fiabilité
Ici nous avons divisé l'intervalle de temps (0, t + ∆ t) en deux parties. Nous considérons une transition
de i à k dans l'intervalle (0, t), puis une transition de k et j dans le petit intervalle (t, t + ∆ t). Nous
considérons
2
Nommé d'après le mathématicien russe Andrey N. Kolmogorov (1903-1987)
Depuis l'indice de sommation est finie, nous pouvons permute limite avec sommation et obtenir
où, comme précédemment, ajj = -αj, Les équations différentielles (8,15) sont connues sous le nom
d’équations de Kolmogorovà terme. L'échange de la limite et la somme ci-dessus ne pas tenir dans
tous les cas, mais est toujours valide lorsque l'espace d'état est fini.
Les équations de Kolmogorov à terme peuvent être écrites en termes de matrice comme
Pour les processus de Markov nous étudions dans ce livre l'arrière et la avant équations ont la même
solution unique P(t), où pour tout i dans X. Dans ce qui suit, nous allons
principalement utiliser les équations à terme.
81
Cours master_GIM_Fiabilité
Puisque nous savons l'état au temps 0, nous pouvons simplifier la notation en écrivant Pij (t) comme
Pj(t). Le vecteur P(t) = [Po(t), P1(t), . . . Pr(t)] désigne alors la distribution de
le processus de Markov à l'instant t, quand on sait que le processus a commencé dans l'état i au
temps 0. Comme dans (8.3), nous savons que .
La distribution P(t) peut être trouvée à partir des équations de Kolmogorov avant (8.15)
où, comme auparavant, ajj = -αj. En ce qui concerne la matrice, ce qui peut être écrit
Les équations (8.19) sont appelés les équations d'état pour le processus de Markov.
Remarque: Certains auteurs préfèrent présenter les équations d'état que la transposition de
l’équation (8.19), qui est AT. P (t)T = PṪ (t)T. Dans ce cas, les vecteurs seront des vecteurs de colonnes,
et les équations (8.18) peuvent être écrites sous une forme plus compacte
Dans ce format, les index ne suivent pas la notation des matrices standard. Les entrées colonne i
représentent les taux de départ de l'état i, et la somme de toutes les entrées dans une colonne sera
0. Le lecteur peut choisir le format qu'il veut présenter les équations d'état. Les deux formats
donneront le même résultat. Dans ce livre, nous allons, cependant, présenter les équations d'état
dans le format de (8.18) et (8.19).
Puisque la somme des entrées dans chaque ligne de A est égal à 0, le déterminant de A
est égal à 0 et la matrice est singulière. Par conséquent, les équations (8.19) ne disposent pas d'un
unique, Solution. Cependant, en utilisant ce que
82
Cours master_GIM_Fiabilité
et l'état initial connu [Pi(0) = 1], nous sommes souvent en mesure de calculer les probabilités
Pj(t), pour j = 0, 1,2,. . . , r. [Conditions d'existence et l'unicité des solutions
sont discutés, par exemple, par Cox et Miller (1965)].
Exemple 8.5
1 Le composant fonctionne
0 Le composant est en état d'échec
La transition de l'état 1 à l'état 0 signifie que le composant échoue, et la transition de l'état 0 à l'état
1 signifie que le composant soit réparé. Le taux de transition a10 est donc le taux d'échec du
composant, et l'a01 taux de transition est le taux de la réparation composant. Dans cet exemple, nous
allons utiliser la notation suivante:
Le temps de séjour moyen dans l'état 1 est le temps moyen à l'échec, MTTF = l / 𝛌, et le temps de
séjour moyen dans l'état 0 est le temps d'arrêt moyen, MDT = l / µ. La signification les temps d'arrêt
est parfois appelée le temps moyen de réparation (MTTR).
Le diagramme de transition d'état pour le composant unique est illustré sur la figure. 8.5. le
équations d'état sont
Depuis les deux équations que nous obtenons de (8,20) sont linéairement dépendants, nous utilisons
un seul d'entre eux, par exemple,
83
Cours master_GIM_Fiabilité
Pour une solution détaillée de l'équation différentielle, voir Ross (1996, p. 243).
La disponibilité limitant peut donc être écrit comme la formule bien connue
Lorsqu'il n'y a pas de réparation (µ = 0), la disponibilité est P1(t) = e-𝛌t qui coïncide avec la fonction de
survie du composant. La disponibilité P1(t) est illustrée sur la Figure. 8.6.
approché un état d'équilibre Pj quand t→ + 00. La même valeur à l'état stable aurait été trouvée
indépendamment du fait que le système a commencé dans le fonctionnement État ou dans l'état
d'échec.
Convergence vers probabilités l'état d'équilibre est supposé des processus de Markov nous étudions
dans ce chapitre. Le processus est dit irréductible si chaque État est accessible à partir de tous les
84
Cours master_GIM_Fiabilité
autres États (voir Ross, 1996). Un processus de Markov irréductible, il peut être démontré que les
limites
existent toujours et sont indépendants de l'état initial du processus (au temps t = 0). Pour preuve,
voir Ross (1996, p. 25 1). Ainsi, un processus qui a été en cours d'exécution pour un
longtemps a perdu sa dépendance de son état initial X (0). Le processus convergera à un processus
où la probabilité d'être dans l'état j est
Ces probabilités asymptotiques sont souvent appelées les probabilités à l'état stable pour le
processus de Markov. Si P j (t) tend vers une valeur constante lorsque t →+ 00, puis
Les probabilités état d'équilibre P = [Po, P1,. . . , Pr] doit donc satisfaire la matrice équation:
P. A = 0 (8,26)
où comme précédemment
Pour calculer les probabilités à l'état stable, P0, P1 ,. . . , Pr, d'un tel processus, nous utilisons r du r + 1
linéaire équation algébrique de l'équation de la matrice (8,25) et en outre le fait que la somme des
probabilités d'état est toujours égale à 1. L'état initial du processus n'a pas d'influence sur les
probabilités à l'état stable. Notez que Pj peut également être interprété comme la moyenne, la
proportion à long terme de temps, le système passe dans l'état j.
Exemple 8.6
Considérons une centrale électrique avec deux générateurs, 1 et 2. Chaque générateur peut avoir
deux états: un état de fonctionnement (1) et un état d'échec (0). Un générateur est considéré
comme dans l'état d'échec (0) également lors de la réparation. Générateur 1 fournit 100 MW quand
il est fonctionnement et 0 MW lorsqu'il ne fonctionne pas. Générateur 2 fournit 50 MW
quand il fonctionne et 0 MW lorsqu'il ne fonctionne pas.
85
Cours master_GIM_Fiabilité
3 1 1 150 MW
2 1 0 100 MW
1 0 1 50 MW
0 0 0 0 MW
On suppose que les générateurs ne parviennent pas indépendants les uns des autres et qu'ils sont
fonctionnant sur une base continue. Les taux des générateurs de défaillance sont
Lorsqu'un générateur échoue, une action de réparation est commencée à mettre le générateur de
nouveau dans opération. Les deux générateurs sont supposés être réparés indépendamment l'un de
l'autre, par deux équipes de réparation indépendante. Les taux des générateurs de réparation sont
µ1taux de réparation du générateur 1
µ2 taux de réparation du générateur 2
La matrice de transitionest
Nous pouvons utiliser (8.26) pour trouver les probabilités à l'état stationnaire Pj pour j = 0, 1, 2, 3, et
nous obtenons les équations suivantes:
86
Cours master_GIM_Fiabilité
Notez que nous utilisons trois des équations à l'état stable de (8.26) et en plus la fait que Po + P1 + P2
+ P3 = 1. Notez également que nous pouvons choisir trois des quatre équations à l'état stable, et
d'obtenir la même solution. La solution est
Maintenant, pour i = 1, 2
où MDTi = 1 / µi est le temps d'arrêt moyen requis pour réparer le composant i, et MTTFi = 1/𝛌i salut
est le temps moyen à l'échec du composant i (i = 1,2). qi Désigne ainsi la moyenne, ou la limite,
l'indisponibilité du composant i, tandis que pi représente la moyenne (Limite) de la disponibilité du
composant i (i = 1,2). Les probabilités de régime permanent peut donc être écrit comme
Dans cet exemple simple, les composants échouent et sont réparés indépendamment l'un de autre.
On peut donc utiliser un raisonnement direct pour obtenir les résultats dans (8.28):
87
Cours master_GIM_Fiabilité
Remarque: Dans cet exemple simple, où toutes les défaillances et les réparations sont des
événements indépendants, on n'a pas besoin d'utiliser des méthodes de Markov pour trouver les
probabilités à l'état stable. Le probabilités état d'équilibre peuvent être facilement trouvés en
utilisant des règles de probabilité standard pour événements indépendants. S'il vous plaît noter que
cela ne vaut que pour les systèmes avec indépendante les défaillances et les réparations.
Supposons maintenant que nous avons les données suivantes:
Générateur 1 Générateur 2
Notez que les probabilités à l'état stationnaire peuvent être interprétées comme la proportion
moyenne de temps le système reste dans l'état concerné. La probabilité de l'état à l'état stable
1 est par exemple égal à
Par conséquent
À long terme, le système va rester dans l'état 1 environ 23.8 heures par an. Ce ne signifie pas que
l'état 1 se produit en moyenne une fois par an et dure 23,8 heures chaque fois.
Avec les données indiquées, on obtient
1 50 MW 2.72.10 23,8
0 0 MW 1.12.10 0,1
88
Cours master_GIM_Fiabilité
Quand nous laissons t →+ 00, alors Pij(t)→ Pj et Pij(t)→0. Puisque l'indice de sommation dans (8.15)
est finie, nous pouvons permute la limite et la somme et obtenir, en t →+ 00,
La (inconditionnel) probabilité d'un départ de l'état j dans l'intervalle de temps (t, t +∆t] est
Le côté gauche de (8.29) est donc la fréquence à l'état stable de départs d’état j. La fréquence des
départs à partir de l'état j est considérée comme la proportion du temps Pj passé dans les temps j de
l'Etat de la transition taux a, hors de l'état j.
De même, la fréquence des transitions de l'état k dans l'état j est Pkakj. Le total fréquence des
arrivées dans l'état j est donc
89
Cours master_GIM_Fiabilité
L'équation (8.29) indique que la fréquence des départs de l'état j est égal à la fréquence des arrivées
dans l'état j, pour j = 0, 1,. . . , r, et est donc parfois appelé les équations d'équilibre. Dans la situation
de régime permanent, nous définissons la visite fréquence à l'état j comme
Durée d'une visite moyenne Lorsque le processus arrive à l'état j, le système sera resté dans cet état
au temps Ťj jusqu'à ce que le processus quitte que cet état, j = 0, 1,. . . , r. Nous avons appelé Ťjle
temps de séjour dans l'état j et montré que Ťj est exponentiellement distribué avec αj taux. Le temps
de séjour moyen, ou la durée moyenne d'une visite, est donc
La proportion moyenne de temps, Pj, le système est de passer dans l'état j est donc égal à la
fréquence de visite à l'état j multiplié par la durée moyenne d'une visite dans l'état j pour j = 0,1, ..., r.
Disponibilité du système Soit X = {0, 1,..., r} l'ensemble de tous les états possibles d'un
système. Certains de ces états représentent le fonctionnement du système en fonction de certains
spécifiés critères. Soit B désignent le sous-ensemble des états dans lesquels le système fonctionne, et
que F = X - B désignent les états dans lesquels le système est échoué.
Dans ce qui suit, nous allons omettre la moyenne à long terme et appeler AS la disponibilité du
système. L'indisponibilité du système (1 – AS) est alors
90
Cours master_GIM_Fiabilité
Durée d'une défaillance du système moyenne la durée moyenne θF de d'une défaillance du système
est défini comme le temps moyen entre le moment où le système entre dans un état d'échec (F)
jusqu'à ce que il est réparé/restauré et ramené dans un état de fonctionnement (B).
Analogue de (8,32), il est évident que l'indisponibilité du système (1 – AS) est égale à la fréquence de
défaillance du système multiplié par la durée moyenne d'un système
échec. Par conséquent
Temps moyen entre pannes du système Le temps moyen entre les pannes de système, MTBFS, est le
temps moyen entre les transitions consécutives à partir d'un état de fonctionnement (B) dans un état
d'échec (F). Le MTBFS peut être calculée à partir de la fréquence de les défaillances du système par
91
Cours master_GIM_Fiabilité
La structure parallèle fonctionne quand au moins une de ses deux composantes fonctionne. Lorsque
le système est à l'état 1, 2 ou 3, le système fonctionne, alors que l'état 0 correspond à une défaillance
du système.L'indisponibilité moyenne du système est
La fréquence des défaillances du système ωFest égale à la fréquence de visite à l'état 0, ce qui
est
La durée moyenne d'une défaillance du système θFest dans ce cas égal à la durée moyenne
d'un séjour à l'état 0. Ainsi
Pour une structure parallèle de n composants indépendants, les résultats ci-dessus peuvent être
généralisées comme suit: en cas d'indisponibilité du système,
92
Cours master_GIM_Fiabilité
Le temps moyen de fonctionnement (up-time) E(U)p de la structure parallèle peut être déterminée
de
Par conséquent
Lorsque les disponibilités de composants sont très élevés (à savoir, 𝛌i<<µi pour tout i =1,2,...,n), puis
Fonctionne En arrêt
93
Cours master_GIM_Fiabilité
Figure 8: Diagramme de transition d'état d'une structure en série de deux composants indépendants
où
La fréquence des défaillances du système, ωF, est la même que la fréquence des visites à l'état
3. Ainsi
Pour une structure série de n éléments indépendants les résultats ci-dessus peuvent être généralisés
comme suit: Pour la disponibilité du système
94
Cours master_GIM_Fiabilité
Lorsque toutes les disponibilités composants sont très élevés tels que 𝛌i <<µi pour tout i, puis
AS≈ 1 et la fréquence des pannes du système est approximativement
qui est le même que celui d'une structure en série non réparé de ncomposants indépendant.
La durée moyenne d'une défaillance du système θFpeut être estimée comme
où MDTi = 1 / µi comme est avant le temps d'arrêt moyen requis pour réparer le composant
i, i = 1, 2,. . . n. L'équation (8.57) est une approximation couramment utilisée pour la moyenne la
durée d'une défaillance dans les structures en série d'une grande fiabilité.
95
Cours master_GIM_Fiabilité
empêche une solution simple par un raisonnement direct a été possible dans l'exemple 8.6. Ce
système comporte trois états possibles, comme décrit dans le tableau 8.2.
Tableau 2:États possibles d'une structure série de deux composants Lorsque la défaillance d'un
Composant Empêche l'échec des autres.
2 Fonctionnement Fonctionnement
Figure 9:Diagramme de transition d'une structure en série de deux composants où l'échec d’une
composante empêche la défaillance de l'autre composant.
3 Le même modèle est discuté par Barlow et Proschan (1975, p. 194-201) dans un contexte plus général que ne
suppose pas les taux d'échec et de réparation constants.
Le diagramme de transition d'état de la structure de la série est illustré sur la Fig. 8.9. Les
équationsd’état d'équilibre pour ce système sont :
Les probabilités d’état d'équilibre peuvent être trouvées à partir des équations
96
Cours master_GIM_Fiabilité
La solution est
Comme la structure de la série fonctionne uniquement lorsque les deux composants fonctionnent
(État 2), la disponibilité moyenne du système est
Observer que, dans ce cas, la disponibilité de la structure de la série est égale à ni la produit des
disponibilités de composants.
La fréquence des défaillances du système WF est la même que la fréquence des visites à l'état 2.
Cette formule est bien évident que la durée d'une défaillance du système sera égale à la
réparer le temps du composant 1 lorsque le composant 1 échoue et égale à la durée de la réparation
des composante 2 lorsque le composant 2 échoue.
97
Cours master_GIM_Fiabilité
Pour une structure série de n composantes les résultats ci-dessus peuvent être généralisés comme
suit:
98
Cours master_GIM_Fiabilité
Reconsidérer le système parallèle dans l'exemple 8.3 avec deux indépendants et identiques
composants avec le taux d'échec 𝛌. Lorsque l'un des composants échoue, il est réparé. Le
temps de réparation est supposé être une distribution exponentielle avec le taux de réparation µ.
Lorsque les deux composants ont échoué, le système est considéré comme ayant échoué et aucune
récupération n’estpossible. Soit le nombre de composants fonctionnels représentent l'état du
système. L'espace d'état est donc X = {0, 1,2}, et de l'état 0 est un état absorbant. L'état
diagramme de transition du système est donné à la Fig. 8.10.
Nous supposons que les deux composants fonctionnent (état 2) au moment 0. C'est P2(0) = 1. La
matrice de taux de transition de ce système est donc
Depuis l'état 0 est un état absorbant, tous les taux de cet état de transition sont égales à
zéro. Ainsi, les entrées de la ligne correspondant à l'état d'absorption sont tous égaux à
zéro.
La matrice A n'a pas de rang plein, nous pouvons supprimer l'un des trois
équations sans perdre aucune information sur Po (t), P1 (t) et P2 (t). Dans ce cas
on enlève la première des trois équations. Ceci est accompli en retirant la première
colonne de la matrice. Par conséquent, nous obtenons les équations d'état
Etant donné que tous les éléments de la première colonne de la matrice sont égaux à zéro, Po(t)
"Disparaître" dans la solution des équations. On peut donc réduire la matrice
équations à
La matrice
99
Cours master_GIM_Fiabilité
a rang plein si 𝛌> 0. Par conséquent (8,70) détermine P1 (t) et P2 (t). P0 (t) peut par la suite
se trouve de P0 (t) = 1 – P1 (t) – P2 (t). Cette solution de la matrice réduite
les équations (8,70) est identique à la solution des équations de matrice initiales. La réduction
matrice est considérée être obtenue par la suppression de la ligne et la colonne correspondante
à l'état absorbant.
Depuis l'état 0 est absorbant et accessible depuis les autres États, il est évident que
Soit R (t) désignent la fonction de survie du système. Etant donné que le système fonctionne
aussi longtemps que le système est soit en état 2 ou dans l'état 1, la fonction de survie est égal à
La fonction de survie R (t) peut maintenant être déterminée en inversant la transformée de Laplace,
ou nous pouvons considérer Po(t) = 1 - R (t), qui représente la fonction de distribution
du temps T, à une défaillance du système. La transformée de Laplace de Po(t) est
100
Cours master_GIM_Fiabilité
Soit fs(t) désigne la fonction de densité de probabilité du temps Ts , à la défaillance du système, qui
est fs(t) = dPo(t)/dt. La transformée de Laplace fs(t) est donc
Où
Le temps moyen de défaillance du système, MTTFs, est maintenant donné par (l'intégration est
laissée àle lecteur comme un exercice)
Notez que les MTTFs d'un système parallèle à deux composants, sans aucune réparation (à savoir, µ
= 0) est égale à 3 / 2𝛌. L'atelier de réparation augmente ainsi les MTTFs par µ / 2 𝛌2.
Tel que discuté à la page 321, l'ensemble des états X d'un système peuvent être regroupés dans un
ensemble B des états de fonctionnement et un ensemble F = X - B des États défaillants. Dans la
présente section, nous va supposer que les États défaillants sont des états absorbants.
Considérons un système qui est dans un état de fonctionnement spécifié au temps t = 0. La
fonction survivant R (t) détermine la probabilité qu'un système ne quitte pas le jeu
B du fonctionnement des états pendant l'intervalle de temps (0, t]. La fonction de survie est donc
101
Cours master_GIM_Fiabilité
Les MTTFs du système peuvent ainsi être déterminés à partir de (8,76) par l'insertion, s = 0.
Ainsi
Marche à suivre pour trouver le MTTF Comme indiqué dans l'exemple 8.7, ce qui suit
procédure peut être utilisée pour trouver le temps moyen de premier échec, MTTF, d'un système
avec état espace X = {0, 1,. . . , r}. Voir Billinton et Allen (1983, p. 217) et Pagbs et
Gondran (1980, p. 133) pour les détails et la justification.
1. Établir la matrice taux de transition A, et laisser P (t) = [Po (t), P1 (t),. . . Pr (t) indiquer la
distribution du processus à l'instant t. Observer que A est la matrice (r + 1)x(R + 1).
102
Cours master_GIM_Fiabilité
2. Définir la distribution initiale P (0) = [Po (O), PI (0),. . . Pr (O)] du procédé, et vérifier que P (0)
signifie que le système a un état fonctionnel.
3. Identifier les États défaillants du système, et de définir ces états comme absorbant
États. Supposons qu'il existe k états absorbants.
4. Supprimer les lignes et les colonnes de A correspondant aux états d'absorption, qui
est, si j est un état absorbant, supprimer les entrées aji et aij pour tout i de A.
Soit AR désignent la matrice de taux de transition réduit. La dimension de l'AR est
(r + 1 - k) x (r + 1 - k).
Où la somme est prise sur l'ensemble j représentant le (r+1-k) non absorbant d’états.
Exemple 8.8
Dans cet exemple, nous sommes principalement intéressés à déterminer les MTTFs. Nous avons donc
définir l'état 0 être un état absorbant et régler tous les taux de départ de l'état 0
égal à zéro. La matrice de taux de transition est alors
103
Cours master_GIM_Fiabilité
finalement
où P1*(0)et P2*(0), sont déterminées par l'insertion (8.81) dans (8.78) et (8.79), respectivement.
Lorsque les deux composants ont des taux d'échec identiques, 𝛌1 = 𝛌2 = 𝛌, cette
expression est réduite à
2. Les deux composants ont des taux d'échec identiques et les taux de réparation identiques (𝛌1 = 𝛌2
= 𝛌 et µ1=µ2= µ). Alors
104
Cours master_GIM_Fiabilité
Figure 11:Diagramme de transition pour un système parallèle à deux composants qui est exposées
aux défaillances de cause commune.
Les événements extérieurs se produisent avec 𝛌c taux qui désigne la défaillance de cause commune
taux.
Supposons que nous sommes intéressés à déterminer les MTTFs. Étant donné que le système échoue
dès son entrée dans l'état 0, nous définissons l'état 0 comme un état absorbant et supprimer la ligne
et la colonne de la matrice de taux de transition correspondant à l'état 0.
Comme précédemment, nous supposons que le système est en état 2 (les deux composants
fonctionnent) à l'instant t = 0. En introduisant des transformées de Laplace, nous obtenons la matrice
suivante équations
105
Cours master_GIM_Fiabilité
Figure 12:Les MTTFs d'un système parallèle en fonction de la cause commune facteur ß
(𝛌= 1 et µ = 100).
Figue. 8.12 illustre la façon dont les MTTFs d'un système parallèle dépend du facteur de cause
commun ß.
106
Cours master_GIM_Fiabilité
Le dernier résultat est évident. Seulesles défaillances de cause commune se produisent et ils
affectent les deux composants simultanément avec 𝛌C taux d'échec. Ce modèle B-facteur est en
outre discuté au chapitre 6.
Figure 13:système parallèle avec deux composants partageant une charge commune.
Load-Partage des systèmes Considérons un système parallèle avec deux composants identiques. Les
composants partagent une charge commune. Si un composant échoue, l'autre
composante doit porter toute la charge et le taux de cette composante de l'échec est supposé
augmenter immédiatement lorsque la charge augmente. Ainsi, les échecs des deux composants sont
dépendants. Dans le chapitre 6, ce type de dépendance a été renvoyé
comme les échecs en cascade. Les composants peuvent, par exemple, les pompes, les compresseurs,
ou des générateurs électriques. Les taux d'échec suivants sont supposés:
𝛌n = le taux d'échec à charge normale (à savoir, lorsque les deux composants fonctionnent)
𝛌f =le taux d'échec à pleine charge (à savoir, lorsque l'un des composants est échoué)
Soit µh représentent le taux d'un composant de réparation quand un seul composant a échoué,
et laisser µfdésigner le taux d'un composant de réparation lorsque les deux composants ont échoué.
Soit le nombre de composants qui fonctionnent représentent l'état du système.
L'espace d'état est donc {O,1,2}. Lorsque le système a échoué (état 0), tous disponibles
moyens de réparation sont utilisés pour réparer l'un des composants (généralement le composant
échoué en premier). Le système est dit à nouveau (dans l'état 1) dès que ce composant est réparé. Le
diagramme de transition d'état du système est donné à la Fig. 8.13.
107
Cours master_GIM_Fiabilité
Le système échoue lorsque les deux composants ne parviennent pas (à savoir, dans l'état 0). Pour
déterminer le MTTFs nous définissons l'état 0 comme un état absorbant et supprimer la ligne et la
colonne correspondant à cet état de la matrice de taux de transition. Si nous supposons que le
système commence au moment de r = 0 avec les deux composants de fonctionnement (état 2), et
prendre Laplace transforme avec s = 0, nous obtenons
La solution est
Figure 14:74 Diagramme de transition pour le système de générateur avec le partage de charge et
commune provoquer des défaillances.
La fonction de survie est R (t) = P1 (t) + P2 (t), et le temps moyen de défaillance du système
est ainsi
Lorsque la charge de la composante restante ne soit pas augmentée, de telle sorte que 𝛌f= 𝛌n, nous
obtenir MTTFS = 3 / (2𝛌n) conformément à l'équation (8.83).
Exemple 8.9
Considérons une centrale électrique avec deux générateurs du même type. Au cours du
fonctionnement normale, les générateurs se partagent la charge et chaque générateur a un taux
d'échec 𝛌n = 1,6.10-4(Heure)-1. Lorsque l'un des générateurs tombe en panne, la charge sur le reste
générateur sera augmenté, et le taux d'échec passera à 𝛌f= 8,0. 10-4(heures)-1(cinq fois plus élevé que
le taux d'échec normal). En outre, le système est exposée à des défaillances de cause commune. Tous
108
Cours master_GIM_Fiabilité
les générateurs en service échoueront à la en même temps lorsque des événements de cause
commune se produisent. Le taux de défaillance de cause commune est
𝛌c = 2,0. 10-5(Heure)-1. Quand un générateur tombe en panne, il est réparé. Le temps d'arrêt moyen
de réparation, MDTh est de 12 heures, et le taux de réparation est donc µh ≈ 8.3.10-2(Heure)-1. Lorsque
le système échoue, le temps d'arrêt moyen pour réparer un générateur est MDTf = 8 heures, et le
taux de réparation est µf = 1,25.10-1(Heure)-1. Le diagramme de transition d'état du système de
générateur avec des échecs de partage de charge et de cause commune est représenté sur la Fig.
8.14.
Les probabilités état d'équilibre peut être trouvé par la même approche que nous avons montré
plusieurs fois (par exemple, voir l'exemple 8.6).
109
Cours master_GIM_Fiabilité
Tableau 3 : États possibles d'un système parallèle Deux-Item avec froid Standby et Perfect
Commutation.
4 O S
3 F O
2 S O
1 O F
0 F F
Figure 16:État diagramme de transition d'un système parallèle à deux éléments avec veille froide et
parfaite commutation
Les états possibles du système sont répertoriées dans le tableau 8.3, où 0 représente exploitation
110
Cours master_GIM_Fiabilité
état, S désigne l'état de veille, et F désigne l'état a échoué. Défaillance du système se produit lorsque
l'élément d'exploitation échoue avant la réparation de l'autre élément est terminé. L'état a échoué
du système est donc l'état 0 dans le tableau 8.3. Lorsque les deux éléments ont échoué, ils sont
réparés simultanément et le système est ainsi ramené à l'état 4. La réparation
taux dans ce cas est notée µ. Le diagramme de transition d'état du système de veille est
illustré sur la Fig. 8.16.
Les probabilités de régime permanent peuvent être déterminées selon les procédures décrites
dans la section 8.3. La fonction de survie R(t) et les MTTFs du système peut
être déterminée en tenant compte de l'état d'échec du système (état 0) pour être un absorbant
Etat. Supposons que l'état initial à t = 0 est l'état 4. Par la suppression de la ligne et la
colonne de la matrice de taux de transition correspondant à l'état 0 absorbant, nous obtenons
la matrice AR réduite:
En prenant les transformées de Laplace (avec s = 0), nous obtenons les équations
La solution est
111
Cours master_GIM_Fiabilité
Ainsi
Figure 17:État diagramme de transition d'un système parallèle à deux éléments avec veille froide et
parfaite commutation (point A est l'élément de commande principal).
112
Cours master_GIM_Fiabilité
Et
La solution est
où PJ est la proportion moyenne de temps le système dépense dans l'état j pour j = 0,3,4.
La fréquence des défaillances du système, ωF, est dans ce cas égale à la fréquence de visite
à l'état 0, qui est,
113
Cours master_GIM_Fiabilité
Les MTTFs du système est déterminée comme à la page 332. En supprimant la ligne et
la colonne de la matrice de taux de transition (8,90) et la prise de transformées de Laplace (avec
s = 0), on obtient
La solution est
114
Cours master_GIM_Fiabilité
Figure 18:État diagramme de transition d'un système parallèle à deux éléments avec veille froid et
commutation imparfaite (point A est l'élément de commande principal).
Et
La solution est
qui conduit à
Ainsi
115
Cours master_GIM_Fiabilité
Figure 19:État diagramme de transition d'un système parallèle à deux éléments avec veille
partiellement chargé et la commutation parfaite (point A est l'élément de commande principal).
Et
116