Analyse Fonctionnel
Analyse Fonctionnel
Analyse Fonctionnel
Groupe de travail
Management, Méthodes,
Outils, Standards (M2OS)
Fiches méthodes
Depuis son origine à l’ISdF (Institut de Sûreté de Fonctionnement *1 ) puis à l’IMdR (Institut de Maîtrise
des Risques) le groupe de travail M2OS (Management, Méthodes Outils, Standards) fort d’une
vingtaine de membres s’est donné pour tâche de publier des ouvrages destinés à servir de références
aux personnes soucieuses de Sûreté de Fonctionnement et de Maîtrise des risques. Ceux–ci peuvent
être débutants afin les aider à démarrer dans le métier ou plus chevronnés pour se rappeler tels ou
tels éléments techniques.
Dans la lignée des ouvrages qu’il a élaborés, M2OS propose ici au lecteur un ensemble de fiches
méthodes. Cet ensemble ne se veut pas figer mais évolutif en fonction de son enrichissement, en
nombre de fiches, ajout d’annexes (exemples…).
Pour ce faire, il vous invite à y participer, un modèle de fiche vierge éditable est disponible sur le site
de l’IMdR.
Il vous est possible d’adresser tous commentaires sur l’existant, proposer de nouvelles fiches par le
moyen de votre choix en l’adressant par courriel au coordinateur du projet : prlecler@club-internet.fr .
Selon l'acception retenue en France (RG – AERO – 0040), la « Sûreté de Fonctionnement » (SdF)
est l’ensemble des aptitudes d’un produit qui lui permettent de disposer des performances
fonctionnelles spécifiées, au moment voulu, pendant la durée prévue, sans dommage pour lui-même
et son environnement.
La SdF se caractérise généralement par les quatre paramètres suivant : Fiabilité, Maintenabilité,
Disponibilité, Sécurité.
Dans certains cas, on peut y inclure d’autres paramètres tels que : Durée de vie, Survivabilité,
Invulnérabilité.
Les traductions les plus communes de « Sûreté de Fonctionnement » sont « R.A.M.S. » (Reliability,
Availability, Maintainability, Safety », « Dependability », « Dependability and Safety ». Cependant
aucune d'entre elles ne rend compte parfaitement de la définition ci-dessus.
Dans la version française des fiches méthodologiques, nous avons retenu « Sûreté de
Fonctionnement », alors que dans la version anglaise, c’est le terme « Dependability »
accompagnés d'une (*) renvoyant à la présente note.
* 2 – Certaines fiches mentionnent des références non rééditées mais dont le contenu reste
d’actualité et non remplacées.
* 3 – L’accès direct aux fiches s’effectue en cliquant sur la désignation dans le sommaire ci-dessus.
Le retour au sommaire s’effectue en cliquant sur le titre dans la fiche.
La démarche d'analyse fonctionnelle est menée de manière participative sous la forme d'un groupe de travail, qui regroupe
l'ensemble des compétences nécessaires, dirigé par un animateur. Elle s'appuie des méthodes reconnues, parmi
lesquelles les méthodes :
- APTE,
- Analyse de la valeur,
- RELIASEP,
- SADT,
- SART,
- MERISE,
- GRAFCET…
Le choix de la méthode dépend du type de produit étudié.
Il s’agit d’une méthode graphique qui visualise, sous forme d’un diagramme représentatif des équipements participant à la
mission, notamment les redondances, les éléments qui contribuent à une même fonction et les éléments de secours
nécessaires. La mission peut être sous régime permanent établi, sous régime transitoire ou par phase.
1. Analyse fonctionnelle : on établit les correspondances équipements fonctions intervenant dans la mission,
2. Modélisation : la représentation peut être sous forme :
- d’équipements en série,
- en parallèle,
- La méthode des Blocs–Diagrammes de Fiabilité est une des - Schémas fonctionnels - Diagrammes de fiabilité
méthodes contribuant à l’analyse de la sûreté de du système, ou disponibilité.
fonctionnement pour évaluer la tenue d’un système face à des - Etudes FMDS, AMDEC,
objectifs au cours d’une mission, - Décomposition
- Grâce à la représentation par redondances partielles, elle logistique du système et
permet de déterminer des modes dégradés acceptables. Le concept de maintenance
niveau de redondance requis est affaire de négociation. associé.
- Représentation simple et logique du - Le niveau de redondance 1. MIL STD-756B : Reliability modeling and
fonctionnement d’un système, acceptable pour les prediction,
modes dégradés est
- Prise en compte du profil de mission dans arbitraire, 2. A. Villemeur – Sûreté de
les caractéristiques des équipements, Fonctionnement des Systèmes
- Difficulté de prise en Industriels, Collection de la Direction des
- Visualisation de la mission réalisée par le compte des éléments Etudes et Recherches d’Electricité de
système. multifonctions, France, Editions Eyrolles,
L'allocation de fiabilité consiste à décliner les objectifs de fiabilité spécifiés au niveau d'un produit complexe (ex :
système) en objectifs applicables à différents niveaux de l'arborescence technique ou fonctionnelle du produit
(démarche de type « top down »).
L'allocation de fiabilité est une démarche itérative. Elle nécessite souvent plusieurs tentatives pour pouvoir satisfaire les objectifs au niveau global.
Elle doit être initiée en phase de faisabilité, dès que les exigences de fiabilité de conception ont été dérivées des exigences spécifiées sur les
performances opérationnelles. Normalement, une première allocation devrait être réalisée avant le début du processus de conception afin de servir
d'entrée à la revue de conception fonctionnelle prévue dans la phase de définition.
Ensuite, des reprises et des mises à jour ont à être effectuées avant chaque revue majeure de conception.
1 – Fixer les niveaux de décomposition d’un produit complexe déterminés de manière à satisfaire au mieux les besoins des concepteurs.
Selon les cas, il peut s'agir d'une fonction (fonction de service ou parfois fonction technique) ou d'un sous-ensemble matériel (ex : sous-système,
équipement complet, organe mécanique, carte électronique…).En pratique, le choix des niveaux de décomposition doit s'appuyer sur un certain
nombre de critères: complexité du produit, flexibilité de la conception aux différents niveaux de l'arborescence, critères de sécurité, entités sous-
traitées à l'extérieur…
Quel que soit l'algorithme utilisé, la politique d'allocation de fiabilité doit respecter deux impératifs fondamentaux :
- être réaliste, c'est-à-dire ne pas conduire à spécifier des objectifs qui conduiraient à des solutions non envisageables pour des questions
de faisabilité, d'encombrement, de délais…
- être efficace, c'est-à-dire en cherchant à minimiser certaines servitudes (coût, délais, consommation…) ou à maximiser certaines
performances fonctionnelles (précision, puissance, stabilité…).
L'intérêt majeur de fixer des objectifs de fiabilité à différents niveaux de décomposition d'un produit complexe est de fournir aux concepteurs des
repères sur lesquels ils pourront s'appuyer pour les choix de conception correspondants et de suivre les résultats d'essais réalisés à ces niveaux
afin de les comparer aux objectifs qui leur ont été affectés et de pouvoir réorienter les choix de conception si nécessaire.
- La déclinaison d'objectifs de fiabilité spécifiés sur un produit complexe en objectifs applicables - Dépend 1. MIL STD-338 :
aux niveaux inférieurs permet de déterminer les efforts à réaliser sur les différents sous- beaucoup de « Electronic Reliability
ensembles (techniques ou fonctionnels), de piloter les actions de conception et de production la pertinence Design Handbook »,
visant à satisfaire ces objectifs. Lorsque certains sous-ensembles sont développés par un sous- des données 2. KC Kapur & LR
traitant externe, les objectifs alloués à ces sous-ensembles par le fournisseur (ou le maître utilisées pour Lamberson « Reliability
d'œuvre) deviennent pour ce sous-traitant des objectifs de premier niveau et conditionnent le mettre en in Engineering
programme de fiabilité qu'il aura lui-même à mettre en œuvre, œuvre les Design »,
- Dans tous les cas de figure, un programme cohérent d'allocation de fiabilité amène les méthodes 3. (John Wiley & Sons)
concepteurs à considérer la fiabilité comme une caractéristique aussi importante que puissent possibles 4. RAC Blueprints for
l'être le coût, le poids, la consommation ou toute forme de caractéristique fonctionnelle du d’allocation. Product Reliability.
produit.
La tâche a pour objet d’évaluer et d’affiner, avec un degré de précision, croissant avec l'avancement du
programme, le potentiel de fiabilité du produit, à l'aide de techniques et de données évoluant généralement avec
les progrès de la conception et l'acquisition de résultats d'essais. Elle constitue une base importante pour
l'orientation des choix de conception et permet rapidement de comparer le potentiel de fiabilité prévisible du
produit avec les objectifs spécifiés, avant même l'obtention de données d'essais ou de données opérationnelles.
L’évaluation prévisionnelle de fiabilité est un processus itératif qui doit être initié en phase de faisabilité, dès que les données
conceptuelles du produit sont disponibles. Elle se poursuit et s'affine en phases de définition et de développement, au fur et à
mesure de l'avancement du processus de conception, de la connaissance de plus en plus précise des conditions de
fonctionnement des composants, et de l'acquisition éventuelle de résultats d'essais significatifs.
1 – Sélectionner, en début de projet la méthode d’évaluation prévisionnelle la mieux adaptée à la nature du produit et à la maniè re
dont les objectifs de fiabilité sont spécifiés (Ex : en terme de MTBF, de durabilité…). Il est cependant possible de changer de
méthode en fonction de l'avancement du programme, lorsque les données de conception (Ex. : technologies des composants
utilisés, conditions d'utilisation, contraintes appliquées…) deviennent de plus en plus précises.
2 – Déterminer la (ou les) classe(s) de défaillances qui doivent être considérées de manière prioritaire dans l'évaluation de fiabilité
afin de choisir la méthode d’évaluation la plus adéquate. On distingue ainsi les trois classes de défaillance suivantes :
- Les défauts de jeunesse. Ils se traduisent dans les premiers temps de fonctionnement, par un taux de défaillance décroissant
avec le temps,
- Les défauts aléatoires. Ils se traduisent en période de « vie utile » par un taux de défaillance constant,
- Les défauts d'usure. Ils se traduisent au-delà de la période de « vie utile » par un taux de défaillance croissant avec le temps.
A cet effet, le tableau 1 de la page suivante présente une description synthétique des cinq méthodes d’évaluation
prévisionnelle les plus classiques. Il met en évidence les classes de défaillances couvertes par chacune d'elles.
3 – Faire évoluer la méthode, fonction de la phase du programme au cours de laquelle elle est réalisée. Le tableau 2 de la page
suivante présente une sélection de méthodes. Elles sont envisageables en fonction de l'avancement de programme.
- Les bénéfices attendus d'une évaluation prévisionnelle de fiabilité sont nombreux. - Dépendent Voir tableau 3,
- Ils incluent plus particulièrement : beaucoup de page suivante.
La vérification rapide de la faisabilité technique en regard de l'objectif de fiabilité la pertinence
spécifié, des données
La mise en œuvre d'une allocation de fiabilité, applicables
Une entrée pour le classement des points critiques, au projet.
Un moyen de comparaison de solutions techniques concurrentes, du point de vue
de la fiabilité,
Un élément de choix des composants (types, technologies…) et de leurs
conditions acceptables d'utilisation,
Une entrée pour l'estimation des lots de rechange,
Une entrée pour l'évaluation du coût de cycle de vie du produit.
Estimer la fiabilité des équipements électroniques, y compris pour les systèmes qui
rencontrent des environnements sévères (systèmes de défense, aéronautique,
électronique industrielle, transport…) en intégrant les phases de non fonctionnement.
Fournir un outil concret pour la construction et la maîtrise de cette fiabilité.
Le taux de défaillance d’un COTS (composant, carte électronique, sous-ensemble) est estimé à partir de l’expression
suivante :
= physique . Part_manufacturing. Process
physique représente la contribution physique. Il prend en compte le profil de vie du COTS (phases, conditions
d’environnement), ainsi que les surcharges accidentelles susceptibles d’être subies par lui et non identifiées comme
telles (« overstress »).
Part_manufacturing traduit la qualité et la maîtrise technique de fabrication du COTS. Sa méthode d’évaluation se décline
selon la nature du COTS considéré. Sa valeur évolue de 0,5 à 2 (pire cas).
Process traduit la qualité et la maîtrise technique du processus de développement, de fabrication et de maintenance de
l’équipement contenant le COTS. Sa méthode d’évaluation se base sur le niveau d’application de recommandations qui
portent sur l’ensemble du cycle de vie et s’appuie sur un audit. Sa valeur évolue de 1 à 8 (pire cas).
- La méthodologie FIDES prend en compte - La qualité des évaluations Guide FIDES 1ière éd 2004
l’ensemble du profil de vie de l’équipement, y dépend de celle des « Méthodologie de fiabilité pour
compris les situations de non-fonctionnement. Elle différents facteurs les systèmes «électroniques »
ne se limite pas aux seules défaillances des multiplicatifs. Ainsi, un accessible à l’adresse Internet :
composants, mais intègre toutes celles propres au soin particulier devra être fides@innovations.net
produit complet, porté lors de la réalisation
- Contrairement aux normes en cours, elle évalue le des audits servant à la
processus « fiabilité » de l’équipement incluant le quantification des
COTS et propose des recommandations sur « Process ».
l’ensemble de son cycle de vie.
Les relevés d’évènements observés sur des équipements en exploitation ou en essai (défaillance, survie, maintenance
préventive, relevé de compteurs…) et leur datation permettent, par des méthodes graphiques ou numériques, d’estimer
ces paramètres ainsi que les intervalles de confiance associés.
*Nota : Ces deux étapes sont facultatives pour la caractérisation du paramètre de la loi exponentielle ou par une
approche de type maximum de vraisemblance.
- Si les précautions sont - Limites en cas de données peu 1. Projet SdF 2/96 : Estimation de la fiabilité d’un
prises, les données nombreuses : évènements produit (nouveau ou existant) à partir de retours
obtenues sont par rares, systèmes mono-coup, d’expériences multiples et d’expertises.
définition les plus
2. NF X 05-501 – Applications de la statistique.
proches de la réalité, - Calculs compliqués sur les
Introduction à la fiabilité.
estimations de paramètres de
- Calculs simples pour la Weibull (nécessite un logiciel 3. CEI/ISO-31010 – Gestion de la sureté de
loi exponentielle, pour les intervalles de fonctionnement – Guide d’application.
confiance),
- Richesse des résultats 4. CEI/ISO-61124, ed2 : Essai de fiabilité - Plan d'essai
(niveau de fiabilité, - La méthodologie de recueil des pour démonstration de taux de défaillance constant
tendances, information données doit être rigoureuse et
sur les modes de homogène au cours du temps, 5. J. Ringler – Précis de probabilité et de statistiques à
défaillances…). cela peut donc nécessiter des l’usage de la fiabilité, Octares/ISdF.
moyens conséquents. 6. A. Lannoy & H. Procaccia – Méthodes avancées
d’analyses de données du retour d’expérience
industriel, Eyrolles.
Les méthodes de fiabilité prévisionnelle ont pour objectif de produire des estimations a priori de la fiabilité de dispositif, appropriées aux mécanismes de défaillance susceptibles
de les affecter. Ces estimations peuvent être utilisées en phase de conception pour démontrer que la fiabilité prévisionnelle est meilleure que la fiabilité allouée, ou en
exploitation lorsque l'on souhaite par exemple améliorer la sureté d'une installation ou en étendre la durée de fonctionnement. Développées initialement pour les systèmes
électroniques, ces méthodes ont été fondées à l'origine sur l'hypothèse que le taux de défaillance des composants est constant pendant leur période d'utilisation. Si cette
hypothèse peut permettre de prendre en compte (avec précautions) des composants mécaniques simples, produits en grand nombre, susceptibles d'un mode de défaillance
simple, elle n'est en général pas applicable aux systèmes à dominante « mécanique » pour lesquels les modes de défaillance (rupture, déformation, grippage, bruyance…) liés à
la fatigue, à l'usure et au vieillissement apparaissent dès le début du cycle d'utilisation. L'objectif de la « Fiabilité en Mécanique » est donc de mettre à disposition des
concepteurs un ensemble de méthodes d'estimation de la fiabilité prévisionnelle juste nécessaires, prenant en compte les mécanismes réels de défaillance et adaptées à
chaque cas particulier.
A l'issue des étapes « classiques » d'analyse prévisionnelle qualitative de la fiabilité (AMDEC, arbres de défaillances), trois approches de la fiabilité prévisionnelle de chaque
composant sont proposées :
1. Il s'agit de composants traités dans des recueils de données de type « taux de défaillance constant » relatifs à des composants similaires, utilisés sur des systèmes
similaires, dans des conditions et avec un profil d'utilisation et de maintenance similaires il est alors possible, sous réserves de vérifier la validité des hypothèses, d'utiliser
des taux de défaillance (avec éventuellement intervalle de confiance associé). (Voir en Annexe 1 une liste de bases de données disponibles).
2. Il s'agit de composants « standardisés » sur lesquels les fabricants disposent de données suffisantes pour fournir « sur catalogue » des méthodes de calcul de la fiabilité
prévisionnelle paramétrées selon les conditions d'utilisation (spectre de charge). Les données prennent implicitement en compte les conditions de maintenance préventive
des composants de référence. Ces méthodes donnent directement l'évolution du taux de défaillance et de la fiabilité du composant en fonction du temps. Les principales
lois de mortalité utilisées sont la loi log-normale et la loi de Weibull. Ce type d'approche est applicable en particulier à des composants comme les roulements, ressorts,
engrenages, composants électromécaniques…
3. Le composant ne fait pas l'objet de standardisation, ou ses conditions d'utilisation sont spécifiques, il est alors préconisé d'appliquer des méthodes de type « contrainte-
résistance » permettant de calculer la fiabilité prévisionnelle en prenant en compte les modèles d'endommagement adaptés à la physique des contraintes subies par le
composant (usure, fatigue à grand nombre de cycles, fatigue oligocyclique…). L'application de ces méthodes permet alors d'enrichir les approches classiques du
dimensionnement des composants mécaniques en quantifiant les risques liés à l'utilisation de « coefficients de sécurité » et en optimisant le dimensionnement en fonction
des objectifs. (Voir fiche pédagogique « Méthode Contrainte-Résistance »).
IEEE Std 500 IEEE Guide to the collection and presentation of electrical, electronic, 1983
sensing, component and mechanical equipment reliability data for nuclear
power generating stations
T-Book Reliability data of components in nordic nuclear power plants 6ième édition – 2005
Nota: La liste ci-dessus n'est pas exhaustive. Certaines bases de données peuvent ne pas avoir été mises à jour.
Évaluer la fiabilité d'une pièce mécanique soumise à des contraintes. Cette fiabilité s'exprime par la probabilité que, sur l'ensemble de la mission, la contrainte mécanique subie
en tout point de la pièce reste inférieure à la résistance de la pièce.
La méthode est fondée sur l'application des techniques de calcul de pièces mécaniques pour chaque type de contrainte subie :
- contraintes statiques,
- fatigue à grand nombre de cycles,
- fatigue oligocyclique,
- usure…
Elle consiste à décrire de manière statistique:
- le cycle de contraintes appliquées, en y intégrant autant que possible les contraintes « exceptionnelles » (pics de contraintes) et les aléas prévisibles liés à la mission,
- les caractéristiques statistiques de résistance du matériau correspondant à chaque type de contrainte appliquée (résistance à la rupture, limite élastique, limite de fatigue,
facteur K de fissuration…), en prenant en compte les aléas liés au matériau (hétérogénéités, vieillissement…), à la réalisation et au montage de la pièce (usinage,
traitements thermiques, assemblage…), aux facteurs externes (température, humidité…).
La fiabilité de la pièce en chaque point s'exprime par la probabilité que, pour chaque mode de défaillance, la sollicitation appliquée (« contrainte » C) soit inférieure à la
sollicitation admissible (« résistance »).
Dans le « cas d'école » où la contrainte C et la résistance sont distribuées selon des lois normales de caractéristiques respectives (C ; C) et (), la variable X= -C suit
une loi normale décrite de moyenne (X = - C) et de variance (2X = C).
Au delà du coefficient de sécurité k = c / on peut alors calculer la fiabilité de la pièce: R = Prob (X > 0).
Dans les autres cas (autres distributions), il est nécessaire de faire appel à des techniques statistiques plus élaborées pour comparer contrainte et résistance :
- algèbre des variables aléatoires,
- simulation de Monte Carlo,
- transformées de Mellin,
- méthodes d'approximation (FORM/SORM – First/Second Order Reliability Methods).
L’objectif est de construire la sûreté de fonctionnement *1, d’analyser, de réduire et d’évaluer l’occurrence de bogues d’un logiciel
et si possible le plus tôt dans le développement d’un nouveau logiciel. Pour ce faire, il est nécessaire d’avoir des activité s
appropriées, en fonction du stade d’avancement du projet de développement et de l’appliquer en conséquence.
La construction de la sûreté de fonctionnement est un processus itératif qui doit être initié en phase de faisabilité, lors de la
construction de la spécification du produit et dès que les données conceptuelles de celui-ci sont disponibles. Elle se poursuit et
s'affine durant les étapes de la phase de conception, au fur et à mesure de l'avancement du processus de conception, de la
connaissance de plus en plus précise des conditions de fonctionnement des composants, de l'acquisition éventuelle de résultats
d'essais significatifs et se poursuit en phase de test, voire en opération.
Il existe cinq grands groupes d’activités qui s’appuient sur des méthodes et approches classées par ordre chronologique depuis la
faisabilité jusqu’à la mise en œuvre du logiciel :
1. Activités en réponse à la réglementation (qualification des entreprises de développement, spécification du produit
logiciel). Elles conduisent à spécifier des moyens, outils, méthodes d’analyse,
2. Activités basées sur des métriques du logiciel (ex. Méthodes de prévision de la fiabilité, RADC TR 85 228, Sofmat…),
3. Activités basées sur des Méthodes subjectives (Bayesienne),
4. Activités basées sur les tests,
5. Activités basées sur les Modèles de croissance de fiabilité, ex Goel-Okumoto, courbe en « S »…
Le tableau 1 en annexe présente une description succincte des différentes activités. Des fiches venant à la suite en détailleront
certains points.
Il n’y a pas une conduite mais des conduites qui s’appuient sur les facteurs suivants :
- Le domaine de pertinence est principalement fonction de la - Les spécifications / cahier - La validation du respect
réglementation si elle s’applique, de la phase dans laquelle la des charges des règles métiers
méthode est mise en œuvre. réglementaires s’appliquant au logiciel,
- Pour ce faire les méthodes se doivent d’être : lorsqu’elles sont requis, - L’identification des
1. Utiles et utilisables, - L’organisation et les risques de bogues les
2. Suffisamment précises pour être du niveau recherché, moyens tant du plus probables et leurs
3. Applicables suffisamment tôt pour être efficaces, « spécificateur » que de conséquences.
4. Discriminantes pour tenir compte : celui qui réalise,
De l’investissement tant humain que matériel, - La spécification du
De la qualité du processus de développement qui le met en logiciel, le dossier
œuvre, d’analyse, les plans
De l’architecture tant logicielle que matérielle, d’organisation du projet et
De la diversité des constituants (nouveaux développements de développement,
ou composants sur étagères « COTS »), - Les règles de
Des conditions d’emploi, développement, les outils
D’un rapport coût / efficacité fonction du risque encouru. mis en œuvre,
Le tableau 2 en annexe indique les phases où chacune des activités - Les résultats documentés
est généralement applicable. de tests et la description
circonstanciée des
bogues rencontrés.
L’objectif n’est pas seulement de construire la sûreté de fonctionnement *1 mais de répondre à des exigences réglementaires à respecter pour
obtenir l’autorisation de mise en œuvre, en service, d’un système, produit contenant une part essentielle de logiciel. C’est la démonstration que
celui ci répond à la norme applicable qui conditionne, entre autre, cette autorisation.
{1} Celles qui concernent la capacité d’une entreprise à développer un système d’un niveau donné.
L’entreprise peut, si elle le souhaite, se faire « qualifier » à un niveau donné et ainsi justifier d’une organisation, une capacité industrielle, un savoir
faire pour prétendre à une certaine crédibilité lors notamment d’appels d’offre. Cette « qualité » n’aura pas de conséquences sur la seule SdF des
produits mais sur l’ensemble de leurs performances.
Dans cette catégorie figurent principalement « CMMI » (Capability Maturity Model Integrated) et « SPICE » (Software Process Improvement
Capability dEtermination). Ce ne sont pas à proprement parler des normes mais des guides ou modèles.
CMMI comporte 5 niveaux de maturité divisés en secteurs clés indiqués à titre d’exemple :
1. Initial, ne contient pas de secteur,
2. Reproductible, planification de projet, assurance qualité,
3. Défini, définition des processus, ingénierie des produits logiciels,
4. Maîtrisé, gestion quantitative des processus et de la qualité logicielle,
5. Optimisé, gestion des changements technologiques et des changements de processus.
Ces niveaux constituent les étapes sur le chemin menant à des processus matures, conformes à un ensemble de bonnes pratiques observées à
travers le monde dans des entreprises réputées pour bien gérer leurs processus. La conformité à CMMI est notamment requise pour contracter
avec le département américain de la défense.
{2} Celles qui constituent un des points des exigences du cahier des charges.
Une norme en la matière traduit et définit le savoir faire de la communauté des développeurs dans un domaine d’application pour respecter
notamment des objectifs de sécurité.
La norme est soit tous domaines, soit spécifique à domaine particulier (Aéronautique, Ferroviaire, Automobile…).
{1} La première ne se rattache pas à un projet en particulier. Elle s’inscrit dans la vie de l’entreprise pour en définir, à ses frais, la crédibilité à partir
de la date de reconnaissance par un organisme d’accréditation, pour s’éteindre à la date de cession d’activité de l’entreprise, si elle arrive. A un
intervalle spécifié par la norme un renouvellement de l’accréditation doit être effectué par l’organisme la délivrant pour en maintenir la pérennité.
{2} La seconde à l’inverse s’attache à un projet particulier dès la phase de faisabilité si l’on est donneur d’ordre, et, se termine lors du retrait de
service du produit chez l’exploitant.
L’objectif est de construire la SdF par le choix de moyens, outils et analyses propres à assurer le niveau de SdF souhaité, aux
différentes étapes du cycle de vie.
La mise en œuvre est continue tout au long du cycle de vie et doit s’adapter aux charges inhérentes à chacune des phases du
projet.
Les méthodes inductives et déductives, d’évaluation, de vérification, sont mises en œuvre de façon itérative au cours de la vie du
produit tout en étant mise en œuvre le plus tôt possible pour éviter de coûteux redéveloppement lorsqu’un risque non identifié
précédemment est révélé.
Tous domaines où les conséquences de l’activation Moyens Des produits conformes au cahier des charges,
d’un défaut peut entrainer des conséquences financiers, dans les délais et coûts prévus.
importantes / graves sur la disponibilité voire la compétences. Les défauts critiques du projet, leur identification,
sécurité liée au produit leur conséquence, leur occurrence.
Taux de réussite Dépend beaucoup de l’expérience des CEI 61025 - 2006 ed.2: Fault Tree Analysis.
élevé des projets. manageurs dans le domaine concerné. CEI 60812 - 1985 : Techniques d'analyse de la
Permet d’identifier Est largement fonction du degré fiabilité des systèmes / Procédures d'analyse des
les risques de d’innovation du projet tant en terme de modes de défaillance et de leurs effets (AEEL).
dysfonctionnemen fonctionnalités, de technologie. RADC TR 85-228, Vol 1 - December 1985, “Impact of
t, Peuvent s’avérer dispendieuses si elles Hardware/Software Faults on System Reliability;
Hiérarchise les ne sont pas réalisées au bon niveau. Study Results“. E.C. Soistman / K. B. Ragsdale
efforts pour Ne sont pas une garantie d’exhaustivité. Wang, John X. and Marvin L. Roush – 2000: What
remédier aux Les évaluations quantitatives sont peu Every Engineer Should Know About Risk
conséquences. connues et peu reconnues. Engineering and Management. London: CRC
Press.
Améliorer, par l’intégration de connaissances préalables, la précision de l’estimation d’une caractéristique de fiabilité d’un
produit lorsque les données de retour d’expérience sont insuffisantes ou biaisées par des modifications de conception,
d’exploitation ou de maintenance.
Réduire le volume des essais de fiabilité.
Conduite de la méthode
La démarche bayésienne fait appel à des traitements analytiques simples dès lors que la distribution de probabilité « a posteriori » du paramètre à estimer
garde une forme stable (i.e. même famille que la distribution « a priori ») après intégration des données empiriques observées. Dans le domaine de la fiabilité,
les deux cas suivants satisfont à cette condition :
- Cas de la probabilité de bon fonctionnement des systèmes mono coup : on a affaire à un scénario d’événements bernoulliens à 2 états « le système
fonctionne » et « le système ne fonctionne pas ». L’estimation porte dans ce cas sur la probabilité « p » de bon fonctionnement du système. Pour assurer
la stabilité de la distribution « a posteriori » de « p », il convient d’adopter pour distribution « a priori » une loi type beta à 2 paramètres (fonction eulérienne
de 1ère espèce).
- Cas de la durée de vie d’un système à loi de mortalité exponentielle : dans ce cas, le taux de défaillance « » du système est réputé constant et
l’estimation porte sur ce paramètre. Pour assurer la stabilité de la distribution « a posteriori » de « », il convient d’adopter pour distribution « a priori » de
« » une loi gamma à 2 paramètres (fonction eulérienne de 2ème espèce).
Dans un cas comme dans l’autre, le bon choix des paramètres de la distribution « a priori » est crucial car il va influer sur la forme de la distribution
« a posteriori », et donc sur l’estimation « a posteriori » du paramètre suivi. Pour déterminer les paramètres de la distribution « a priori », deux catégories
d’approche peuvent être envisagées selon le contexte :
- Méthode des coefficients de ressemblance : elle est recommandée lorsque l’on dispose au départ de données expérimentales sur des systèmes voisins ou
similaires mais ayant été exploités de manière différente. Elle consiste à définir puis à chiffrer des « coefficients de ressemblance » entre le système actuel
et le(s) système(s) antérieur(s) pris en référence dans l’a priori. Ces coefficients doivent porter sur des critères techniques considérés comme ayant un
impact significatif sur la fiabilité du système. Ils se traduisent alors en terme d’équivalence de données virtuelles « a priori ») qui permettent de régler les
paramètres de la distribution « a priori » de la caractéristique de fiabilité.
- Jugement d’experts : il est fait appel au jugement professionnel d’experts qui connaissent bien les caractéristiques du système ainsi que sur le
comportement de systèmes similaires. Ce jugement est pris en compte via un questionnaire oral ou écrit. Les réponses collectées sont exploitées et
pondérées par l’analyste qui, à l’instar de la méthode des coefficients de vraisemblance, va se traduire en termes de données virtuelles « a priori ».
Dans tous les cas de figure, les paramètres de la loi « a priori » se traduisent par un centrage de la loi autour d’une valeur considérée comme la plus probable
et une dispersion d’autant plus élevée que les données « a priori » sont incertaines. Une fois fusionnées avec une première série de données objectives , le
traitement analytique conduit à une distribution « a posteriori » dont la dispersion est plus petite que celle de la distribution initiale si les valeurs « a priori »
sont réalistes (dans le cas inverse, mieux vaut ne plus passer par les données « a priori » et revenir à l’approche fréquentielle traditionnelle). Une estimation
« a posteriori » du paramètre à estimer peut être établie, soit de manière ponctuelle en adoptant par exemple l’espérance mathématique de la distribution, soit
par « intervalle de crédibilité » reflétant la plus ou moins grande dispersion de cette distribution. Si l’on dispose, dans un second temps, d’une nouvelle série
de données objectives, on réitère ce processus en adoptant pour nouvelle distribution « a priori » la distribution « a posteriori » précédente.
Lorsque les modèles utilisés ne permettent pas d’assurer la stabilité des distributions « a posteriori », la méthode analytique n’est plus possible et l’usage de
l’ordinateur s’avère nécessaire. C’est le cas fréquent des systèmes complexes dont les défaillances peuvent être à la fois de nature aléatoires et dues à
l’usure.
Dans le domaine du contrôle par échantillonnage de la fiabilité de matériels en production, il existe des plans types d’essais « bayésiens » applicables au cas
des matériels mono-coups ou des matériels à taux de défaillance constants. L’usage de ces plans, par comparaison aux plans « classiques », présente
l’avantage de réduire le volume des essais à effectuer, en termes de taille d’échantillon et /ou de durées d’essais.
A ce stade l’APR fournit au projet une caractérisation des tâches de sûreté de fonctionnement à accomplir et les éléments pour les organiser.
L’APR se fond alors dans l’ensemble des analyses de risques (systèmes, sous-systèmes, processus, etc.) de l’identification, l’évaluation, la confrontation aux critères
d’acceptation jusqu’aux actions de maîtrise des risques tout en constituant une colonne vertébrale et un agenda (à mettre à jour au fur et à mesure de l’avancement du
projet) des tâches de SdF.
La réalisation de l'APR fait l'objet d'un travail de groupe où chaque membre apporte son expérience sur l'identification des risques potentiels. Ce travail est facilité par
l'utilisation de listes-guides d'entités dangereuses et de situations dangereuses élaborées pour un domaine précis, ainsi que par l'analyse fonctionnelle réalisée en
amont. Il importe, dans un projet innovant pour l’entité qui le conduit, d’associer à ce stade toutes les informations ou compétences possibles externes à l’entité.
Le tableau de la page suivante illustre une façon courante de présenter les résultats d’une APR. Il est surtout approprié pour un projet technologique conçu de zéro.
D’autres présentations peuvent être plus adaptées à un projet de changement dans un système d’exploitation.
Tous domaines d’activité lorsque des risques liés à la sécurité - Profil de vie du système Rapport d’APR incluant :
existent. Ex : transports, espace, chimie, nucléaire, énergie, - Dossier de définition du système les tableaux d’analyse,
défense,… - AMDEC, HAZOP, AAD, AAE, … des conclusions / recommandations,
L’APR est généralement l’élément de base d’un dossier de sécurité et - Liste des situations dangereuses la cartographie des risques,
de son actualisation pendant la vie du système. - Liste des dangers potentiels le plan de veille, d’audits, de suivi, le registre des
- Liste générique de dangers dangers.
Les résultats d'une APR se présentent en général dans un tableau à 11 ou 12 colonnes qui rappelle celui de l'AMDE(C) :
(1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11)
Système Phase Entités Evènements Situation Evènement Accident Effets ou Classification Mesures Application de
ou dangereuses causant une dangereuse causant un potentiel conséquences par gravité préventives ces mesures
fonction, situation accident
dangereuse potentiel
2. Phase : identification des phases ou des modes d'utilisation du système ou de la fonction pendant lesquels certaines entités
peuvent générer un danger,
3. Entités dangereuses : identification des entités du système ou de la fonction auxquelles on peut associer un danger intrinsèque,
4. Evénements causant une situation dangereuse : identification des conditions, événements indésirables, pannes ou erreurs qui
peuvent transformer une entité dangereuse en situation dangereuse,
5. Situation dangereuse : identification des situations résultant de l'interaction d'une entité dangereuse et de l'ensemble du
système à la suite d'un événement décrit précédemment.
6. Evénement causant un accident potentiel : identification des conditions, événements indésirables, pannes ou erreurs qui
peuvent transformer une situation dangereuse en accident,
7. Accident potentiel : identification des possibilités d'accidents résultant des situations dangereuses à la suite d'un événement
décrit précédemment,
8. Effets ou conséquences : identification des effets ou conséquences des accidents potentiels, lorsqu'ils se produisent, estimation
des probabilités d’occurrence effective des accidents,
9. Classification par gravité : appréciation de la gravité des effets ou conséquences suivant une classification du type « mineure »,
« significative », « critique », « catastrophique »,
10. Mesures préventives : recensement des mesures proposées pour éliminer ou maîtriser les risques ainsi identifiés (situations
dangereuses ou accidents potentiels),
11. Application de ces mesures: recueil d'informations relatives aux mesures préventives proposées (ex : est-ce que ces mesures
ont été incorporées dans le système ? Se sont-elles révélées efficaces ? etc.).
Notes :
une 12ème colonne dédiée à l’estimation des probabilités d’occurrence des accidents peut être ajoutée.
l’APR peut être étendue à une étude de scenarios d’accidents en adjoignant des colonnes criticité et rapport coût /risque
Les états possibles d'un système (état nominal, état de fonctionnement dégradé, état de panne totale…) sont modélisés
à l’aide de cercles reliés entre eux par des flèches indiquant les transitions possibles entre ces états. Ces transitions
sont conditionnées, selon les cas, par des processus de défaillance ou par des remises en état des entités en panne
dont l’intensité (taux de défaillance ou taux de réparation) est indiquée. Mathématiquement, le diagramme d’état donne
lieu à un système d’équations différentielles qualifié de "markovien" lorsque les taux de transition sont constants. La
résolution de ce système différentiel permet de calculer les probabilités associées aux différents états identifiés et les
principales caractéristiques de SdF du système.
L’analyse des caractéristiques de SdF par graphe d’état passe par 4 étapes principales :
1. Recensement et classement de tous les états fonctionnels possibles du système (nominal, dégradés, en panne).
Si chaque élément du système peut être caractérisé par 2 états possibles (fonctionnement ou en panne), le nombre
maximum d’états est 2n.
2. Recensement et identification de toutes les transitions possibles entre les différents états identifiés du système.
Ces transitions sont conditionnées par des processus de défaillance ou par des remises en service (après
réparation) d’éléments en panne.
3. Réalisation d’un graphe d’état, constitué de cercles et de flèches reliant ces cercles, ayant pour objet de
schématiser tous les états du système identifiés à l’étape 2 ainsi que les liaisons (et les intensités associées) entre
ces états.
4. Etablissement et résolution du système d’équations différentielles linéaires associé au graphe d’état. Cette
résolution conduit à l’obtention, selon les cas, de la disponibilité instantanée (fonction du temps), de la disponibilité
asymptotique (en régime établi), ou des principales caractéristiques de SdF telles que : le MTTF, la MTBF, le
MTTR, la fréquence moyenne de pannes du système…
- Intérêt de la visualisation - Limité aux dispositifs sans usure, 1. Pagès & M. Gondran, " Fiabilité des
graphique, systèmes", Eyrolles,
- Impossibilité de prendre en compte des
- Traitement possible de événements déterministes dont la date 2. A. Villemeur, "Sûreté de
systèmes à éléments est fixée de l’extérieur, fonctionnement des systèmes",
dépendants (ex : Eyrolles,
redondance passive), - Croissance exponentielle du nombre
d’états du graphe avec le nombre 3. NF X 60.503 : " Introduction à la
- Prise en compte possible d’éléments du système, disponibilité ",
de lois non exponentielles
dans les durées de - L’usage d’un programme informatique 4. NF EN 61165: " Application des
réparation (méthode des spécialisé est nécessaire dès que le techniques de Markov
états fictifs). nombre d’états devient important.
NE CONFONDONS PAS !
Ces méthodes qu’on peut croire semblables ou variantes d’une même démarche n’ont, en
fait, pas grand’ chose en commun. L’arbre de défaillances (Fault Tree Analysis) et l’arbre
d’événement (Event Tree) sont des démarches d’analyse prévisionnelle alors que l’arbre des
causes est une description a posteriori d’un accident.
L’arbre des causes part de l’accident qui s’est produit et décrit les enchaînements de
causes (défaillances, circonstances, actions, fonctionnements normaux…) qui se sont combinés ce
jour-là pour créer l’accident ; c’est une méthode particulièrement utilisée dans l’analyse des accidents
du travail.
La confusion entre les termes, des traductions littérales de l’anglais, des écarts historiques
diffusés par les ouvrages de référence ont créé force quiproquos et malentendus sur ces termes. Il
est très important de ne pas confondre ces trois méthodes dont les démarches sont
différentes, ce ne sont pas des variantes de la même démarche ! Peu importe si vous utilisez
des appellations différentes de celles-ci, à condition d’être conscient du risque de confusion. Lisez
attentivement les fiches et identifiez clairement la démarche qui vous concerne !
Bonne lecture.
La méthode des arbres de défaillances permet une analyse « déductive » des causes
techniques ou opérationnelles pouvant provoquer des situations contraires à un objectif
spécifié, en particulier, de sécurité (situation redoutée) ou de disponibilité (événement
indésirable).
On dit que la méthode est déductive car elle permet d’identifier les causes à une situation.
Cette analyse déductive est de nature " Top-Down". C’est à dire qu’en partant de l’événement redouté, on recherche pas
à pas les événements qui peuvent en être la cause, de l’événement le plus général pour aller aux événements
élémentaires.
Ces événements sont la conséquence d’événements internes ou externes au produit. Parmi ceux-ci figurent les défauts
du produit.
- La méthode est plus - La liste des états indésirables du produit. Une telle liste
- Document contenant :
particulièrement bien peut être établie dès la phase amont de la conception, Les arbres de
adaptée aux événements être le résultat de l'expérience de l'entreprise ou de son défaillances
combinatoires. Elle devient client ou de la réflexion libre d'un groupe de travail. correspondant aux
cependant délicate à mettre Souvent, il s'agit de considérer les aspects évènements redoutés
en œuvre quand il s’agit réglementaires du système en situation ou les risques étudiés,
d’événements séquentiels. inacceptables à faire courir aux utilisateurs (cas des Analyse des coupes
études de sécurité). minimales.
- La méthode permet de - La qualité des résultats dépend beaucoup de 1. DEF STAN 00-56 : "Safety
connaître combien il est l’expérience et de « l’imagination » de celui qui Management Requirements for
nécessaire d’avoir effectue l’analyse, Defence Systems",
d’évènements - La méthode nécessite un programme 2. CEI 61025 Ed. 2.0 : "Analyse
intermédiaires pour informatique, lorsque le nombre de combinaisons par arbre de défaillance",
conduire à l’événement d’évènements dépasse quelques dizaines 3. RAC : "Application Guide",
redouté (coupe(s) d’unités, pour calculer l’occurrence de 4. Ian S. Sutton : "Process
minimales(s)). l’événement indésirable étudié et rechercher les Reliability and Risk
coupes minimales. Management", Van Nostrand
Reinhold – 1992.
- Démarche naturelle très facile à s’approprier. Quelques - Les facteurs d’aggravation 1. CEI 62502 :
recommandations importantes faciles à assimiler. Un peuvent se confondre avec des " Techniques
animateur bien formé (1 ou 2 jours) est recommandé mais défaillances, d’analyse de la SdF,
la méthode ne requiert pas de compétences longues ou - La détermination des facteurs analyse par arbre
difficiles à acquérir. La qualité des conclusions dépend de d’aggravation est fortement d’évènement ".
la qualité et l’exhaustivité de la liste des éléments pris en tributaire de la compétence de 2. Techniques de
compte. Le chiffrage dépend de la disponibilité et de la l’analyste, l’ingénieur, Sécurité
précision des probabilités des alternatives élémentaires, - La méthode nécessite un et gestion des
- Permet d’estimer l’influence d’un facteur en faisant varier sa programme informatique, risques, SE 4 050,
probabilité de réalisation, lorsque les événements "Arbres de cause,
- Permet de suivre le déroulement d'un scénario accidentel et résultent d'arbres de arbres de défaillance
d'évaluer l'influence des parades sur la fréquence des défaillances qui dépassent et arbres
conséquences, quelques dizaines d’unités, d’événement" – 2004
- Associée aux arbres de défaillances permet de connaître pour calculer l’occurrence de 3. Railtrack, Yellow
combien il est nécessaire d’avoir d’évènements chaque conséquence étudiée Book 3, "Engineering
intermédiaires pour conduire à l’événement redouté et rechercher les coupes Safety Management",
(coupe(s) minimales(s)). minimales.
Réunir dans une représentation synthétique et logique tous les éléments ayant
contribué à un incident avéré.
A partir de l’incident survenu, on relie les événements ou conditions dont la combinaison a directement provoqué
l’incident. Puis, on reprend la décomposition pour chaque événement jusqu’à avoir intégré tous les événements et
conditions élémentaires cités comme ayant contribué à l’incident.
D’abord réunir librement tous les éléments : les faits, les circonstances, les étapes du scénario.
Ensuite, les classer selon qu’ils sont « normaux » ou « anormaux » ou bien « internes » ou « externes ». Selon les
référentiels, on classe ces éléments selon plusieurs critères plus ou moins nombreux.
Puis établir les liens logiques ou chronologiques (C est la conséquence de A + B…).
Représenter les événements par des symboles correspondants à leur classement (ronds, carrés…), les liens logiques
par des traits.
Il en résulte un schéma de forme arborescente où l’événement étudié est l’unique point final et les faits ou
circonstances ayant contribué se déploient en amont à une place qui représente leur rôle dans le scénario.
OUI NON
2) La défaillance cause-t-elle une perte de fonction ou un effet secondaire 3) La défaillance cachée seule ou combinée avec une autre défaillance a-t-elle un effet
préjudiciable à la sécurité? préjudiciable sur la sécurité?
Conséquences Conséquences
OUI* Conséquences Conséquences
sécurité NON OUI* NON économiques
économiques sécurité cachées cachées
15) Une tâche d’entretien ou de
4) Une tâche d’entretien ou de
lubrification est-elle applicable et
lubrification est-elle applicable et 8) Une tâche d’entretien ou de 11) Une tâche d’entretien ou de
OUI* efficace?
efficace? lubrification est-elle applicable et lubrification est-elle applicable et OUI*
OUI* efficace? efficace?
OUI* NON
NON 16) Une tâche conditionnelle est-elle
5) Une tâche conditionnelle est- NON NON applicable et efficace?
elle applicable et efficace? OUI*
9) Une tâche conditionnelle est- 12) Une tâche conditionnelle est-
OUI* elle applicable et efficace?
elle applicable et efficace?
OUI*
NON OUI* 17) Une tâche d’échange
systématique est-elle applicable et
6) Une tâche d’échange NON efficace?
OUI*
systématique est-elle applicable et 13) Une tâche d’échange
OUI* efficace? 10) Une tâche d’échange systématique est-elle applicable NON
systématique est-elle applicable et et efficace?
OUI* OUI* 18) Une combinaison de tâches est-
efficace?
NON NON elle applicable et efficace?
OUI*
7) Une combinaison de tâches est- 14) Une tâche de détection de
elle applicable et efficace? NON NON
défaillance est-elle efficace?
OUI* OUI* 19) Une tâche de détection de
PAS DE MAINTENANCE
défaillance est-elle efficace?
PREVENTIVE NON OUI*
NON RECONCEPTION RECONCEPTION SOUHAITABLE
SOUHAITABLE PAS DE MAINTENANCE NON
PREVENTIVE
OUI* Retour en opération RECONCEPTION
RECONCEPTION
SOUHAITABLE
SOUHAITABLE
Examen détaillé des composants d’un système pour déterminer ce qui se produirait
si ce composant devait fonctionner en dehors de son mode normal d’utilisation.
Chaque composant est affecté d’un ou plusieurs paramètres (pression, débit, puissance électrique…). L'Hazop regarde
chaque paramètre alternativement et emploie des mots-guides pour énumérer le comportement anormal possible tel
que « plus », « moins », « supérieur », « inférieur », « pas de »… . Les effets d'un tel comportement sont alors évalués.
Mots-guides :
NON : aucune donnée ou signal ne passe,
PLUS : hausse quantitative,
MOINS : baisse quantitative,
AUSSI BIEN QUE : action réalisée correctement mais avec des résultats supplémentaires,
UNE PARTIE DE : seulement une partie de la fonction est réalisée,
INVERSE : inversion de la fonction,
AUTRE QUE : le résultat obtenu est différent de celui attendu,
TOT/AVANT : quelque chose se produit plus tôt que prévu,
TARD/ENSUITE : quelque chose se produit plus tard que prévu.
- Le but est d’identifier les causes des risques et d’y - Dossier de conception, - Identification des risques,
trouver des remèdes, - Analyse fonctionnelle, - Action de réduction des
- Une HAZOP ne doit pas être utilisée comme une - Description de risques,
étude de conception. Si la conception est incorrecte l’environnement, - Hazard Log,
ou incomplète, la pertinence de l’étude sera - APR, AMDEC, arbres de - AMDEC, arbres de
compromise. défaillances. défaillances.
- Travail pluridisciplinaire en équipe, - Si le périmètre d’étude est trop 1. DEF STAN 00-56 :
vaste, risque de non-exhaustivité, "Safety
- Analyse systématique et détaillée, Management
- Approche parfois lourde à mettre Requirements for
- Prise en compte de tous les points de vue (concep- en place, Defence Systems",
teur, utilisateur, maintenance, fournisseurs…),
- Attention au choix des mots- 2. DEF STAN 00-58 :
- Possibilité de travailler avec des « boîtes noires », guides. Si on en réduit la liste ou "HAZOPS Studies
s’il est trop limité, il abaisse la on Systems
- Possibilité de travailler sur les interactions entre pertinence de l’analyse, Containing
composants si les modes de défaillances ne sont Programmable
pas connus ou très complexes, - Adapter les mots-guides au Electronics".
domaine d’analyse.
- Audit de la conception.
Le système ARPIC–M est un moyen de garantir la salubrité des aliments. Il repose sur la
prévision et la prévention des dangers biologiques, chimiques et physiques.
Il a pour objectif de fournir une approche systématique d’identification, de localisation, d’évaluation et de
maîtrise des risques potentiels de dégradation de la salubrité des denrées dans la chaîne alimentaire.
La directive européenne 93/43 sur l’hygiène des denrées alimentaires a instauré l’application
du système ARPIC–M pour l’ensemble des filières agroalimentaires.
La mise en place d’un système ARPIC–M correspond à une démarche rationnelle composée d’étapes successives. Celles-ci
peuvent se regrouper en 6 grandes familles :
1) Définition du produit et du procédé de fabrication,
2) Identification des dangers à chaque étape de fabrication,
3) Etablissement des points critiques pour le contrôle (CCP),
4) Etablir un système de surveillance des points critiques,
5) Enregistrer et garder ces enregistrements,
6) Vérification de l’efficacité du système.
- Le système ARPIC–M fournit une - Difficulté à identifier les Risques et 1. La sécurité alimentaire par le HACCP –
méthodologie claire pour développer Points Critiques (RPC), DGAL (Direction Générale de
un plan d’assurance qualité : - Difficulté à évaluer la gravité des l’ALimentation) – Publication du
Les principes sont dangers et la probabilité de leur Ministère de l’Agriculture, de la Pêche
internationalement reconnus, occurrence. et de l’Alimentation,
Exhaustivité de l’analyse des 2. C.Wallace, S.Mortimore : HACCP :
dangers. Guide pratique – Polytechnica, 1998.
L'analyse de zone consiste à identifier et analyser, grâce à une investigation systématique réalisée sur maquettes, les
problèmes résultant d’interactions physiques (émissions thermiques, bruit acoustique, nœuds de vibration, EMC…)
entre différentes « zones » d’un produit ou entre certaines « zones » et le milieu extérieur. Ces problèmes ne peuvent
pas être identifiés, en principe, à partir de la seule documentation technique et nécessitent donc une investigation
spécifique sur des ensembles maquettés faisant eux-mêmes l'objet d'une partition en « zones ».
Les conséquences des effets d'interactions sont ensuite classées selon deux catégories :
- les conséquences mineures, qui sont en principe classées sans suite,
- les conséquences significatives qui donnent lieu à des propositions de modifications ou à des
recommandations. Par exemple :
ajout de dispositifs d'isolation,
amélioration des interfaces homme/machine,
amélioration des dispositifs d'évacuation (par exemple sur le plan thermique),
recommandations sur les procédures de maintenance,
recommandations sur les procédures d'exploitation…
L'analyse de zone, appliquée de manière successive sur des maquettes de plus en plus représentatives du produit
final, peut enfin conduire à la définition d'essais à entreprendre (ex : essais de compatibilité) et à la préparation
d'études spécifiques (ex : analyses de risques particuliers : feu, explosions, contamination…).
- Tout système dans lequel des interactions physiques, non - Ensembles - Effets des flux
appréhensives par les analyses classiques (AMDEC, maquettés, perturbateurs sur les
AAD…) entre « zones » distinctes risquent de nuire à son - Dossiers techniques. différentes zones du
bon fonctionnement, produit ou sur le milieu
- Tout système dans lequel des défaillances de cause extérieur,
commune sont à prévoir, - Défaillances de causes
- Interfaces homme/machine. communes,
- Actions correctives ou
essais à entreprendre.
Il s’agit d’une méthode qui définit le programme de maintenance préventive optimale vis à vis des enjeux liés
aux conséquences des défaillances des systèmes et des équipements. Le dimensionnement de la
maintenance doit s’effectuer en fonction des conséquences des défaillances sur les fonctions (approche
système) plutôt qu’en fonction des défaillances sur les composants (approche objet). Cette méthode peut
influencer la définition de l’équipement lui-même.
La méthode MBF – Voir aussi sous le nom d’OMF (Optimisation de la Maintenance par la Fiabilité) – passe par les
étapes suivantes :
1) Elaboration d’un plan MBF (objectifs, méthodes, planification et organisation),
2) Détermination des données initiales (critères de sélection des candidats MBF, caractéristiques de conception,
définition fonctionnelle, données de Sûreté de Fonctionnement, de Coût et d’Environnement),
3) Analyse RCM proprement dite :
- Analyse des conséquences des défaillances (conséquences sécuritaires, économiques…),
- Analyse structurale,
- Définition des tâches de maintenance améliorant le niveau de fiabilité ou de sécurité du candidat,
- Identification des alternatives de maintenance,
- Analyse et hiérarchisation des tâches de maintenance suivant les paramètres de sûreté de
fonctionnement*1 à optimiser,
- Analyse système construite en arbre logique,
- Détermination des seuils et intervalles de maintenance en cohérence avec les paramètres de
l’analyse.
4) Exploitation des retours d’expériences internes et externes à la suite de la phase d’exploitation de systèmes
comparables.
- La méthode MBF s’inscrit conjointement aux processus des - Plan de maintenance d’un - Plan de maintenance
études de Sûreté de Fonctionnement et des Analyses du système similaire, optimisé,
soutien Logistique de façon à orienter l’organisation de la - Etudes FMDS, AMDEC, - Périodicités des
maintenance pour une sécurité et une disponibilité optimale - Décomposition logistique tâches
à moindre coût. Cette méthode concerne donc les systèmes du système et concept de homogénéisées.
complexes, coûteux et à longue durée de vie. maintenance associé.
- Justification organisée et structurée des - Approche 1. CEI 60300-3-11, Ed.2.0 : "Gestion de la sûreté de
types de tâches à effectuer et de leur parfois lourde à fonctionnement - Partie 3-11: Guide d'application -
périodicité, mettre en Maintenance basée sur la fiabilité".
- Prise en compte de l’impact de la place, 2. MIL STD-2173: RCM Requirements for naval
fonction sur la sécurité et la disponibilité aircraft, weapon systems and support equipment
et du profil de vie, - La méthode 3. Méthode OMF élaborée par EDF,
- Visualisation de la mission réalisée par s’appuie sur 4. Projet ISdF 6/99 : “Guide de l’Ingénierie de
le système, une AMDE(C). Maintenance”,
- Optimisation en fonction : 5. DEF STAN 02-045 : Requirements for the
de l’exploitation du produit, du sous- Application of Reliability-Centred Maintenance,
ensemble, de la fonction, 6. Techniques to HM Ships – Submarines, Royal
de la criticité des fonctions en Fleet Auxiliaries and other Naval Auxiliary Vessels,
termes de : 7. Gilles Zwingelstein – "La maintenance basée sur
Sécurité, la fiabilité – Guide pratique d'application de la
Disponibilité, RCM", Editions HERMES – 1996
Coût. 8. Daniel Richet, Marc Gabriel, Denis Malon, Gaëtan
Blaison, "Maintenance basée sur la fiabilité : un
outil pour la certification", Editions Masson – 1996
Calcul des facteurs de base « ICS » : « COUT GLOBAL », « DISPONIBILITE », « EFFICACITE » (ces dernières étant
liées à la notion d’ESSENTIALITE).
- Le processus « ICS », axé sur le compromis « COUT/DISPONIBILITE- - Cahier des - Valeurs des
EFFICACITE », se veut simple et résolument opérationnel pour tous ceux charges + facteurs de base
qui ont en charge la conception d’équipements et/ou de systèmes. données et des
- « ICS » a une vocation « SYSTEMIQUE », un caractère « PLURIDISCI- « COUT » et indicateurs,
PLINAIRE » et est donc destiné tant aux administrations clientes et aux « TECHNICO- - Classement des
grands groupes industriels qu’aux PME/PMI, sociétés-conseils et LOGISTIQUES solutions
universitaires qui se spécialisent dans l’ingénierie logistique. ». envisageables,
- « ICS » constitue à cet effet un outil permettant d’améliorer la compétitivité - Sélection de la
des produits conçus et de conforter ainsi l’image de marque des solution
fournisseurs. préférentielle.
- Mise en œuvre d’une démarche pragmatique de SLI, incluant : - Nécessité de réaliser GTR – ICS /
Rapidité d’exécution des tâches, des « AMDEC » IMdR, Ouvrage
Utilisation aisée avec des moyens simples, évoluées. « ICS », version
Prise en compte simultanée du couple - Possibles difficultés n°3, 01/01/2006.
« COUT/PERFORMANCES », pour l’estimation des
Introduction d’un facteur de mérite et d’autres indicateurs facteurs d’
spécifiques d’aide à la décision. «ESSENTIALITE».
- Adaptation du processus aux règles propres à l’entreprise sans surcoût
notable hormis des frais limités de formation.
Permettre aux concepteurs de maîtriser les paramètres de conception, à l'aide d'un nombre minimal d'essais. Le réglage de ces paramètres
permet d’optimiser les performances du produit ou des procédés et/ou de réduire leur sensibilité aux différentes sources de variabilité.
Un plan d'expériences est une méthode d'expérimentations basée sur un protocole d'essais structuré. On y fait varier simultanément les valeurs
(ou les niveaux) de plusieurs facteurs d'entrée d'un essai à un autre. On observe alors l'impact de ces variations sur une ou plusieurs
performances (variable de sortie) d'un produit ou d'un procédé. De ce fait, il est en opposition avec le schéma expérimental « classique » dans
lequel la recherche de l'effet de facteurs d'entrée contrôlés sur une performance consiste à ne faire varier qu'un seul facteur à la fois d'une
expérience à une autre. La structuration de cette expérimentation ainsi que le traitement des résultats obtenus s’appuient sur l’application des tests
statistiques faisant appel à l’analyse de la variance (ANAVAR).
La faisabilité d'un plan d'expériences est sous-tendue par le respect de plusieurs conditions :
- Nombre d'exemplaires de l'entité testée (produit ou procédé) compatible avec le schéma expérimental requis,
- Planning suffisant pour la réalisation complète des essais,
- Budget compatible avec le protocole expérimental retenu,
- Existence d'une équipe multidisciplinaire devant mener à bien la réalisation du plan d'expériences et constituée au minimum :
D'un expert en plan d'expériences (ex : un statisticien, un expert en fiabilité…) dont le rôle essentiel est de mettre au point le
protocole expérimental, de le valider et d'exploiter les résultats,
D'ingénieurs et/ou de techniciens ayant une connaissance approfondie du produit (ou du procédé) et de son profil d'utilisation,
D'experts technologiques dans les domaines liés à la raison d'être du plan d'expériences (ex : Technologies électriques,
technologies mécaniques, expertise de l'environnement…),
D'expérimentateurs ayant la charge de réaliser les essais conformément au protocole retenu et d'effectuer les mesures nécessaires
avec la précision requise.
Lorsque ces conditions sont réalisées, le plan d'expériences peut être mis en œuvre et passe par les étapes suivantes :
- Le choix d'une méthode d'expérimentation : facteurs retenus, nature de ces facteurs, choix des modalités ou des niveaux sur les facteurs,
interactions envisagées (d'ordre 2 ou plus), nature du plan d'expériences (complet, fractionnaire, simple ou croisé, définition de la matrice
d'essais du plan retenu, ordre des essais).
- La conduite de l’expérimentation proprement dite : elle consiste à mettre en œuvre la séquence d'essais conformément au protocole
retenu à l'étape précédente. La valeur des résultats obtenus en final dépend beaucoup des soins apportés à la qualité de réalisation des
expériences et à la précision des mesures.
- L’analyse des résultats se complète d'une série de vérifications de la part du « pilote » de l'expérimentation :
Vérification de la cohérence des résultats et l'examen des valeurs suspectes,
Recherche des effets significatifs (analyse de la variance) et modélisation de la réponse à l'aide du modèle linéaire (utilisation
préconisée d'un logiciel spécifique),
Recherche des ambiguïtés au niveau des « effets » (ex : mélange possible des « contrastes » et des effets dans l'utilisation des
plans fractionnaires),
Contrôle a posteriori du domaine d'intérêt des résultats (i.e. : envisager éventuellement la poursuite de l'expérimentation dans une
nouvelle région),
Analyse des « alias » entre effets principaux et effets d'interactions (intérêt possible d'un plan complémentaire),
Examen de la validité du modèle du 1er degré (intérêt possible de plans complémentaires pour envisager un modèle quadratique
par exemple).
Une reprise de l'expérimentation doit donc être envisagée si nécessaire. Selon les cas, cette reprise peut conduire à :
- Lever les ambiguïtés (alias, mesures incertaines, biais…),
- Intégrer dans le modèle de nouveaux facteurs d'entrée non pris en compte dans le plan initial,
- Utiliser un modèle non linéaire (ex : modèle quadratique),
- Mettre en évidence l'optimum recherché,
- Rechercher une solution « robuste » (i.e. : insensible aux fluctuations des facteurs non contrôlés),
- …
Prédire, de manière économique et sur un laps de temps réduit, l'évolution dans le temps d'une (ou plusieurs) performance(s)
fonctionnelle(s) ainsi que la durée de vie d'une entité matérielle utilisée dans ses conditions normales d'emploi, à partir
d’essais réalisés sous des valeurs de contraintes supérieures aux niveaux spécifiés en utilisation normale.
Les essais accélérés consistent à soumettre une ou plusieurs entités matérielles (composant, carte, sous-ensemble, ensemble complet) à
une ou plusieurs contraintes simultanées, sous des niveaux supérieurs aux niveaux spécifiés en utilisation normale, jusqu’à obtention de leur
fin de vie. Les résultats obtenus seront ensuite extrapolés dans les conditions normales du produit à l'aide de modèles analytiques validés par
l'expérience. En général, l'entité considérée correspond à un composant, à un assemblage de matériaux ou à des structures simples.
- Réalisation de l'essai : l'essai accéléré est réalisé sur tous les exemplaires identifiés à l'étape de planification, en faisant appel aux
moyens d'essais permettant de générer l'environnement spécifié. Pour pouvoir extrapoler la durée de vie de l'entité dans les conditions
normales d'utilisation, il est indispensable de poursuivre l'essai jusqu'à défaillance de chaque exemplaire testé. Lorsque le modèle
analytique retenu donnant l'accélération de la probabilité de défaillance au niveau de contrainte appliqué n'apparaît suffisamment validé
par l'expérience, il est recommandé de compléter l'essai de base par des essais complémentaires consistant à appliquer à d'autres
exemplaires les contraintes de même nature mais sous des niveaux différents. Les durées de vie observées sous ces différents niveaux
permettent alors de s'assurer que le modèle analytique initialement retenu pour l'extrapolation des résultats dans les conditions normales
est valide et, le cas échéant, de faire appel à un autre modèle.
- Analyses et prédiction : les analyses effectuées à partir des durées de vie observées à l'issue de l'essai accéléré en vue de la prédiction
de durée de vie dans les conditions normales d'utilisation s'appuient sur le modèle analytique retenu. De plus, les techniques de lissage
sur des échelles fonctionnelles appropriées peuvent s'avèrent nécessaires pour valider ce modèle. Parmi les modèles les plus
fréquemment utilisés, on peut citer :
le modèle d'Arrhenius : surtout applicable aux composants électroniques, il traduit l'évolution du taux de défaillance avec la
température sous la forme d'une loi exponentielle.
le modèle d'Eyring : généralisant le modèle d'Arrhenius, il traduit l'évolution du taux de défaillance sous la forme d'une loi
exponentielle faisant intervenir à la fois la température et l'humidité.
la loi en puissance inverse du type : N x Sb = K, où S correspond à un niveau de contrainte donné et N le nombre de cycles
d'application de cette contrainte jusqu'à défaillance de l'entité. Cette loi s'applique particulièrement au cas des structures
mécaniques soumises à sollicitations répétitives (loi de Basquin).
Explorer les marges de fonctionnement d’un produit en développement et déceler au plus tôt,
pour pouvoir les corriger, les défauts inhérents à la conception (produit et procédés) qui
réduisent ces marges à des valeurs jugées insuffisantes.
Les essais aggravés consistent à soumettre une entité matérielle de conception nouvelle (pièce, composant, assemblage…) à des
contraintes d'environnement et/ou de fonctionnement sous des niveaux croissants en vue d’atteindre les limites de résistance des
technologies utilisées. Par principe même, ces contraintes sont portées à des niveaux supérieurs aux valeurs spécifiées. Une fois les
limites de résistance atteintes, les essais sont interrompus avant de statuer sur les suites à donner : marges jugées suffisantes, reprise
de conception, corrections ponctuelles…
Pour connaître les limites de fonctionnement de l'entité soumise à essai et déceler au plus tôt les causes assignables de défaillance
(i.e. : causes non liées aux limites technologiques et en principe corrigibles), le principe retenu consiste à appliquer à l'entité les
contraintes sélectionnées de manière échelonnée en partant d'un niveau au moins égal au niveau spécifié en utilisation et en
augmentant ce niveau par échelons successifs.
Si, en l'absence de défaillance (selon les critères préalablement définis), on atteint un niveau de contrainte tel que la dispersion
maximale prévisible des sources de variabilité (ex : procédés de fabrication, caractéristiques internes des matériaux, environnement,..)
reste sans effet sur la conformité des performances par rapport à la spécification, la marge de fonctionnement est considérée comme
suffisante et l'essai peut être arrêté.
En cas d'apparition d'une défaillance (selon les critères retenus) sous un niveau donné de la contrainte appliquée, il est nécessaire de
procéder à une analyse technologique approfondie afin d'en déterminer la cause première. Deux situations peuvent alors se présenter :
- La cause de défaillance est une cause « assignable » (ex : tolérance insuffisante, composant mal calibré, problème de
fabrication…), une action corrective visant à supprimer cette cause ou à en atténuer les effets (opération dite de
« contournement ») est alors engagée. Cette action corrective étant incorporée, le processus itératif de l'essai aggravé est
repris à partir du niveau de contrainte sous lequel la défaillance s'était manifestée,
- La cause de défaillance est inhérente aux technologies utilisées, à la nature même du concept du produit ou des procédés de
fabrication. On considère alors que l'on a atteint la limite technologique du produit, qui peut apparaître suffisante au regard de
la spécification, ou au contraire insuffisante, ce qui doit entraîner, selon les cas :
Soit un retour sur la spécification,
Soit une remise en cause de la conception de l'entité.
Quelle que soit la décision retenue, l'essai aggravé faisant intervenir la contrainte considérée est arrêté.
La démonstration de l'efficacité des essais aggravés peut se mesurer de manière naturelle en termes de rentabilité économique. La
méthode permettant d'évaluer cette rentabilité consiste à comparer :
- Le surcoût généré par la mise en œuvre des essais aggravés (moyens d'essais, destruction éventuelle de prototypes, heures
opérateurs…),
- Les gains (en termes économiques) résultant de la mise en évidence précoce des défauts et de leur correction.
- En priorité, éléments du produit ou des procédés qui - Profil de vie du produit, - Marges de fonctionnement,
présentent un caractère critique de par leur fonction ou de - Valeurs spécifiées des contraintes, - Faiblesses potentielles du
par certains caractères de nouveautés : conception et - Eléments a priori critiques (sorties produit.
technologies nouvelles, nouveau profil d'utilisation, AMDEC),
procédés encore non matures… - Contraintes jugées efficaces.
- Détermination des marges de - Nécessité de pouvoir disposer 1. ASTE « Le rôle des essais dans la maîtrise de la
fonctionnement, de moyens d’essais spécifiques fiabilité »,
- Identification des défauts de (ex : vibrateurs 6 axes), 2. Projet ISdF 4/99 : « Recommandations pour l’usage
conception (causes assignables - Impossibilité de prédire la industriel des essais hautement accélérés »,
de défaillances) du produit, fiabilité du produit, 3. BNAe RG Aéro 000 29 : « Guide pour la définition et la
- Construction de la robustesse - Destruction des exemplaires conduite d’essais aggravés »,
du produit. soumis à essais (en général). 4. G.K. Hobbs « Accelerated Reliability Engineering » –
Ed. John Wiley & Sons – 2000
5. Harry W. McLean « HALT, HASS & HASA explained:
Accelerated Reliability Techniques » – ASQ Quality
Press – Milwaukee – Wisconsin.
Faire apparaître les défauts de jeunesse d’un produit afin de les corriger avant livraison.
Les épreuves de déverminage consistent à soumettre les exemplaires (ou certains de leurs sous-ensembles) d’un matériel en sortie de
production à des cycles de contraintes adaptées (électriques, mécaniques, thermiques…) visant à précipiter les défauts latents (présents dans
le produit) en défauts patents (observables). Le niveau des contraintes appliquées peut être, selon les cas, inférieur ou égal aux valeurs de
spécification d’emploi (déverminage classique) ou supérieur à ces valeurs (déverminage aggravé). Dans tous les cas de figure, le
principe de base est de stimuler plutôt que simuler, mais ne pas détruire.
La décision et la planification d'épreuves de déverminage doivent être établies en amont de la phase de production, sur la base de critères
économiques et de faisabilité technique… L'opération de déverminage est la résultante d'un processus récurrent qui doit se décliner de la
façon suivante :
- Dès la phase de conception, planification initiale des épreuves de déverminage :
Intérêt économique du déverminage,
Partie(s) du système soumise(s) à déverminage (i.e. : cartes, équipements, sous-systèmes…),
Profil de déverminage envisagé : nature des contraintes, valeurs retenues, durées d'application…
- En fin de phase de conception : expérimentation (par exemple sous la forme d'un plan d'expériences) du profil de déverminage
planifié initialement sur quelques exemplaires ayant une configuration proche de la configuration finale. En fonction des résultats
obtenus, le profil d'environnement initial peut être modifié pour rendre le déverminage plus efficace.
- Au cours de la phase de production, les épreuves de déverminage doivent continuer à être pilotées, sur la base d'analyses
statistiques portant sur les défauts révélés par ces épreuves et sur les données de retour d'expérience des produits en exploitation. En
fonction des résultats de ces analyses, les décisions suivantes peuvent être envisagées :
Poursuite du déverminage en l'état : si les taux de chute en déverminage restent significatifs, si les procédés apparaissent
encore immatures et si les défaillances en exploitation sont peu nombreuses,
Modification du profil d'environnement du déverminage : si les défaillances en exploitation sont trop nombreuses (i.e. : le
déverminage dans sa forme actuelle n'est pas suffisamment efficace),
Arrêt du déverminage : dès que les procédés deviennent matures et que les taux de chute révélés en déverminage ainsi que les
défaillances observées en exploitation deviennent très faibles. On peut être amené aussi à ne pas supprimer complètement le
déverminage, mais à l'appliquer seulement sur des échantillons prélevés périodiquement afin de s’assurer qu’il n’y a pas de
dérives importantes dans les procédés de fabrication ou dans la qualité des produits approvisionnés.
L'efficacité du déverminage dépend essentiellement du profil d'environnement retenu à chaque niveau d'application (cartes, équipements…).
Afin de choisir la nature des contraintes applicables, il est recommandé d'analyser préalablement le profil de vie complet du produit et de
caractériser les contraintes d'environnement associées aux différentes situations de ce profil. Le profil de déverminage retenu initialement
devrait ainsi être conçu de manière à stimuler, dans le respect des marges de fonctionnement de l'entité considérée, les défauts latents dont la
manifestation au cours du profil de vie risque d'être corrélée avec les contraintes d'environnement et d'utilisation identifiées. Les profils de
déverminage les plus efficaces et les plus pratiqués sont constitués de séquences répétitives de cycles thermiques et de cycles de
vibrations aléatoires, avec adjonction de stimulis et de séquences « arrêt-marche » dans le cas des matériels électroniques.
Dans le cas du déverminage « aggravé », les niveaux de contraintes appliquées sont au-delà des valeurs spécifiées. Cela impose d’avoir
réalisé en amont des essais aggravés assurant la robustesse du produit et permettant de connaître ses limites de fonctionnement (i.e. :
limites du domaine dans lequel les performances restent nominales) et ses limites de destruction (i.e. : limites du domaine dans lequel les
performances sont dégradées mais réversibles). Les niveaux appliqués dans ce type de déverminage sont en général compris entre ces deux
limites de manière à obtenir le maximum d’efficacité sans pour autant entamer trop sensiblement la durée de vie potentielle du produit. Des
essais de validation du profil de déverminage retenu devront dans ce cas être effectués avant transfert à la production de manière à vérifier
d’une part l’innocuité, et d’autre part l’efficacité de ce profil.
Objectif
Fournir toutes les informations requises pour identifier les causes de dysfonctionnements d’un
produit manifestés au cours de son développement ou de son utilisation en vue d’apporter, en
temps et en heures, les actions correctives appropriées. Fournir des indicateurs permettant
d’évaluer la croissance de fiabilité du produit en phase de développement ou en phase
d’utilisation.
Description
La logique de traitement des incidents et des actions correctives (LTI–AC) consiste à établir, tant chez le fournisseur en phase de
conception du produit que chez l'exploitant en phase d’utilisation, une boucle de réaction visant à enregistrer, documenter et analyser
tous les incidents survenant au cours du cycle de vie du produit. Cette boucle de réaction s’appuie sur une organisation appropriée de
l’équipe de développement (chez le fournisseur) et de l’équipe de suivi opérationnel ou de maintenance (chez l’utilisateur).
Conduite de la méthode
Les incidents étant enregistrés au fur et à mesure de leur apparition dans la base de données, un objectif majeur de la LTI–AC est de
déterminer ceux qui laissent présager un caractère reproductible afin d'en rechercher les causes et de pouvoir y remédier. Il convient
à cet effet de :
- favoriser le degré d'investigation sur les causes de tous les incidents, même s'ils ne sont pas critiques pour le programme
(ou la qualité de service),
- classer chaque cause d'incident selon deux types de critères,
- cause assignable (incident a priori reproductible),
- cause non assignable (incident fortuit),
- décider des incidents sur lesquels les investigations doivent être plus approfondies,
- décider des incidents pour lesquelles des actions correctives devront être engagées,
- élaborer en temps utile les actions correctives appropriées,
- vérifier l'efficacité de ces actions correctives (après un délai suffisant de temps opératoire après leur incorporation).
Une clé de l'efficacité de la LTI–AC réside dans la structure même de la base de données et dans la nature des informations saisies.
Ces informations sont saisies dans la base de données avant d'être complétées par les investigations ultérieures.
Des analyses de défaillance peuvent être menées à différents niveaux et nécessitent parfois la participation d'un fournisseur de
composant ou d'un module spécifique acheté en l'état. Les analyses de défaillance sont en principe demandées dans le cas des
incidents les plus critiques (ex : incidents de nature récurrente, incidents difficiles à réparer, incidents mettant en jeu la sécurité…).
La base de données, cœur de la LTI–AC, permet l'émission de documents de synthèse périodiques nécessaires au système de
gestion des incidents :
- historique des incidents enregistrés sur une période donnée,
- livret des points critiques,
- indicateurs de croissance de fiabilité,
- les histogrammes et diagrammes de Pareto…
L’analyse du Coût de Cycle de Vie (CCV) vise l’optimisation prévisionnelle et la maîtrise du coût global de possession d’un produit,
d’une machine ou d’une installation. C’est une donnée économique destinée à faciliter les choix stratégiques de conception et de
développement du produit ainsi que le contrôle de sa gestion.
La conception à coût global objectif constitue un outil méthodologique essentiel dans cette approche.
Cette analyse permet d’orienter les études de sûreté de fonctionnement, les études de maintenance et de soutien logistique
intégré.
L’analyse de CCV est une démarche qui vise à guider les prises de décision des concepteurs et des acheteurs par une vision aussi large que
possible des coûts induits par l’équipement en question depuis son acquisition jusqu’à son démantèlement. Elle permet de mettre en évidence les
centres de coût les plus importants.
La démarche peut être structurée en 4 étapes :
- Plan d’analyse du CCV : domaine d’application, objectif, résultats attendus,
- Développement du modèle de CCV : niveau d’analyse, phases du cycle de vie, arborescence des coûts, catégories de coûts,
- Analyse du modèle de CCV : collecte des informations,
- Gestion de l’analyse du CCV : documentation, analyse des résultats, mise à jour.
L’analyse du CCV consiste à chiffrer de manière prévisionnelle les coûts liés aux diverses phases du cycle de vie du produit :
- Expression du besoin,
- Conception préliminaire,
- Conception détaillée et qualification,
- Industrialisation,
- Production,
- Utilisation,
- Retrait de service.
Chacune de ces phases est génératrice de coûts. La maîtrise du CCV concerne l’ensemble de ces phases. L’analyse doit être conduite dès les
phases amont car celles-ci induisent des coûts sur les phases de développement, de production et d’utilisation.
Le CCV se calcule à une date donnée et pour une période de référence définie. On doit raisonner en termes de coûts actualisés du fait que les
durées prises en compte sont assez importantes (durée de vie du produit).
- En conception, la démarche permet de faire des choix de conception par - Phases du cycle de vie, - Evolution des coûts
l’identification des facteurs influents, - Catégories de coûts (main d’exploitation,
- En cours d’exploitation, la démarche permet d’orienter les décisions de d’œuvre, matière, énergie…), - Coût moyen sur une
gestion de l’installation à partir de l’évolution des coûts énergétiques, - Collecte des éléments de période de référence
l’augmentation de la charge de maintenance, tout comme la baisse de coût, donnée,
performance de l’installation. - Performances de sûreté de - Centres de coûts les plus
fonctionnement, importants…
- Durée de référence
concernée…
- L’analyse CCV permet la mise en évidence des - Le réalisme de l’analyse CCV dépend de la 1. XP X 50.155 : Management par la
principaux inducteurs de coût (énergie, fiabilité, pertinence des prévisions de fiabilité, d’évolution valeur – Coût global – Décembre
maintenance…), des prix, d’impact des défaillances… 1997
- Elle apporte une vision globale et permet une 2. CEI 60-300-3-3 : Dependability
prise de décision justifiée. management – Application guide
– Life cycle costing – Juillet 2007