Analyse de risques : Identification et estimation : Démarches d'analyse de risques - Méthodes qualitatives d'analyse de risques
CoursOutils transverses

Généralités

Définition : Méthode d'analyse de risque qualitative

Une méthode d'analyse de risques qualitative consiste à identifier non seulement les événements dangereux ou les enchaînements d'événements dangereux (scénarios) pouvant conduire à une situation à risques mais aussi les causes et les conséquences de ces événements.

Elle est qualitative puisqu'elle conduit à une estimation des conséquences des événements dangereux et non à un chiffrage de ces conséquences comme c'est le cas pour une méthode quantitative.

Fondamental : Objectif des méthodes d'analyse de risques qualitatives

Dans le contexte actuel d'augmentation constante des moyens technologiques (industrie, constructions, infrastructures, ...) l'Homme met au défi les lois de la nature en implantant ces moyens partout. Mais il ne souhaite plus vivre avec une épée de Damoclès au dessus de lui, il veut maîtriser les risques liés à ces activités technologiques et s'en donne les moyens.

Les méthodes d' analyse de risques qualitatives ont alors un objectif commun d'identification non seulement des événements dangereux pouvant conduire à une situation à risques mais aussi les causes et les conséquences de ces événements dangereux.

Bien que l'objectif de toute analyse de risques soit le même, il existe un ensemble de méthodes (présentées succinctement au chapitre 1, puis détaillées au chapitre 3) développées dans des domaines d'activités différents et adaptables à d'autres domaines.

Historique

A partir des années 1930 les taux de défaillance, utilisés pour comparer des événements passés, le sont aussi pour faire des prévisions sur des événements à venir : la théorie de la fiabilité est née.

Au cours des années 1940 et 1950, l'approche fiabiliste gagne du terrain, principalement dans les industries aéronautique, militaire et nucléaire.

A la fin des années 1950, de nombreux travaux sont menés montrant l'importance des erreurs humaines dans les défaillances des systèmes. Les premières analyses prévisionnelles de fiabilité des systèmes incluant des erreurs humaines et leur quantification sont réalisées à partir de 1957 : elles considèrent alors l'homme comme une « mécanique ».

Dans les années 1960, H. A. Watson, des laboratoires Bell, met au point la méthode dite d'arbres des défauts ; grâce à elle, il devient possible de décrire les aléas du fonctionnement de systèmes complexes.

Au début des années 1970, N. Rasmussen, de l'US Nuclear Regulatory Commission, et ses équipes d'ingénieurs réalisent la première « analyse de risques » complète des centrales nucléaires dans leur intégralité.

La décennie 80 voit l'approfondissement dans plusieurs directions :

  • collecte de données de fiabilité,

  • mise au point de nouvelles méthodes d'analyse de la fiabilité, et de la disponibilité, des systèmes (par exemple les réseaux de Pétri),

  • méthodes de prise en compte de facteur humain (méthode HCR : "Human Cognitive Response technique", méthode HEART : "Human Error Assessment and Reduction Technique"...).

La décennie 90 est notable pour l'introduction des techniques de la sûreté de fonctionnement dans toutes les industries (automobile, production d'hydrocarbures, pétrochimie...) et aussi dans le génie civil et le bâtiment.

La première décennie de ce XXIème siècle sera certainement celle de l'avènement sociétal de la préoccupation de maitrise de risque et de l'apport de réponses sous la forme de méthodologies dotées de boites à outils et de méthodes d'application.

Partie 1 - Présentation synthétique des méthodes d'analyse de risques (page suivante)Introduction (page Précédente)
AccueilImprimerRéalisé avec SCENARI