Open Access
Issue
Nat. Sci. Soc.
Volume 27, Number 4, Octobre/Décembre 2019
Page(s) 390 - 398
DOI https://doi.org/10.1051/nss/2020005
Published online 04 March 2020

© NSS-Dialogues, 2020

Selon Ulrich Beck, l’affirmation de la « société du risque » doit se traduire par une destitution de l’autorité scientifique et technique sur la marche du monde et par l’acceptation de son ingouvernabilité croissante. Or, de manière paradoxale, comme le montre bien l’auteur, parallèlement à la reconnaissance de cette notion de « société du risque », s’est construite ce que l’on pourrait appeler une « risquologie », constituée d’un ensemble de disciplines qui, au cours du temps, se sont rapprochées et institutionnalisées en vue de former une science de la gouvernabilité. Nous sommes ainsi sommés de penser ensemble les deux facettes d’un phénomène qui a probablement une portée beaucoup plus générale puisque la prise de conscience de la crise écologique que nous connaissons a aussi été portée par des réflexions dénonçant la rationalisation du monde, tout en ouvrant sur le recours à davantage de science et d’expertise.

La Rédaction

Avec la notion de risque, nos sociétés ont pendant un temps cru posséder un bon outil pour cerner l’air du temps et comprendre l’histoire en train de se faire1. À travers le titre de l’ouvrage fondateur d’Ulrich Beck (1986), La société du risque, on comprenait en effet que les préoccupations collectives pour les dangers produits par nos sociétés industrialisées redéfinissaient nos sociétés et le politique. La notion résumait à la fois un mode de changement social, une forme de stratification dans nos sociétés ainsi qu’un type d’activité politique. Depuis la publication du livre de Beck, les temps ont évidemment changé. Nous sommes passés à d’autres ères : de celle du risque, nous serions passés à celle des catastrophes (Guénard et Simay, 2011), à celle de la menace (Papaux, 2013), ou encore à celle de la vulnérabilité, de la résilience ou de l’adaptation (Boudia et Jas, 2019).

Ces âges brossés à grands traits écrasent des variations temporelles, géographiques et sociales de ce qui fait les sociétés contemporaines. Ils créent du débat (ces portraits sont-ils d’abord ressemblants ?) et sont foncièrement discutables méthodologiquement : peut-on sociologiquement faire le portrait de sociétés ? Faisant rentrer les sociétés dans leurs âges, ne gomme-t-on pas, notamment, les contradictions qui les font et les compromis changeants que l’on trouve pour les gérer ?

L’une de ces contradictions est le fait que la société du risque est une société qui destitue l’autorité de la science, mais qui connaît simultanément une institutionnalisation des méthodes d’analyse des risques pour l’action publique. La perte de crédibilité et d’autorité de la science pour énoncer ce que seraient les risques est une des thèses premières de Beck (2003) : « Lorsqu’il s’agit de définir des risques, la science perd le monopole de la rationalité ». Autrement dit, dans les termes lapidaires de la traduction anglaise de Risikogesellschaft : « There is no expert on risk » (Beck, 1992). À l’aune de l’émergence d’une science de l’analyse des risques et l’usage généralisé depuis des méthodes de calcul ainsi que de démarches d’aides à la prise de décision prenant le même nom, ces assertions peuvent surprendre.

N’y a-t-il pas un paradoxe entre ces deux phénomènes ? Comme autorité publique, la science serait foncièrement contestée, ainsi qu’en attestent les controverses typiques de la société du risque. Toutefois, elle progresserait parallèlement à travers l’application de savoirs, de pratiques et de langages formels du risque et de son évaluation dans les activités de gouvernement. Dans cet article, je mets en regard société du risque et société de l’analyse, ou déclin de la rationalité scientifique dans des sociétés réflexives et importance accrue d’un corps de savoirs et de pratiques formalisées d’analyse des risques. Les deux phénomènes ne s’ignorent pas ou ne se développent pas l’un contre l’autre. Les professionnels du risque n’ignorent pas la nature controversée et l’indécidabilité sociale des propositions sur les risques. Ils répondent dans leurs propres termes à cette possibilité. L’analyse des risques, dans cette perspective, se définit comme une science de la gouvernabilité.

Société du risque, société de la controverse

Avec les dangers industriels a émergé une des plus fortes contradictions des sociétés contemporaines et des institutions qui les gouvernent : leur rapport au savoir, scientifique notamment, comme moyen de régulation des problèmes et des conflits. Dorothy Nelkin (1975) l’avait très tôt noté en s’intéressant à l’impact des scientifiques intervenant dans des arbitrages environnementaux. Les experts scientifiques nous sont à la fois indispensables et suspects. Ils sont constamment appelés à intervenir dans des situations problématiques, mais on se méfie de manière tout aussi constante de leur influence.

U. Beck a lourdement insisté sur une partie de cette contradiction − celle de la méfiance envers la rationalité scientifique dans la société du risque. L’une de ses thèses principales est que la science a perdu crédibilité et autorité pour énoncer ce que seraient les risques. Il n’y a plus d’expert du risque, l’expérience du risque et de l’incertitude étant généralisée, la science devient un point de vue parmi d’autres. Dans la société du risque, tout énoncé sur un risque de contamination sanitaire est un énoncé particulier, un point de vue normativement et politiquement fondé. Dans ce cadre, les données et les évaluations scientifiques sont attaquées au même titre que tout autre argument. L’autonomie de la rationalité scientifique et de la quête d’objectivité est remise en cause. Elle apparaît pleinement comme une rationalité sociale, le fondement normatif de ses évaluations et décisions en matière de protection de la santé contre les contaminations se trouvant dévoilé2. Pire encore, la prétention à pouvoir calculer les risques est contredite par l’expérience de l’incertitude ou de la catastrophe que tout un chacun peut faire.

La thèse de la société du risque peut être raccrochée à celle d’une société de la controverse dans laquelle les incertitudes paraissent largement irréductibles et où les énoncés scientifiques sont publiquement mis à l’épreuve. L’incertitude et la politisation des événements que sont les risques rendent particulièrement difficile l’accord sur l’interprétation des faits – ce que Collins (1981) appelle la « flexibilité interprétative » – et où, par conséquent, l’autorité professionnelle des scientifiques est régulièrement remise en cause. L’établissement de disciplines, au sens de regroupements autour d’un corps de savoir autonome et par lequel l’exercice de fonctions sociales est légitimé, se trouve obéré par la politisation du savoir sur les risques.

Beck apporte un certain nombre d’analyses et d’intuitions qui permettent de comprendre en quoi une société qui est consciente des risques qu’elle fait courir à elle-même freine la professionnalisation de la science. Il explique, par exemple, que nombre de méthodes et d’énoncés scientifiques, publiquement mis en cause, en viennent à être abandonnés. Ceux qui continuent de les défendre en font ce qu’il nomme des « tabous », protégés par des petits regroupements de scientifiques qui tendent à bloquer leur mise en discussion. Beck décrit de la sorte l’émergence de ce que la sociologie des sciences qui lui est contemporaine a appelé des core-sets (Collins, 1981), c’est-à-dire des groupements très réduits d’experts qui protègent un petit corps de savoirs estimés valables au terme d’une controverse publique : une forme de féodalisation de la science (Collins, 1981, p. 368).

L’analyse que Beck esquisse ainsi est très pertinente pour analyser la forteresse assiégée qu’est aujourd’hui la toxicologie réglementaire (Demortain, 2013). D’autres mécanismes de redéfinition de la distribution de l’autorité scientifique ont été mis en évidence par la sociologie des sciences, confirmant les intuitions de Beck : le fait, par exemple, que dans les controverses publiques, les scientifiques sont mis en concurrence parce qu’aucun ne peut prétendre au rang d’expert désigné publiquement et légalement ; la sociologie des sciences a aussi montré combien les critères d’excellence scientifique étaient remplacés par les propres critères des autorités qui mobilisent le savoir scientifique (Wynne, 1989). Tout cela est parfaitement illustré par les recherches portant sur cette forme hybride et précaire de pratique scientifique qu’est la « science réglementaire » (Wynne, 1984).

L’expansion de la risquologie ou la société de l’analyse

Au moment même où Beck écrit, l’analyse des risques devient pourtant le chapeau commun pour un ensemble de disciplines jusqu’alors distinctes (Rip, 1986) : l’analyse probabiliste des risques stricto sensu (qui découle de l’application de l’analyse des systèmes à la sûreté nucléaire), la tradition de l’ingénierie de la sûreté et de la fiabilité, les études de dangers et de catastrophes naturelles en géographie, l’actuariat et la recherche médicale (toxicologie et épidémiologie tout particulièrement). Des psychologues migrent également vers la question des choix individuels dans des situations d’incertitude collective pour fonder ce qui s’affirmera comme le courant de la perception des risques.

Toutes ces traditions de recherche ont convergé à compter des années 1970 sur l’usage commun du terme de risque, remplaçant petit à petit celui de danger (hazard). Ce changement conceptuel reflétait à la fois la pénétration des techniques probabilistes, le souci d’attirer un nouveau lectorat, mais aussi la montée en force d’un objectif stratégique de contribuer à la réduction de l’exposition aux dangers et de leur fréquence. À partir de 1981, la Society for Risk Analysis fournit un toit commun aux disciplines qui partagent ce caractère stratégique et l’emploi nouveau du terme de risque (Thompson et al., 2005 ; Bales, 2009 ; Boudia, 2010). La création de la société savante est la marque d’une professionnalisation, par ailleurs signalée par la publication de livres qui feront date (tel le An Anatomy of risk de Rowe [1977]) et le lancement de la revue académique Risk Analysis.

Le champ a ses précurseurs et ses recherches fondatrices. L’analyse comparative des bénéfices et des risques sur une série de technologies publiée par Chauncey Starr dans Science en 1969 compte parmi les plus citées (Short, 1992 ; Hacking, 2003 ; Burgess, 2006). L’article inaugure plusieurs lignes de travaux qui seront ensuite centraux dans le champ de l’analyse des risques : la comparaison entre les risques dans différentes aires technologiques (qui s’affirmera comme « comparative risk assessment » [Kates et Kasperson, 1983]) ; la mise en mesure de phénomènes jusqu’alors rarement quantifiés comme les risques des technologies par la mortalité et les bénéfices mesurés à travers les chiffres de consommation des technologies (ouvrant l’application de la cost-benefit analysis à l’environnement) ; la mesure du rapport du public à ces technologies, ici en termes de préférences révélées, dite ensuite perception des risques (Fischhoff et al., 1978).

La consolidation de méthodes calculatoires et l’organisation sociale de ce champ d’expertise amènent James Short Jr, le président de la société américaine de sociologie en 1984, à mettre le phénomène en exergue dans son discours annuel. Il parle du corps des analystes du risque qui prend forme : « An entire industry has grown up around risk analysis, complete with professional trappings, governmental agencies, and personnel drawn from a variety of disciplines and professions »3. Il exhorte les sociologues à embrasser la question du risque.

Deux politistes américains publient en 1988 une enquête sur ceux qu’ils appellent les « risk professionals » (Dietz et Rycroft, 1987, p. 8), au sens de groupe d’individus qualifiés et spécialisés « who spend most of their time dealing with environmental risk concerns » au sein des bureaucraties fédérales américaines concernées, des industries, des sociétés de conseil et des centres de recherche associés ou des associations environnementales. Ils trouvent une assez grande diversité dans ce groupe, que ce soit en termes de formation disciplinaire (un tiers est issu des sciences de l’ingénieur, de la physique, des mathématiques et statistiques, 20 % environ de la biologie et de la médecine…), d’organisation d’appartenance (agences publiques, mais industries également), partageant par ailleurs une idéologie commune couplant environnementalisme et scientisme, et une adhésion forte aux vertus de la diffusion d’information technique et de l’analyse pour les politiques publiques. Comme Mary Douglas (1990) l’a montré ensuite, ces professionnels de l’analyse des risques ont des valeurs propres : une défense de l’objectivité ; la croyance en la rationalité de l’individu ; une valorisation de la neutralité idéologique. Elle distingue au sein de ce groupe une recherche de la domination sociale (Douglas, 1992), et Perrow (1982) un pouvoir social effectif.

Aux États-Unis, un des documents fondateurs de ce champ professionnel est le rapport du National Research Council (1983) intitulé « Risk assessment in the federal government ». Ce rapport – connu sous le nom de Red book – fera date. Il est le résultat d’une quête longue, commencée dans les années 1970, d’une méthodologie d’évaluation comparative des risques de nature à aider à gérer les controverses autour des radiations nucléaires et des produits chimiques cancérigènes (Boudia et Demortain, 2014). Les méthodes alors mises au point par les nouvelles agences fédérales en charge de la santé au travail ou de l’environnement – les guidelines de l’Occupational Safety and Health Administration (OSHA) et de l’Environmental Protection Agency (EPA) – suscitèrent une contre-réaction des grandes entreprises de l’industrie chimique et pétrochimique, qui jugeaient ces méthodes, notamment les paramètres d’extrapolation à l’homme des effets cancérigènes observés chez l’animal, trop précautionneuses. Dans cette entreprise politique, l’industrie utilisa l’argument selon lequel les agences outrepassaient leurs compétences en matière scientifique et négligeaient les incertitudes inhérentes aux calculs prédictifs. Selon l’industrie, les agences, avec ces lignes directrices, faisaient subir à la science des distorsions pour mieux mettre en œuvre leurs politiques précautionneuses. Sollicités pour aplanir la controverse, le National Research Council et son comité d’experts ad hoc établirent un compromis : ils donnèrent, d’une part, leur imprimatur aux méthodes développées par les agences (notamment l’idée qu’une évaluation de risque est le résultat d’une combinaison d’un calcul dose-réponse et des mesures de l’exposition réelle des populations à ces doses), entérinant leur légitimité à choisir les paramètres et les présupposés structurant les calculs de risque. Mais, d’autre part, le comité inventa aussi, et c’est là son innovation principale et méconnue, un principe de nécessaire « gestion des risques » fondée sur l’évaluation des risques mais proportionnée aux valeurs politiques, à la faisabilité de la mise en œuvre des décisions ainsi qu’aux coûts et bénéfices économiques de ces dernières (Demortain, 2016, 2020).

L’exercice de l’évaluation des risques ainsi outillé et cadré institutionnellement trouvait là les conditions de son institutionnalisation aux États-Unis et au-delà. Le schéma évaluation/gestion des risques a servi à construire le cadre légal de la délégation de fonctions à des agences indépendantes en Europe, à commencer par le domaine de l’alimentation (Demortain, 2009), puis à clarifier les modes de consultation des comités d’experts internationaux, tels ceux du Codex Alimentarius4. Dans chacune de ces instances, l’expertise calculatoire de l’analyse des risques s’est progressivement institutionnalisée.

La professionnalisation et l’extension du champ du calcul des risques se sont vérifiées en France. Denis Duclos (1996) observe que les années 1980 en France ont été une « période conquérante » pour des sociétés savantes qui récupéraient différentes expertises spécialisées à partir de la sémantique du risque. Des domaines d’application classiques que sont le danger des installations industrielles ou l’actuariat, les théories probabilistes ont été étendues à des objets plus variés allant de la sûreté policière à la santé environnementale. La terminologie probabiliste de « risque » est venue se substituer aux notions de menaces, dangers dans une quasi-mode de la risquologie, portées par des groupes professionnels plus ou moins crédibles comme celui des « cindyniques » (Peretti-Watel, 2010). Sans fusionner les groupes professionnels en question (actuaires, ingénieurs fiabilistes ou épidémiologistes…), la thématique du risque a ouvert de nouveaux champs d’exercice et de nouveaux segments professionnels, comme en attestent l’émergence du métier de gestionnaire du risque (Daccache, 2006) ou, du côté public, les renouvellements de la médecine qu’induit la mise en place d’agences sanitaires d’évaluation des risques (Benamouzig et Besançon, 2005 ; Buton et Pierru, 2012).

Même s’il n’y a pas eu de professionnalisation d’ensemble de l’analyse des risques (au sens où la maîtrise de cette science donnerait légitimement accès à des positions dans les sphères gouvernementales ou paragouvernementales), la démonstration que l’on maîtrise ces savoirs et que l’on appartient aux communautés qui les développent participe, pour des scientifiques, d’une légitimité professionnelle. Ce professionnalisme à son tour soutient l’institutionnalisation de l’analyse comme composante de ce qu’on peut nommer des régimes de régulation (Hood et al., 2001), c’est-à-dire des ensembles de règles, d’idées et de pratiques qui organisent l’action sur un danger collectif. Analyser, procéder à une évaluation des risques, et très souvent à une évaluation probabiliste des risques, fait partie intégrante des régimes qui s’appliquent dans de nombreux secteurs, de la sécurité industrielle à la sécurité alimentaire en passant par la sécurité maritime. Nous vivrions, de ce point de vue, dans une société de l’analyse, pendant de l’« audit society » (Power, 1997) où prolifèrent des régimes organisés autour des savoirs et des pratiques formalisés d’évaluation ou d’analyse des risques (Jasanoff, 1999).

Penser ensemble « société du risque » et « société de l’analyse »

Le paradoxe est donc le suivant : la société du risque doute presque systématiquement des vérités scientifiques énoncées sur les risques collectifs, mais elle institutionnalise un professionnalisme du risque. Beck ne s’est pas vraiment intéressé à cette contradiction, probablement parce que la formalisation des savoirs de l’analyse et du calcul des risques s’est jouée après la sortie de Risikogesellschaft en 1986, et plutôt aux États-Unis (initialement au moins)5. Ne pourrait-on pas, néanmoins, croiser ces deux thèses et interpréter conjointement les deux phénomènes historiques de la société du risque et de la société de l’analyse ? Dans quelle mesure les savoirs de gouvernement répondent-ils ou reflètent-ils la possibilité de la controverse ? Dans quelle mesure la publicité et la conflictualité qui entourent les risques collectifs affectent-elles la fabrique de ces savoirs ?

L’argument suivant peut être testé : la société du risque est une société de la controverse dans laquelle les savoirs qui servent à la fabrication des choix collectifs sont critiqués en général, sinon pendant des épisodes et sur des sujets particuliers. La controverse conditionne et contraint donc la construction de savoirs de gouvernement qui n’existent que tant qu’ils répondent à la controverse. L’histoire du champ de l’analyse des risques le montre de deux manières.

Premièrement, si les techniques et les pratiques de l’analyse des risques s’institutionnalisent, cette professionnalisation et cette mise en œuvre administrative des savoirs ne s’opèrent que dans des configurations ou des domaines distincts.

Selon Rip (1986), l’analyse des risques relève de la catégorie des sciences stratégiques. Le paradigme de la science stratégique est la recherche opérationnelle et la théorie des jeux sur laquelle elle est fondée. Son idéal intellectuel est la rationalisation de la prise de décision. L’analyse des risques fait partie des sciences stratégiques au même titre que la cybernétique, l’écologie humaine et la technology assessment. Comme ces autres sciences, l’analyse des risques s’est développée par l’intermédiaire d’études et de rapports officiels répondant à des demandes politiques. L’analyse des risques n’a pu devenir et se maintenir comme savoir de gouvernement crédible que dans des contextes bien délimités, et grâce à la légitimité qu’offre le fait de répondre à une demande politique. C’est bien ce que les analystes du gouvernement du risque ou de la régulation par le risque ont noté chacun à leur manière. Selon O’Malley (2004), le risque est un concept complexe et le gouvernement par le risque une série de configurations hétérogènes. Pour Hood et al. (2001), la régulation des risques est organisée en domaines dont les dynamiques sont très largement autonomes.

Ainsi, l’analyse des risques n’est pas un ensemble homogène. Ses techniques, et plus généralement les cultures épistémiques qui la sous-tendent, se construisent en réponse à des contextes sectoriels particuliers. Du nucléaire aux pesticides, en passant par les produits médicamenteux ou le transport maritime, l’évaluation des risques se pratique partout, mais pas de la même manière. Dans certains domaines, le principe de séparation entre science et politique n’a jamais été reconnu comme un principe nécessaire − l’exemple du médicament vient ici à l’esprit (Hauray, 2005) : les évaluateurs formalisent une gestion exactement comme ils formalisent la mesure et le calcul des risques.

Il n’y a pas de profession d’ensemble de l’analyse des risques, au sens de la constitution d’une communauté autonome au sein de laquelle s’exercerait un contrôle réputationnel ou de la cooptation et dont les membres seraient certifiés et pourraient accéder à des positions définies (Rip, 1986). On est mieux fondé à parler, à l’instar de Bales (2009) ou de Hood et Jones (1996), d’un « archipel du risque » où chaque île correspondrait à l’étude d’un type de risque ainsi qu’à une épistémologie et une méthodologie spécifiques. Ce qui se pratique et se sait dans ces différents lieux, malgré le langage commun de l’évaluation des risques, n’a pas grand-chose en commun. Bales (2009) montre d’ailleurs les problèmes posés par la disciplinarisation de l’analyse des risques. Les fondateurs de la Society for Risk Analysis avaient une représentation claire de l’analyse des risques comme étant une suite de disciplines avec des objets nettement distincts. La mission originelle de la société était de rassembler au moins trois groupes différents : les spécialistes de santé (toxicologues et épidémiologistes), les spécialistes d’évaluation probabiliste du risque (ingénieurs), les sociologues et politistes. La société savante était bien conçue comme un moyen d’intégrer les différentes composantes de la recherche sur les risques. Il est probable qu’elle continue d’être valorisée précisément parce que ce but n’a pas encore été atteint.

La deuxième illustration du rapport entre controverse et analyse est que les pratiques et les savoirs agréés du champ sont ceux qui répondent à la possibilité de la controverse. Dans une société où les propositions concernant les technologies, leur diffusion, leur risque et le calcul de celui-ci sont fréquemment controversées, la standardisation et l’institutionnalisation de méthodes de calcul sont conditionnées par le fait de servir à rendre ces problèmes traitables et décidables. Plusieurs techniques et règles constitutives de l’analyse des risques peuvent être prises en exemple.

Le champ du « comparative risk assessment », tel qu’inauguré par Starr, répondait à la controverse autour de l’expansion de la technologie nucléaire civile et à la singularisation de cette technologie comme étant problématique. Mesurer comparativement les risques était conçu comme un moyen de désingulariser cette controverse et de démontrer implicitement au public que focaliser sur cette technologie et ses dangers était en un sens irrationnel. L’évolution historique des techniques pour l’évaluation probabiliste des risques nucléaires reflète aussi largement la controverse qui a entouré la première application de cette technique, par l’ingénieur Norman Rasmussen du Massachussetts Institute of Technology, dans le rapport WASH-140, Reactor safety study6. L’application de méthodes d’analyse des incertitudes et de formalisation des jugements d’experts a été initiée en réponse aux mises en cause publiques de l’évaluation probabiliste des risques (Hayns, 1999).

Cette dynamique est probablement plus prégnante encore dans le domaine de la santé et de l’environnement. L’évolution des méthodes d’évaluation des risques de cancérogénicité des produits chimiques, notamment les méthodes d’extrapolation de la toxicité calculée à hautes doses vers celle issue de faibles doses théoriques, est incompréhensible si l’on ne considère pas les faibles doses comme un sujet de controverse sociale et scientifique et de mobilisation d’un mouvement de scientifiques du domaine de la santé environnementale (Rushefsky, 1986 ; Boudia, 2009). De la même manière, le poids pris par les méthodes d’expérimentation animale dans l’évaluation des risques sanitaires de l’exposition aux plantes génétiquement modifiées est en partie un produit de la controverse sociale plus large sur la mise en culture de ces plantes (Demortain, 2015).

L’écriture du Red book lui-même est une réponse directe au problème de gouvernabilité révélé par les controverses environnementales et sanitaires des années 1960 et 1970 aux États-Unis, années de conflit intense sur les causes de la prévalence accrue du cancer dans la société américaine et l’incrimination des produits chimiques et de la chemical revolution dans l’épidémie. Ni l’interdiction de substances cancérigènes (comme le requérait alors l’amendement Delaney adopté en 1958) ni la fixation de normes de présence et d’exposition pour des substances chimiques individuelles ne semblent alors politiquement faisables. La première est contestée par les industriels, la seconde est perçue comme une protection insuffisante par les mouvements environnementalistes (Jasanoff, 1992).

Le conflit s’est transféré sur l’élaboration des critères de cancérogénicité et de méthodes standards pour les évaluer. L’élaboration des lignes directrices pour l’évaluation des risques de cancer par les agences réglementaires est à son tour devenue exceptionnellement controversée (Rushefsky, 1986), prise entre les demandes de scientifiques et de médecins de disposer de méthodologies protectrices et les accusations des industriels à l’endroit des agences de tordre la science pour justifier des décisions d’interdiction de produits chimiques, considérées par l’industrie comme surprotectrices. Ces années furent des années de procédures judiciaires constantes, tendues, autour des décisions des agences de régulation d’autoriser ou d’interdire des substances chimiques utilisées comme additifs ou comme pesticides ; années pendant lesquelles l’autorité de ces agences de régulation − agences fédérales dans un pays qui se méfie de la centralisation des pouvoirs – et leur existence même sont constamment mises en cause ; années aussi pendant lesquelles des élus, sénateurs et congressistes, prennent publiquement parti ; années, enfin, de lobbying intense des industries chimiques pour contrer les méthodes employées, les critères de risques et les tests de toxicité.

Les auteurs du Red book ont d’abord et avant tout cherché à trouver les termes d’un processus institutionnel qui admette que la science en matière de risque est potentiellement controversée − d’où la reconnaissance du fait que l’évaluation des risques, par définition, n’est pas pure science, mais inclut des présupposés politiques ou des valeurs – sans bouleverser les structures institutionnelles qui permettent, précisément, de traduire la science en décision légitime : la forme agence. La règle de la distinction sans séparation institutionnelle de l’évaluation et de la gestion du risque est une règle d’équilibre, qui permet de donner une place à l’expression politique des rapports différenciés à la protection de la santé et de l’environnement, au développement technologique − les valeurs, objets de la phase de gestion du risque. En acceptant de considérer que la sécurité est un jugement à construire et à assumer politiquement, ainsi que le suggère Lowrance (1976), l’analyse des risques intègre au moins implicitement le facteur controverse et modifie la prise de décision pour le refléter.

Les démarches de formalisation de la prise de décision se sont multipliées. Elles s’appuient désormais sur le Red book (entre autres), considéré non pas comme un modèle mais comme un précédent réussi de formalisation de la prise de décision et une incarnation des compétences nécessaires à l’encadrement des controverses. La multiplicité des territoires contaminés et des substances chimiques à encadrer a engendré des contestations de l’agenda des autorités sanitaires et environnementales auxquelles les économistes de ces autorités ont répondu par davantage d’exercices d’analyse comparée et de « ranking » (ou priorisation) des risques, partie aujourd’hui intégrante des méthodes de la gestion des risques. Plus tard, c’est pour répondre aux attaques de l’industrie du tabac concernant sa supposée « croisade contre la cigarette » et les risques du tabagisme passif, ainsi qu’à la pression venant de la Maison-Blanche pour limiter les interventions réglementaires dans le domaine de l’environnement, que l’EPA articula une nouvelle règle, complémentaire de celle du Red book, de « caractérisation du risque ». Selon celle-ci, l’ensemble des incertitudes scientifiques entourant le risque évalué, ainsi que les paramètres choisis pour les modèles d’extrapolation ou d’exposition, devaient être explicités en amont de l’évaluation des risques et exposés de manière transparente dans la décision finale de gestion des risques. Face aux controverses répétées sur la persistance de l’incertitude et de son implication pour l’action publique − opposant ceux qui estiment que l’incertitude impose d’agir à ceux qui considèrent qu’elle impose de chercher plus pour ne pas se tromper dans la décision –, l’analyse d’incertitude faisait ainsi son entrée dans le répertoire des techniques et des schémas administratifs types employés par les agences environnementales et sanitaires pour défendre leur légitimité à agir (Demortain, 2020).

Un groupe de fonctionnaires de l’agence Health Canada a recensé les « risk documents » du type du Red book en santé environnementale et au-delà, fruits du travail de commissions d’experts américaines, d’agences de régulation américaines, canadiennes, australiennes, britanniques, ou encore de l’OCDE ou du Codex Alimentarius (Jardine et al., 2003), enregistrant au fur et à mesure de leur formalisation ces multiples règles pratiques de la prise de décision en contexte de controverse et de contestation. Chaque fois, ces règles ont été inventées pour traiter de sujets difficilement décidables : hormones de croissance et biotechnologies au Codex Alimentarius, par exemple, objet des conflits entre l’Europe et les États-Unis ; alimentation animale, biotechnologies ou pesticides dans l’Union européenne. Dans le lot des pratiques idéales et des principes d’intervention que les fonctionnaires canadiens recensent, on distingue ce qui a émergé en réponse à la remise en cause grandissante d’un mode d’expertise trop technocratique, notamment au cours des années 1990 en Europe (De Marchi, 2001) : procéder à une analyse quantitative du risque ; permettre le dialogue entre gestionnaires et évaluateurs du risque ; formuler les problèmes clairement et préalablement ; inclure les parties prenantes ; communiquer avec le grand public ; réitérer les évaluations pour prendre en compte les données nouvelles ; être précautionneux ; ne pas faire croire à la possibilité du risque zéro.

Ces règles et compétences constituent ce qu’il y a de plus générique dans l’analyse des risques, par-delà la spécificité des techniques de calcul et des données employées dans les différents champs de l’analyse des risques. Ce sont des pratiques qui sont devenues de plus en plus explicites et formelles à mesure que des décideurs et des experts ont affronté ces contextes, mais aussi pris appui sur leur expérience de ce qui avait été fait dans d’autres secteurs ou d’autres pays. Ce qu’on peut appeler une grammaire de gouvernement s’est enrichi, formalisé, et fonctionne comme la trame des comportements et des compétences dont les gouvernements doivent faire montre dans des contextes pareillement marqués par l’indécidabilité des problèmes et de leurs causes, la confusion des responsabilités et la faible légitimité des décisions publiques.

Conclusion

La présence d’un même langage de l’analyse des risques dans une multiplicité de contextes sectoriels ne signifie donc pas que les mêmes cultures épistémiques, les mêmes standards de preuve et les mêmes pratiques se diffusent, ou que l’évaluation des risques se constitue en une profession autonome. Elle traduit le fait qu’à la société de controverse ont répondu des compétences génériques de prise de décision en situation d’incertitude et d’indécidabilité. Si chaque secteur, chaque controverse construit une analyse des risques pratiquement et culturellement différente, il existe bien des lieux intermédiaires – comme les agences de régulation, mais aussi les académies scientifiques ou autres think tanks pourvoyeurs d’approches formalisées pour la prise de décision – dans lesquels on tire les leçons de ce qui se fait dans l’un et l’autre secteur, et où se sont formalisées les règles et les compétences qui constituent la grammaire du gouvernement du risque. S’il y a quelque chose de générique dans l’analyse des risques, qui constituerait ce qu’il y a de commun à tous les contextes dans lesquels on mobilise ce langage, c’est que c’est dans ces termes que l’on a organisé la prise de décision dans les contextes de controverse et d’incertitude technique et politique marqués par un défaut de gouvernabilité.

Il faut adopter une vision dynamique de cette grammaire et de ce qu’elle produit pour une raison que Beck enseigne : la société du risque est une société qui vit une crise de la modernisation et des visions du futur. Cette grammaire qui simultanément contraint et autorise à « caractériser les risques », « prendre des décisions », « consulter le public » et les « parties prenantes », articuler le travail de comités scientifiques et la formulation des mesures réglementaires par fonctionnaires et politiques (l’« évaluation » et la « gestion des risques »), etc. est activée dans des contextes particuliers – des contextes de réforme répondant à ces crises ou à ces controverses qui mettent en cause la capacité à gouverner. C’est évident dans le cas de la sécurité alimentaire et l’apparition du langage de l’analyse des risques autour de 1996 quand Commission européenne et États membres étaient en pleine crise politique et en réflexion sur la manière dont l’expertise scientifique sur l’encéphalopathie spongiforme bovine et les politiques alimentaires avaient échoué. C’est tout aussi évident pour ce qui concerne le contrôle des médicaments. Le pharmaceutical risk management y est apparu au moment où l’on a pris conscience que l’instrument de contrôle central dans ce domaine (l’autorisation de mise sur le marché) était structurellement insuffisant étant donné la complexité et l’échelle de distribution des nouveaux produits développés par l’industrie (Demortain, 2011). L’autorité des savoirs d’analyse des risques tient ainsi au fait qu’ils représentent des manières de faire idéales, qui fonctionnent comme des repères pour guider l’action de réforme. Des savoirs, en somme, simultanément performatifs et « prometteurs ».

Si des savoirs de gouvernement tiennent et s’institutionnalisent dans la société du risque, c’est précisément parce qu’ils répondent à la contrainte de la controverse, de la flexibilité interprétative, du nivellement des rationalités et des autorités qui caractérisent la société du risque. La société de l’analyse des risques existe donc bel et bien. Ce n’est pas une société différente de celle que décrit Beck, mais son pendant. D’aucuns diraient, dans la veine d’un Marcuse (1968) et d’un Habermas (1990) – que Beck prolonge à sa manière (Anderson, 2000) – que c’est son pendant technocratique, rationalisé et décisionniste. La société du risque est une société où les accidents, les contaminations et les catastrophes prolifèrent au même rythme que nos réflexions et nos disputes à propos de ces mêmes événements. Elle est aussi une société de l’analyse qui fonde la possibilité de construire des accords et des choix collectifs sur des procédures de calcul et de mesure ; une société qui délègue à des experts et des bureaucraties techniques la définition de ses critères et de ses procédures de décision ; une société où les conflits et les controverses sont gouvernés, cadrés par la nécessité toujours réaffirmée de disposer de moyens de décider rationnellement. Une société pleinement politique dans laquelle les professionnels du risque et leur langage explicitent, ajustent et formalisent constamment de nouveaux moyens de gouverner les dangers et les publics qu’ils font émerger.

Références

  • Anderson J.H., 2000. The third generation of the Frankfurt School, Intellectual History Newsletter, 22, 49-61. [Google Scholar]
  • Bales E., 2009. An element of uncertainty: radon and the quantification of risk in 20th-century America, 1945-2000. PhD dissertation, Berkeley, University of California Berkeley. [Google Scholar]
  • Beck U., 1986. Risikogesellschaft. Aufdem weg in eine andere moderne, Frankfurt-Am-Main, Suhrkamp. [Google Scholar]
  • Beck U., 1992. Risk society: towards a new modernity, London, Sage. [Google Scholar]
  • Beck U., 2003. La société du risque. Sur la voie d’une autre modernité, Paris, Flammarion. [Google Scholar]
  • Benamouzig D., Besançon J., 2005. Administrer un monde incertain : les nouvelles bureaucraties techniques. Le cas des agences sanitaires en France, Sociologie du travail, 47, 3, 301-322, doi: 10.1016/j.soctra.2005.06.001. [Google Scholar]
  • Boudia S., 2009. Les problèmes de santé publique de longue durée. Les effets des faibles doses de radioactivité, in Henry E., Gilbert C. (Eds), Comment se construisent les problèmes de santé publique, Paris, La Découverte, 37-54. [Google Scholar]
  • Boudia S., 2010. Gouverner les risques et par le risque. Pour une histoire du risque et de la société du risque. Thèse d’habilitation à diriger des recherches, Strasbourg, Université de Strasbourg. [Google Scholar]
  • Boudia S., Jas N., 2019, Gouverner un monde toxique, Versailles, Quæ. [Google Scholar]
  • Boudia S., Demortain D., 2014. La production d’un instrument générique de gouvernement. Le « livre rouge » de l’analyse des risques, Gouvernement & Action Publique, 3, 3, 33-53. [CrossRef] [Google Scholar]
  • Burgess A., 2006. The making of the risk-centred society and the limits of social risk research, Health, Risk & Society, 8, 4, 329-342, doi: 10.1080/13698570601008321. [Google Scholar]
  • Buton F., Pierru F., 2012. Instituer la police des risques sanitaires. Mise en circulation de l’épidémiologie appliquée et agencification de l’État sanitaire, Gouvernement & Action Publique, 4, 67-90. [CrossRef] [Google Scholar]
  • Collins H.M., 1981. The place of the ‘core-set’ in modern science: social contingency with methodological propriety in science, History of Science, 19, 6-19, doi: 10.1177/007327538101900102. [CrossRef] [Google Scholar]
  • Daccache M., 2006. En quête d’existence. L’émergence de la fonction de risk manager dans les entreprises, Regards sociologiques, 32, 37-46. [Google Scholar]
  • Dean M., 1999. Risk, calculable and incalculable in Lupton D. (Ed.), Risk and sociocultural theory: new directions and perspectives, Cambridge, Cambridge University Press, 131-59. [CrossRef] [Google Scholar]
  • De Marchi B., 2001. Preface, Special Issue on Risk and Governance, Journal of Hazardous Materials, 86, 1-3, doi: 10.1016/S0304-3894(01)00246-1. [CrossRef] [PubMed] [Google Scholar]
  • Demortain D., 2009. Standards of scientific advice. Risk analysis and the formation of the European Food Safety Authority, in Lentsch J., Weingart P. (Eds), Scientific advice to policy making: international comparison, Opladen/Farmington Hills, Barbara Budrich. [Google Scholar]
  • Demortain D., 2011. Scientists and the regulation of risk. Standardising control, Cheltenham (UK)/Northampton (MA), Edward Elgar. [CrossRef] [Google Scholar]
  • Demortain D., 2013. Regulatory toxicology in controversy, Science Technology, & Human Values, 38, 6, 727-748, doi: 10.1177/0162243913490201. [CrossRef] [Google Scholar]
  • Demortain D., 2015. Comment faire preuve en régime de controverse ? Retour sur l’évaluation des OGM, Hermès, 73, 3, 122-128, www.cairn.info/revue-hermes-la-revue-2015-3-page-122.htm. [Google Scholar]
  • Demortain D., 2016. The work of making risk frameworks, in Power M. (Ed.), Riskwork. Essays on the organizational life of risk management, Oxford, Oxford University Press. [Google Scholar]
  • Demortain D., 2020. The science of bureaucracy. Risk decision-making and the US Environmental Protection Agency, Cambridge (MA)/London, The MIT Press. [Google Scholar]
  • Dietz T., Rycroft R.W., 1987. The risk professionals, New York, Russell Sage Foundation. [Google Scholar]
  • Douglas M., 1990. Risk as a forensic resource, Daedalus, 119, 4, 1-16. [Google Scholar]
  • Douglas M., 1992. Risk and blame, in Douglas M., Risk and blame. Essays in cultural theory, London/New York, Routledge, 3-21. [CrossRef] [Google Scholar]
  • Duclos D., 1996. Puissance et faiblesse du concept de risque, L’Année sociologique, 46, 2, 309-337. [Google Scholar]
  • Fischhoff B., Slovic P., Lichtenstein S., Read S., Combs B., 1978. How safe is safe enough? A psychometric study of attitudes towards technological risks and benefits, Policy sciences, 9, 2, 127-152, doi: 10.1007/BF00143739. [Google Scholar]
  • Guénard F., Simay P., 2011. Du risque à la catastrophe. À propos d’un nouveau paradigme, La vie des idées, www.laviedesidees.fr/Du-risque-a-la-catastrophe.html. [Google Scholar]
  • Habermas J., 1990. La technique et la science comme « idéologie », Paris, Gallimard. Traduit de : Technik und wissenschaft als « ideologie », Frankfurt-Am-Main, Suhrkamp, 1968. [Google Scholar]
  • Hacking I., 2003. Risk and dirt, in Ericson R.V., Doyle A. (Eds), Risk and morality, Toronto, University of Toronto Press, 22-47. [CrossRef] [Google Scholar]
  • Hauray B., 2005. Politique et expertise scientifique. La régulation européenne des médicaments, Sociologie du travail, 47, 1, 57-75, doi: 10.1016/j.soctra.2004.12.003. [Google Scholar]
  • Hayns M.R., 1999. The evolution of probabilistic risk assessment in the nuclear industry, Process Safety and Environmental Protection, 77, 3, 117-142, doi: 10.1205/095758299529947. [CrossRef] [Google Scholar]
  • Hood C., Jones D.K.C., 1996. Accident and design: contemporary debates in risk management, London, UCL Press. [Google Scholar]
  • Hood C., Rothstein H., Baldwin R., 2001. The government of risk: understanding risk regulation regimes, Oxford, Oxford University Press. [Google Scholar]
  • Jardine C., Hurdey S., Shortreed J., Craig L., Krewski D., Furgal C., McColl S., 2003. Risk management frameworks for human health and environmental risks, Journal of Toxicology and Environmental Health Part B: Critical Reviews, 6, 6, 569-718, doi: 10.1080/10937400390208608. [CrossRef] [Google Scholar]
  • Jasanoff S., 1992. Science, politics, and the renegotiation of expertise at EPA, Osiris, 7, 194-217, doi: 10.1086/368710. [Google Scholar]
  • Jasanoff S., 1999. The songlines of risk, Environmental values, 8, 2, 135-152, doi: 10.3197/096327199129341761. [Google Scholar]
  • Kates R.W., Kasperson J.X., 1983. Comparative risk analysis of technological hazards (a review), Proceedings of the National Academy of Sciences, 80, 22, 7027-7038, doi: 10.1073/pnas.80.22.7027. [CrossRef] [Google Scholar]
  • Lowrance W.W., 1976. Of acceptable risk: science and the determination of safety, Los Altos (California), W. Kaufman. [Google Scholar]
  • Marcuse H., 1968. L’homme unidimensionnel : essai sur l’idéologie de la société industrielle avancée, Paris, Éditions de Minuit. [Google Scholar]
  • National Research Council, 1983. Risk assessment in the federal government: managing the process, Washington (DC), National Academies Press, doi: 10.17226/366. [Google Scholar]
  • Nelkin D., 1975. The political impact of technical expertise, Social Studies of Science, 5, 1, 35-54. [Google Scholar]
  • O’Malley P., 2004. Risk, uncertainty, and government, London, GlassHouse. [Google Scholar]
  • Papaux A., 2013. De la société du risque à la société de la menace, in Bourg D., Joly P.B., Kaufmann A. (Eds), Du risque à la menace. Penser la catastrophe, Paris, Presses universitaires de France. [Google Scholar]
  • Peretti-Watel P., 2010. La société du risque, Paris, La Découverte. [Google Scholar]
  • Perrow C., 1982. Not risk but power, Contemporary Sociology, 11, 3, 298-300. [Google Scholar]
  • Power M., 1997. The audit society: rituals of verification, Oxford, Oxford University Press. [Google Scholar]
  • Rip A., 1986. The mutual dependence of risk research and political context, Science & Technology Studies, 4, 3-4, 3-15. [Google Scholar]
  • Rowe W.D., 1977. An anatomy of risk, New York, Wiley. [Google Scholar]
  • Rushefsky M.E., 1986. Making cancer policy, Albany, State University of New York Press. [Google Scholar]
  • Short J.F., 1992. Defining, explaining and managing risks, in Short J.F., Jr, Clarke L. (Eds), Organizations, uncertainties and risk, Boulder, Westview Press, 3-23. [Google Scholar]
  • Starr C., 1969. Social benefit versus technological risk, Science, 165, 3899, 1232-1238, doi: 10.1126/science.165.3899.1232. [Google Scholar]
  • Thompson K.M., Deisler P.F., Jr, Schwing R.C., 2005. Interdisciplinary vision: the first 25 years of the Society for Risk Analysis (SRA), 1980-2005, Risk Analysis, 25, 6, 1333-1386, doi: 10.1111/j.1539-6924.2005.00702.x. [CrossRef] [Google Scholar]
  • Wynne B., 1984. ‘ “Mandated science”: a workshop and project report Vancouver, Canada, April 1984’, 4S Review, 2, 2, 3-4. [Google Scholar]
  • Wynne B., 1989. Establishing the rules of laws: constructing expert authority, in Smith R., Wynne B. (Eds), Expert evidence: interpreting science in the law, London/New York, Routledge, 23-55. [Google Scholar]

1

Cet article est issu d’une communication au colloque « Retour sur la société du risque » à Cerisy-la-Salle en septembre 2011.

2

Beck alimente lui-même cette politisation par ses analyses. Il ravale au rang de pure convention pragmatique les « facteurs de sécurité » appliqués par les toxicologues pour calculer les seuils d’exposition. Il développe longuement les limites techniques des essais de toxicité sur animaux. L’économie morale de ces pratiques est aussi décrite, comme lorsqu’il appelle « cynisme » l’opinion des experts qui minimisent les risques sur la base d’un taux moyen de contamination (Beck, 2003, p. 45). Il fustige l’irresponsabilité des scientifiques qui préservent des méthodologies et des présupposés minimisant les risques, et dénonce leur « incompétence », leur « arrogance » ou même leur « complicité » avec les pollueurs.

3

Cette réalité est plus prégnante aux États-Unis qu’en Europe. Outre-Atlantique, des cabinets de conseil spécialisés (Gradient, Exponent, Environ) se sont formés et ont atteint des tailles non négligeables.

5

Beck se situe clairement d’un côté de l’opposition entre deux manières de conceptualiser le risque − le risque comme problème social ou comme gouvernementalité (Dean, 1999). La question de la professionnalisation de l’analyse des risques relèverait davantage de cette seconde.

6

Rasmussen N., 1975. An assessment of accident risks in U.S. commercial nuclear power plants (WASH-1400, NUREG 75/014), US Nuclear Regulatory Commission, NTIS.

Citation de l’article : Demortain D. Une société (de l’analyse) du risque ? Nat. Sci. Soc. 27, 4, 390-398.

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.