Free Access
Issue
Nat. Sci. Soc.
Volume 26, Number 1, January-March 2018
Page(s) 98 - 116
Section Repères – Events & books
DOI https://doi.org/10.1051/nss/2018019
Published online 27 April 2018

Penser et agir avec la nature. Une enquête philosophique

Catherine Larrère, Raphaël Larrère
La Découverte, 2015, 374 p.

Bulles technologiques

Catherine Larrère, Raphaël Larrère
Wildproject, 2017, 128 p.

Dans ces deux ouvrages1 Catherine et Raphaël Larrère poursuivent leurs réflexions sur la place de la nature dans nos sociétés, nos pensées et nos manières d’agir. Dans le premier, de plus de 300 pages, ils prolongent le travail engagé dans Du bon usage de la nature. Pour une philosophie de l’environnement2 publié en 1997, en actualisant leur propos pour tenir compte de l’évolution de leur propre pensée dans un contexte intellectuel, politique et pratique qui a considérablement changé au cours de ces vingt dernières années. Le deuxième, d’une centaine de pages, est très complémentaire puisqu’il développe les mêmes idées en les appliquant aux nouvelles technologies « à la mode », en particulier les biotechnologies, la biologie de synthèse et les nanotechnologies, exemplaires de l’application de la technoscience sur le monde vivant.

On pourrait résumer l’ensemble du propos par la prise en compte des agencements qui lient les humains avec l’ensemble du monde vivant, ses dynamiques, sa diversité consubstantielle et son imprévisibilité : comment alors agir dans et avec un environnement dont nous sommes une des parties prenantes ? Les dimensions praxéologiques, juridiques, éthiques sont traitées sur la base d’une argumentation solide fondée sur une large littérature et son interprétation par les deux auteurs.

Mais bien sûr, comme à leur habitude, C. et R. Larrère n’improvisent pas leur raisonnement, ils le construisent, avec une certaine pédagogie, amenant progressivement le lecteur au fil des chapitres à les rejoindre dans leurs réflexions. Pour cela, ils partent clairement d’une analyse critique de leur ouvrage de 1997 qu’ils soumettent à l’épreuve des dynamiques intellectuelles de ces dernières années et des grands événements qui ont progressivement inscrit la question environnementale à l’agenda de nos sociétés, des politiques, des conventions internationales, des mouvements sociaux…

Penser et agir avec la nature est ainsi composé de trois grandes parties : « Respecter la nature », « Techniques : agir avec la nature, et non contre elle » et « Du local au global et vice versa ». La première reprend ainsi les controverses du XIXe siècle sur la wilderness3 pour la resituer dans la pensée contemporaine, en pointant au passage les ambiguïtés des grands auteurs sur la question (par exemple, celles de Descartes, de Lévi-Strauss ou de Descola)… C’est ce qui leur permet d’introduire la notion cruciale du dualisme Homme/Nature ou Culture/Nature pour lui opposer une vision en termes de dualité, dans laquelle culture et nature ne sont alors que les deux faces d’une humanité pleinement ancrée dans le monde vivant.

Le dualisme reposant sur une séparation nature/culture, c’est le monde du « naturalisme », porteur de dispositions normatives qu’ils illustrent à propos de la « valeur » de la biodiversité et des hiérarchies qui sont ainsi énoncées. La dualité repose, elle, sur une vision en termes de relations, de notre façon de nous situer dans un milieu, elle s’intéresse alors tout autant à la biodiversité ordinaire, dont l’un des avatars n’est rien moins que la domestication…

C’est ce que C. et R. Larrère développent ensuite dans une discussion sur la notion de biodiversité, sa dimension politique ainsi que son appel à l’action. Ils pointent ainsi les positions dualistes des promoteurs de l’évaluation et de l’intervention sur les écosystèmes, et les contradictions soulevées par les débats sur l’autochtonie des espèces versus les plantes « invasives », la solidarité « écologique » (dans la loi de 2006 sur les parcs nationaux) et les réseaux écologiques (et leur traduction en trames vertes et bleues) ou la naturalité versus l’artifice, et donc les modes de justification de l’action sur la nature. Ce qui les conduit à la deuxième partie de leur ouvrage, consacrée aux techniques, rappelant toutefois d’entrée de jeu que celles-ci ont leur histoire propre, indépendante des cadres théoriques…

Cette partie est cruciale, car elle porte un des points forts du raisonnement des auteurs, clairement énoncé dès le titre : « Techniques : agir avec la nature, et non contre elle ». Solidement argumentée à partir de la littérature philosophique mais également de l’histoire des techniques, elle propose de sortir d’une vision du rapport au monde vivant considéré comme ce qui est pour moi un processus industriel qui transforme des inputs en outputs et qu’ils appellent le « faire » (s’appuyant sur la figure du démiurge) : la pensée de la techne, de la production d’artefacts, visant la stabilité et l’homogénéisation du monde vivant, la réduction de l’incertitude. Ils rejoignent en cela les approches en termes d’efficience fondées sur une vision utilitariste de la nature dans laquelle les ressources sont vues comme un capital donné (un stock), qui peut être qualifié (« en abondance », « renouvelable », « critique »). Le maintien de la durabilité face au déclin du stock s’obtient alors (i) soit en réduisant le taux de consommation de la ressource ; (ii) soit en augmentant l’efficacité des technologies avec lesquelles la ressource est produite à partir de ce stock ; (iii) soit en lui substituant d’autres ressources issues de nouveaux stocks jusque-là inexplorés et exploités grâce à de nouvelles technologies. Cette vision se fonde, par exemple, sur le principe considérant qu’un agroécosystème peut être abordé à partir du simple bilan production et consommation des ressources et que les interactions en son sein sont suffisamment stables pour être ignorées : ce sont là les paradigmes dominant de l’agronomie contemporaine. Elle débouche sur des politiques qui visent à valoriser seulement l’efficience: ainsi, la puissance de la technique, jugée sur ses succès quantifiés par des indicateurs (comme la productivité /UTH/ha/animal) est reconnue et s’impose.

Cette vision s’oppose à la conception d’une dynamique transformative à orienter et à ménager (ce qu’ils appellent le « faire avec », s’appuyant sur la figure du pilote) : la pensée de la physis, reposant sur des comportements évolutifs, non prévisibles, cherchant à tirer parti de la complexité. Mais justement ces approches se heurtent aux limites du savoir et de ce fait sont jugées sur leurs insuffisances en regard de la puissance de la technique, évoquée ci-dessus. C. et R. Larrère rejoignent ainsi les approches conceptuelles en termes d’intégrité fonctionnelle, privilégiant un processus coévolutif dans lequel les ressources émergent des interactions au sein des relations entre les sociétés et leur milieu. Maintenir la durabilité de ces complexes d’interactions repose alors sur l’identification des points critiques pour le fonctionnement de ce processus et l’amélioration technique et sociale des modes de gestion vus comme un ensemble d’activités, par la révision des rôles et des modalités d’interactions entre les parties prenantes, humaines et non humaines. Cette vision s’appuie sur des politiques dont la mise en œuvre tient compte des conditions locales, est contextualisable et adaptable et dont les effets sont observables et évaluables avec d’autres critères que la seule efficience technique… ce qui exclut des objectifs centralisés et des prescriptions normalisées.

C’est à travers une telle grille d’analyse que sont examinées quelques grandes catégories de modes d’action sur le vivant, comme la restauration des écosystèmes ou l’agroécologie, dans un chapitre introduit par la notion d’écomimétisme, pour rappeler que bien souvent les milieux qui font l’objet de ces restaurations, dans la vaine quête d’un stade originel, ont depuis longtemps été transformés par les activités humaines. C’est ainsi que l’agroécologie, si elle veut se construire en réaction à la vision dominante de l’agronomie de ces dernières décennies (dont l’apogée fut le modèle de la révolution verte), ne doit pas viser à l’universel et à la transposition de ce que seraient des lois de la nature, mais se contenter de reposer sur des principes communs de respect des fonctionnalités du vivant dont les modalités d’application prendront en compte la singularité des situations historiques, sociales, écologiques… Il s’agit bien d’une rupture profonde dans les manières de penser notre rapport à la vie sous toutes ses formes, notamment celles dont nous favorisons l’existence pour nous nourrir ou nous vêtir ! On peut s’interroger sur la pertinence de l’entrée par l’écomimétisme qui n’est qu’une des pistes pour s’inspirer de modèles issus de la nature, mais ceux-ci restent limités par nos capacités d’observation, de caractérisation et d’interprétation et il n’est pas certain qu’ils suffisent quand il s’agit de penser et de concevoir l’improbable, l’inédit… bref d’innover, d’explorer des voies pour ce qui n’existe pas encore.

C’est dans cette partie de la démonstration de C. et R. Larrère que s’inscrit leur petit ouvrage intitulé Bulles technologiques, qui illustre ces propos à partir de trois exemples particulièrement éclairants (les biotechnologies, la biologie dite de synthèse, les nanotechnologies) quand, pour les paraphraser, le « pilote se prend pour un démiurge » au point de feindre d’ignorer que l’essence du vivant est son dynamisme, ses capacités de transformation et de débordement de ce qui est attendu de lui. D’où des surprises quand son matériau lui-même échappe à la technoscience ! Pourrait-on dire que sans cela il n’y aurait probablement pas la vie que nous connaissons sur Terre, qui est bien plus que ce que la théorie darwinienne nous aide à comprendre. Et ça au moins, c’est peut-être un produit détourné des difficultés rencontrées par les biotechnologies et la biologie de synthèse, dont les promesses, notamment celle de progresser dans la compréhension des fonctionnalités de la vie, sont finalement plus cognitives que porteuses de progrès techniques et d’amélioration de la santé, de l’alimentation, des modes de reproduction des hommes, des animaux ou des plantes ! Ce petit livre, facile et agréable à lire nous amène ainsi à croiser deux récits : celui des promesses de lendemains qui chantent grâce à la dynamique des innovations technologiques et celui de l’inévitable catastrophe si l’on ne parvient pas à contrôler cette même dynamique. Il traite à la fois des dimensions techniques, des dispositifs de financement et de mobilisation que ces projets génèrent et qui les nourrissent (à l’image des programmes de convergence américains, qui justement les réunissent entre eux, unis par leurs seuls rapports aux technologies, leur caractère exploratoire et leurs promesses) et des questions éthiques posées non seulement par les éventuelles découvertes mais par les pratiques de recherche elles-mêmes. Ces différentes dimensions, présentes à des degrés divers dans les trois exemples principaux, confirment les enjeux politiques, juridiques et sociaux qu’impliquent ces développements technologiques et leur puissance, au moins annoncée, qui rapproche de manière paradoxale et dans la violence de leurs oppositions ceux qui les prônent et ceux qui les craignent. Mais où ont lieu les vrais débats de société sur le développement, l’appropriation, la diffusion de telles technologies dont l’éventuel pouvoir transformateur, tant de nos modes de vie que de nos relations à la vie, ne peut pas être laissé aux seules parties prenantes intéressées, soit pour des raisons intellectuelles, soit parce qu’elles pourraient en tirer profit politiquement ou financièrement ?

Mais revenons à la troisième partie, « Du local au global et vice versa », de l’ouvrage principal. C. et R. Larrère y resituent leur réflexion dans la dimension sociale et politique que les questions d’environnement ont prise depuis ces trente dernières années. Le chapitre 8 sur le catastrophisme leur permet d’entrer dans cette question des interactions entre niveaux d’organisation qui sont tout sauf un modèle fractal. C. et R. Larrère sont ainsi amenés à discuter des limites de la notion d’anthropocène et des approches systémiques4 pour rappeler la dimension éminemment politique du fait que l’approche locale de l’environnement est moins catastrophiste que son acception globale. En effet, celle-ci ouvre le possible des façons de « faire autrement », un peu sur le modèle de l’Accord de Paris issu de la COP21 (en réaction aux précédentes COP débouchant sur de vaines prescriptions top-down). Ils en arrivent ensuite à la question cruciale de la justice environnementale, après avoir refait le point sur la distinction entre l’intrinsèque et l’instrumental à propos de la biodiversité5.

Au-delà des aspects éthiques et juridiques sur lesquels se clôt le livre avec la question de la justice environnementale, ce sont bien les dimensions politiques, sociales et culturelles du rapport à l’environnement qui sont abordées et soulignées : si, ainsi que les auteurs le proposent, et je les suis volontiers, il est urgent de revoir la façon dont nous concevons nos rapports à la nature pour progresser vers une dualité assumée, compte tenu de la diversité des cultures des habitants de cette planète (qui ne la conçoivent pas toutes selon le modèle de la pensée « moderne » occidentale), alors la question environnementale est bien une question politique qui s’adresse au fonctionnement et aux modes de régulation de nos sociétés ! La globalisation ainsi que l’appel à l’action locale nous le rappellent : agir sur l’environnement, c’est agir sur le social, ce sont les deux faces de l’humanité dans sa diversité !

Je terminerai en citant la dernière phrase de l’ouvrage de C. et R. Larrère : « Sortir de ce conflit [entre philosophie de la nature et philosophie de l’histoire], ce n’est pas opter pour l’une ou l’autre de ces philosophies, ni tenter leur impossible synthèse, mais bien élaborer une philosophie de l’action : comprendre l’agir environnemental comme un agir politique » (p. 330).

Bien sûr, je n’ai pas pu rendre compte en ces quelques lignes de toute la richesse de ces deux ouvrages dans leurs différentes facettes, aussi j’espère au moins que ces lignes auront donné à leur lecteur l’envie de les lire ! On peut d’ailleurs commencer par le petit et aborder le plus volumineux pour en savoir plus… On peut aussi s’y prendre dans l’autre sens et se régaler tout simplement avec le diverticule sur les bulles technologiques qui nous environnent, chercheurs comme citoyens !

Bernard Hubert
(Directeur de recherche émérite Inra, directeur d’études EHESS, Avignon, France)
bernard.hubert@inra.fr

Le souci de la nature. Apprendre, inventer, gouverner

Cynthia Fleury, Anne-Caroline Prévot (Eds)
CNRS Éditions, Paris 2017, 378 p.

À la fin de l’Almanach d’un comté des sables, Aldo Leopold constate que « l’homme moderne typique […] n’a pas de relation vitale à la terre » et il précise que rétablir cette relation, en développant la conscience écologique, serait au bénéfice aussi bien de la protection de la nature que de la santé humaine, compromise par cette perte de contact6. Les études réunies par Cynthia Fleury, philosophe, et Anne-Caroline Prévot, écologue, dans Le souci de la nature. Apprendre, inventer, gouverner s’inscrivent dans cette perspective. Elles s’inquiètent à leur tour de l’« amnésie environnementale » et insistent sur la positivité des « expériences de nature », susceptibles de maintenir ou de rétablir la connexion avec la nature, source de santé écologique comme de santé humaine. La nouveauté de l’ouvrage réside dans l’étude psychologique de cette relation.

Un nouveau champ de recherches, celui de la psychologie de la conservation, est en effet apparu aux États-Unis dans les années 1950, quand émergeaient les préoccupations écologiques. Ces travaux sont mal connus en France et la présentation (à partir de traductions ou de contributions originales) de quelques-uns de leurs résultats, dans la troisième partie, constitue un des points forts de l’ouvrage. Pour la psychologie de la conservation, il s’agit de comprendre comment les individus pensent, et réagissent à, leur environnement, à partir d’une étude des perceptions, des valeurs, des émotions que développent ces interactions. Cette écopsychologie repose sur deux hypothèses de base. Celle, écologique, de l’interdépendance : aucun individu, même humain, ne peut se considérer comme entièrement indépendant de son environnement. Celle, tirée de la théorie de l’évolution, d’une connexion ancienne et profonde avec la vie : « Notre espèce a évolué au contact intime et quotidien avec le monde naturel, et aujourd’hui encore, notre bien-être physique et psychique a besoin de ce lien profond avec la nature » (p. 179). Mettant l’accent sur le rôle d’un contact précoce et répété avec la nature dans la formation de l’identité personnelle, ces études font converger phylogenèse et ontogenèse pour insister sur le caractère positif de ces expériences dans le bien-être individuel (lutte contre le stress et la fatigue attentionnelle) et sur les motivations qu’elles donnent pour un engagement environnemental. Émerge ainsi le portrait type du militant environnemental (scientifique ou activiste) qui se trouve bien dans une nature qu’il pratique depuis l’enfance et qui est prêt à se dévouer pour elle.

Liée aux sciences de la conservation, principalement biologiques, la psychologie de la conservation visait d’abord à apporter à ces dernières l’appui des sciences sociales dans les tâches de protection de la nature. Mais l’objectif que se donnent C. Fleury et A.-C. Prévot est plus global. Nous vivons à une époque où l’ampleur des dégradations environnementales rend nécessaire une transition écologique qui ne dépend pas seulement de mesures économiques ou de modifications techniques, mais réclame une profonde transformation des mentalités, des modes de vie et des façons d’agir. Les éléments de psychologie de la conservation, présentés dans la troisième partie de l’ouvrage, sont donc replacés dans le contexte plus large d’une crise écologique dont l’érosion de la biodiversité n’est qu’une composante. Les textes plus spécialisés (psychologie ou neurologie) de cette partie sont donc entourés d’études pluridisciplinaires. Il s’agit, dans la première partie, de présenter le cadre institutionnel (international et national) des politiques publiques et de l’éducation à l’environnement, alors qu’est abordé, dans la deuxième partie, l’arrière-plan symbolique et religieux (dans les différents monothéismes, mais aussi dans le bouddhisme et les sagesses orientales) de ce regain d’intérêt pour les bienfaits de la contemplation de la nature. À la fin de la troisième partie, deux chapitres plus généraux sur la vision catastrophiste des problèmes environnementaux (l’un culturel, l’autre métaphysique) engagent une transition vers une quatrième partie consacrée à un avenir moins apocalyptique où la diversité des expériences de nature aurait une importance pratique, ce qui en justifie l’étude plus précise. Cependant, il ne s’agit pas tant, dans cette dernière partie, de montrer les applications possibles des connaissances tirées de la psychologie de la conservation que d’exposer d’autres façons d’envisager les relations à la nature qui viennent compléter, corriger, voire critiquer celles qui ont été exposées précédemment.

Pour mieux comprendre et développer notre relation à la nature, il est bon de connaître et de classer la diversité des interactions que les humains ont avec elle, mais comment faire ? Les études réunies dans la quatrième partie disent l’importance, pour comprendre notre expérience, de l’imaginaire dont la science même est enveloppée. Comme l’a montré Bachelard7, les quatre éléments (air, eau, terre, feu) ont structuré notre imaginaire et orienté nos attitudes. C’est également en les regroupant par élément que l’on classe aujourd’hui les pollutions dont ils sont les principaux vecteurs. On peut donc en faire les « unités écologiques de base » (p. 247) à partir desquelles étudier la diversité de nos relations avec les milieux naturels. C’est dire l’importance du corps, d’une « écosomatique » (p. 257) qui fait de chaque expérience de nature une singularité à étudier pour elle-même, dans un retour réflexif sur l’expérience. D’où l’appel à une écologie à la première personne, à des « autobiographies environnementales » (p. 254), qui ont recours à la médiation de l’écriture, mais aussi, plus généralement, de l’art, pour encourager le rapport à la nature, la lutte contre l’amnésie environnementale passant par l’imaginaire (p. 267). À partir de ces approches, en termes de complexité, de nos relations avec la nature, on entrevoit d’autres pistes qui auraient pu être indiquées : certains courants de l’écopsychologie (avec Theodor Roszak8), les travaux de mésologie, autour d’Augustin Berque9, l’un des premiers, en France au moins, à refuser les approches dualistes séparant l’objet et le sujet, ou des études qui appuient leur anthropologie de la nature sur la phénoménologie (David Abram10) ou le pragmatisme (Eduardo Kohn11).

La prise en compte de la diversité culturelle de nos rapports à la nature (ou de ce que nous, Occidentaux, appelons ainsi) pourrait conduire à jeter un autre regard sur l’éloge insistant, dans la psychologie de la conservation, des effets positifs des expériences de nature. Car qu’il s’agisse, dans ces expériences, de s’appuyer sur notre affinité avec la vie pour améliorer nos performances, ou des formes japonaises de méditation appelées shinrin-yoku (« bains de forêt », p. 157), cela suppose un climat tempéré et des espaces très contrôlés. Mais, comme le suggère une étude de la quatrième partie, en faisant de la forêt un dépaysement rassurant et sans risque, la civilisation occidentale, tout particulièrement, a en grande partie occulté un imaginaire « sacral et symbolique » beaucoup plus inquiétant, et peut-être plus largement partagé, par lequel la nature nous met en contact avec la mort (p. 251). N’était-ce pas plutôt à cet imaginaire que faisait référence François Terrasson lorsqu’il faisait reposer l’écopsychologie, non sur notre affinité intime avec la vie, mais sur notre peur de la nature12 ? À l’époque de l’anthropocène, il peut être utile de ne pas trop compter sur une nature prévisible mais de s’attendre plutôt à ce qu’elle échappe à notre contrôle.

Si la nature est devenue imprévisible, elle est devant nous plutôt que derrière nous. Il est vain de se demander si l’on peut réactiver artificiellement « le lien perdu » (p. 207). La question est devenue celle des modifications des relations que nous pouvons avoir avec la diversité des formes de nature, des plus artificialisées aux plus inattendues (p. 257). À la remarque, citée dans une des études, de celui qui répond aux enquêteurs que la nature ne lui manque pas parce qu’il préfère la ville (p. 180), la réponse est peut-être qu’on n’en a jamais fini avec la nature, qu’elle surgit là où l’on ne l’attendait pas, dans « les colonisations spontanées en immersion urbaine » (p. 257). La question est alors de savoir comment on réagit à ces surgissements inattendus et du rôle que cela joue dans la gestion de la nature en ville, comme en témoigne l’étude comparée des attitudes des Berlinois et des Parisiens à cet égard (p. 271).

Dans la perspective qui est celle de l’ouvrage, de contribuer à la formation d’attitudes favorisant la transition écologique, le fil conducteur est que « les discours en appelant seulement à la raison n’ont pas autant d’impact qu’une reprogrammation des conditionnements sociaux (p. 177) ». Mais cette façon de ne pas se contenter d’avoir la science de son côté et de ne pas tabler seulement sur l’information du public peut s’entendre très différemment. Pour la psychologie de la conservation, les conditionnements sociaux passent d’abord par l’action sur chaque individu, séparément, et le modèle du militant environnemental engagé peut servir de référence commune. Au contraire, parce qu’elles mettent en évidence le rôle privilégié des minorités actives, les études de psychologie sociale menées par Serge Moscovici invalident le recours homogène à la psychologie individuelle. Pour s’adresser aux individus en groupe et les mobiliser, c’est à la psychologie collective qu’il faut avoir recours (p. 305-317). À ces conceptions d’une action par en haut s’ajoute (et s’oppose) l’accent mis sur l’émergence de pratiques autonomes, dans des lieux divers d’expérimentation de nouvelles formes de vie tels que les jardins partagés (p. 293).

Pour Leopold, dans la relation à la terre comptait surtout la dimension éthique. Celle-ci n’est guère explorée dans le volume. Sans doute se termine-t-il par la proposition d’« une éthique pour habiter la terre autrement » (p. 319) qui, à l’encontre de l’anthropocentrisme largement dominant dans le droit comme dans l’éthique, tient à rappeler que « la nature est bien plus qu’un ensemble de biens communs et ne saurait être globalement possédée par l’humanité » (p. 332). Mais il reste surprenant qu’un livre intitulé Le souci de la nature, et qui consacre tout un chapitre « au soin − ce qui traduit l’anglais care – de la nature chez les enfants et les adolescents » (p. 191), ne s’intéresse pas à l’éventuelle dimension genrée du rapport à la nature, alors que les théories du care se sont développées en décelant les stéréotypes masculins du modèle soi-disant universel de la formation morale et en faisant entendre la « voix différente » d’une responsabilité engagée13. De la sorte, en ne tenant pas compte des théories du care, même pas dans leur dimension environnementale14, ces études passent complètement à côté de l’écoféminisme15 et de ses apports politiques et éthiques à la réflexion sur le souci de la nature et la mobilisation écologique16.

Catherine Larrère
(ISJPS, Université Paris 1 Panthéon-Sorbonne, Paris, France)
catherinel.larrere@gmail.com

Globalising the climate. COP21 and the climatisation of global debates

Stefan C. Aykut, Jean Foyer, Édouard Morena (Eds)
Routledge, 2017, 198 p.

Cet ouvrage collectif rend compte d’une dynamique scientifique très utile et très pertinente, rassemblant des disciplines variées autour de l’analyse des négociations internationales sur l’environnement, non pas seulement à travers l’étude des institutions (souvent au cœur des travaux en relations internationales sur la gouvernance mondiale de l’environnement), mais spécifiquement à travers la compréhension des processus d’interaction stratégique entre acteurs, et des effets de cadrage ou de recadrage des débats qui s’y produisent. L’ouvrage utilise habilement l’événement spectaculaire de la COP21 en 2015 à Paris pour donner à voir une variété de travaux de recherche mis en œuvre par un collectif17. Il évite aussi très bien l’écueil de la fascination pour le spectacle offert par cet immense événement : les chapitres 1, 3, 4 et 5 aident certes à comprendre comment fonctionnent, au cours de telles conférences annuelles des parties, tant les négociations intergouvernementales formelles sur un texte que ce qui je joue − mais aussi ce qui ne se joue pas– dans les « side events » de la société civile. Mais les auteurs ne tombent pas pour autant dans l’illusion qu’ils auraient réussi à observer les moments les plus critiques de ces négociations. Ces moments déterminants ont lieu souvent dans les interstices, les rencontres interindividuelles, hors de la scène ou derrière les portes closes et sont très difficiles d’accès pour les chercheurs. Chacun des chapitres, en revanche, replace l’événement particulier de la COP21 dans la dynamique de long terme de plus de 20 ans de négociations climatiques internationales.

Les chapitres 3, 4 et 5 permettent de suivre l’action et le positionnement stratégique d’un certain nombre d’acteurs-clés ; très bien documentés, ils donnent à voir de manière très claire comment des acteurs organisent leur stratégie d’intervention dans la négociation climatique depuis de nombreuses années. Il s’agit notamment d’acteurs méconnus comme les fondations philanthropiques : le chapitre 5, éminemment utile, ouvre (enfin !) un chantier de recherche de description et de compréhension des ressorts de leur action dans la gouvernance mondiale du climat. C’est également le cas pour la société civile (chapitre 4), ou pour les fédérations d’entreprise (chapitre 3). Ici aussi, on peut souligner que les auteurs de ces chapitres évitent l’écueil d’une description caricaturale de l’intervention de ces différents acteurs et qu’ils prennent au contraire le temps de donner à voir leurs intentions stratégiques, sans a priori porter un jugement normatif, même si un scepticisme salutaire quant à la sincérité des engagements de certaines de ces organisations est exprimé prudemment. Ils ouvrent ainsi un champ de recherche tant analytique et descriptif que normatif ou stratégique, qui permettra aux chercheurs de continuer à contribuer à une meilleure compréhension des modalités d’intervention de ces différents acteurs, des effets et des impacts de ces interventions, et à évaluer d’un point de vue critique non seulement la performance de leurs actions mais aussi la légitimité de la place qu’ils prennent ou qui leur est donnée dans la gouvernance internationale. En l’état, cet ouvrage constitue avant tout une très exacte analyse de l’état actuel des stratégies des divers types d’acteurs non gouvernementaux ainsi qu’une base de connaissances très pertinente pour qui souhaite mieux connaître leur rôle et leur place dans ces processus multilatéraux.

Les chapitres 6, 7, 8 et 9 utilisent une entrée non pas par types d’acteurs mais par thématiques. Comment faire entrer une thématique particulière ou une problématique dans l’agenda des négociations climatiques où elle était précédemment absente ? Comment s’y prennent des communautés d’experts et d’acteurs, qui partagent une même préoccupation, pour qu’elle y soit discutée ? En sens inverse, comment les enjeux climatiques pénètrent-ils les arènes où ces thématiques sont spécifiquement débattues ou négociées ? Ce double mouvement, désigné par le terme de « climatisation », qui donne son titre à l’ouvrage, renvoie à juste titre à la bousculade de communautés épistémiques entières cherchant à utiliser l’exposition médiatique et politique de la négociation climatique pour donner à leurs objets (les migrations, la forêt, les connaissances traditionnelles…) plus de poids, comme si le climat était la seule question environnementale vraiment prise au sérieux dans les sphères politiques. Ce mouvement de climatisation conduit donc à étendre quasiment continûment le domaine du changement climatique (« globalising climate »), en même temps qu’il ne laisse probablement pas indemnes les autres forums où étaient classiquement, précédemment, discutés les autres enjeux. Les chapitres correspondants de l’ouvrage (6, 7, 8 et 9) ne peuvent pas analyser les effets de recadrage qui sont créés par la climatisation d’un enjeu et les reconfigurations conceptuelles et stratégiques que l’irruption du changement climatique comme priorité médiatique et politique a produites dans ces champs, qui jouissaient auparavant d’un cadrage et d’une dynamique d’acteurs propres ; en effet, les auteurs ne rendent pas compte ici de ce qui se passe dans ces autres arènes, car c’est la négociation climatique elle-même qu’ils ont observée. Cela aurait pourtant été une perspective nécessaire tant les thèmes qui auraient pu être traités sont innombrables : en quoi le recadrage des écosystèmes comme solutions au problème climatique fondées sur la nature conduit-il à des effets d’exclusion de certains enjeux ou de certains acteurs ? En quoi le lien maintenant de plus en plus établi entre sécurité alimentaire et changement climatique modifie-t-il les équilibres pourtant durement négociés au sein du comité des Nations unies pour la sécurité alimentaire mondiale ? Ce n’est pas ce type d’effets (ni d’ailleurs ces thématiques) que l’ouvrage s’attache à décrire, et il importe donc, par exemple, de ne pas surestimer sa capacité critique à pointer de manière certaine les risques majeurs que fait courir à un certain nombre de sujets leur « climatisation ». Ces risques, en effet, sont probablement davantage observables dans ces autres arènes plutôt qu’au sein de la négociation climatique elle-même, où ce qu’on observe surtout c’est le « succès » relatif de chacune de ces communautés réunies par une préoccupation ou une problématique pour réussir à positionner leur sujet dans le texte de l’accord (victoire qu’on peut juger très symbolique) ou à placer leurs porte-parole au cœur des négociations.

Ces chapitres apportent néanmoins des éléments d’analyse très intéressants, par exemple la montée en puissance des questions de migration et de sécurité dans l’agenda des négociations climatiques, même si le chapitre 6, dédié à ces questions, ne souligne peut-être pas assez les risques de tels cadrages. En poussant à rapprocher climat et migration, mais aussi climat et sécurité, ce mouvement aboutit à rapprocher finalement, comme si c’était une évidence, les questions de sécurité et de migrations. Or, cela peut avoir des effets très critiquables, en particulier sur le traitement de la question des migrations, déjà très souvent reliée par la parole politique aux enjeux de terrorisme dans les débats nationaux. La description de la résistance des chercheurs à ce rapprochement, présentée comme une résistance parmi d’autres, ne donne pas toute leur place aux effets politiques et cognitifs potentiellement délétères d’un tel rapprochement. Un autre exemple, traité dans le chapitre 7, est la digestion par les acteurs et les experts de l’aide publique au développement des questions d’adaptation ou de déforestation pour en faire des mots-clés routinisés et recyclant les mêmes acteurs et les mêmes projets, en lieu et place de promesses en termes d’innovations politiques ou de nouvelles sources de financement. Le chapitre 8 présente l’exemple des acteurs rassemblés autour des peuples autochtones et des connaissances traditionnelles. C’est là un chapitre très marquant parce qu’il démontre bien comment le potentiel de ces questions pour repolitiser la négociation climatique disparaît au cours du processus de traduction que suppose l’entrée de cette question dans l’arène climatique sous le seul angle des connaissances, en occultant le thème des droits et de la justice. Enfin, le chapitre 9 analyse la non-climatisation des énergies fossiles, sujet formellement absent de l’arène climatique même s’il est implicitement au cœur de toutes les négociations les plus dures. Dans ces deux derniers chapitres (8 et 9), en particulier, on voit bien la pertinence d’une analyse des stratégies des acteurs et des coalitions qui portent ces causes ou ces enjeux, ou bien de ceux qui s’opposent à leur entrée formelle dans la négociation climatique : cette perspective stratégique paraît tout à fait fondamentale, dans le chantier de recherche que cet ouvrage permet d’ouvrir, pour faire le lien entre une approche pragmatique en relations internationales et une approche ethnographique, toutes deux revendiquées par ce collectif de chercheuses et de chercheurs.

À la croisée de l’entrée par thèmes et de l’entrée par acteurs, le chapitre 2, sur l’objectif de + 1,5 °C et le rôle des scientifiques, analyse les conséquences politiques de l’émergence de ce nouvel objet hybride pour l’organisation des sciences et pour le GIEC en particulier, mais aussi pour les acteurs gouvernementaux et non gouvernementaux, et en particulier ceux qui représentent les populations les plus vulnérables. S’agit-il d’un objectif opérationnel qui permet de repolitiser les questions des dommages que subiront inévitablement les plus vulnérables ou bien d’un substitut à l’action ? Écrit avant la finalisation du processus de définition du périmètre et de la problématique du rapport spécial du GIEC dit « 1,5 °C », le chapitre 2 s’intéresse néanmoins aux effets de cadrage d’une focalisation de ce rapport sur les scénarios qui permettraient d’atteindre l’objectif, inscrit dans l’accord de Paris, de restreindre l’augmentation de la température mondiale à la fin du siècle à seulement + 1,5 °C par rapport aux niveaux préindustriels. Ce chapitre pointe très utilement et très précisément les enjeux d’un repositionnement critique de la science par rapport à des objets hybrides qui, comme cet objectif de 1,5 °C, comportent le risque de focaliser l’attention scientifique et politique sur des problèmes mal posés. La science peut en effet en profiter pour leur redonner du sens : en s’attachant à travailler le cadrage des analyses de la faisabilité (ou plutôt de la non-faisabilité) et des risques de ces scénarios pour atteindre l’objectif des + 1,5 °C, le rapport du GIEC fera œuvre très utile en remettant l’accent sur les enjeux de l’action urgente à court terme, et évitera, par exemple, une focalisation sur la seule question de la neutralité carbone à la fin du siècle. Nous sommes bien dans une période où la quête de solutions pour mettre en œuvre les engagements internationaux pris en 2015 organise de plus en plus les agendas scientifiques et politiques (le basculement d’une coproduction de la science et de la politique selon des modalités « science driven » à des modalités « politically driven », tel que noté par Hélène Guillemot). L’exemple du rapport du GIEC sur l’objectif de + 1,5 °C illustre bien que la science, ses acteurs et ses institutions peuvent retrouver un rôle critique d’évaluation externe des progrès réalisés sur ces engagements, des politiques mises en place, des facteurs de changement économiques, sociaux et politiques autant que technologiques, mais aussi un rôle d’analyse des objectifs eux-mêmes, démarche critique qui nécessite la coopération de l’ensemble des disciplines scientifiques pour analyser tant les différentes manières de poser le problème que les solutions pour y répondre.

Sébastien Treyer
(Iddri, Paris, France)
sebastien.treyer@iddri.org

Bilan et perspectives de l’Accord de Paris (COP21). Regards croisés

Martha Torre-Schaub (Ed.)
IRJS éditions, 2017, 162 p.

Bilan et perspectives de l’Accord de Paris (COP 21). Regards croisés, sous la direction de Marta Torre-Schaub, juriste, directrice de recherche au CNRS, constitue la publication des actes d’une journée d’études organisée le 31 mai 2016 à Paris. Les regards croisés sont ceux de différentes disciplines : en plus des contributions écrites pour la plupart par des juristes publicistes et privatistes, internistes et internationalistes, l’ouvrage comprend les points de vue d’une philosophe (Catherine Larrère) et d’un scientifique (Jean Jouzel). L’objectif de cet ouvrage est de dresser un premier bilan presque « à chaud » de l’Accord de Paris et de réfléchir aux perspectives qu’il ouvre. La démarche est bienvenue tant cet Accord ressemble à un « objet non identifié qui vient de tomber du ciel » (Yann Aguila, conclusions).

Les auteurs s’attachent à montrer le changement de paradigme dans lequel s’inscrit l’adoption de l’Accord de Paris lors de la COP 21 à la fin de l’année 2015. Pour Mireille Delmas-Marty, qui livre un très bel avant-propos, il marque le passage d’un humanisme juridique anthropocentré et individualiste, inspiré par la philosophie des droits de l’homme, à un « humanisme d’interdépendance », reflétant la vision d’une Terre-mère au sein de laquelle s’imposent ou doivent s’imposer des relations plus fraternelles. Il annoncerait « moins la disparition de toute souveraineté que la transformation d’une souveraineté solitaire en souveraineté solidaire » (p. 4). L’Accord de Paris témoigne en effet d’une telle aspiration, mais les États n’ont pas abandonné pour autant la défense de leurs intérêts propres. Ils restent pour beaucoup dans une approche réaliste du droit international. Pour preuve, le lendemain de la journée d’études à la Sorbonne, le président Donald Trump annonçait vouloir sortir d’un accord contredisant les intérêts américains. Cette décision n’a pas produit d’effet domino, mais beaucoup d’États ont une position encore ambivalente, que masque souvent mal un discours très ouvert et favorable. L’ouvrage rend bien compte de ces tiraillements et plus largement des incertitudes sur l’effectivité de l’Accord.

S’appuyant sur les rapports du GIEC qui ont nourri les négociations internationales (J. Jouzel), l’Accord de Paris est relativement ambitieux dans ses objectifs de limitation du réchauffement planétaire. Il l’est moins dans les moyens de mise en œuvre puisqu’il repose de ce point de vue sur des contributions nationales nationalement déterminées, sans droit de regard des autres États ou des institutions nationales. Pour l’instant, force est de constater que ces contributions, toutes additionnées, ne permettent pas d’atteindre les objectifs posés par l’Accord. Mais ce dernier est aussi le résultat d’un pari : que cette démarche souple et anticipative participe à, accompagne et encourage une nouvelle dynamique à tous les niveaux, du global au local, et chez tous les acteurs, y compris non étatiques tels que les entreprises ou infra-étatiques (États fédérés, collectivités locales, villes…). Il tente ainsi, dans une démarche originale, de percer l’écran étatique. Le livre souligne le rôle essentiel de ces acteurs dans la concrétisation des objectifs et la mise en œuvre de l’Accord de Paris (voir notamment la contribution de François Guy Trébulle). La raison d’être de l’Accord est sans doute là. Parviendra-t-il, par un développement « séquentiel et progressif » (Marianne Moliner-Dubost), à susciter une dynamique telle qu’elle conduira les États à revoir à la hausse leurs objectifs nationaux ? L’Accord tente de « bâtir le futur » (Laurence Boisson de Chazournes), mais c’est une course contre la montre qui est engagée, comme le montrent les emballements climatiques auxquels nous assistons.

S’agissant du contrôle de la mise en œuvre, l’Accord est en retrait par rapport à son prédécesseur, le protocole de Kyoto, qui créait un mécanisme beaucoup plus complet et intrusif, pouvant déboucher sur de véritables sanctions. Dans ce « net recul de la contrainte » (M. Moliner-Dubost), on peut sans doute voir une faiblesse. Mais là n’est pas l’esprit de l’Accord de Paris, dont le caractère incitatif et souple est également confirmé à cette aune. Cette « faiblesse » relative pourrait d’ailleurs être partiellement compensée par le développement de contentieux climatiques à l’échelle nationale, s’appuyant largement sur la coopération internationale et ses fruits (M. Torre-Schaub). Il y a là une revendication croissante de la société civile (Agnès Michelot). Les ponts qui s’établissent entre le régime climat et le droit international des droits de l’homme sont de ce point de vue prometteurs, même si leur portée demeure encore limitée (Christel Cournil). C’est donc peut-être au niveau national que se concrétisera, au moins en partie, une justice climatique dont la reconnaissance dans l’Accord lui-même est, selon C. Larrère, « aussi faible que possible et même assez cynique » (p. 25). Mais la philosophe note aussi que « ce qui permet aux promesses de se réaliser, c’est la confiance qu’on a en elles, et la mobilisation pour obliger ceux qui les ont formulées à les tenir » (p. 30). Il ne faut sans doute pas oublier le rôle de cette mobilisation dans l’enjeu de concrétisation de la prophétie autoréalisatrice que doit devenir, selon ses initiateurs, l’Accord de Paris. Ici, l’ouvrage montre bien que ce texte peut donner lieu à deux lectures. Le pessimiste déplore son caractère insuffisamment contraignant et l’inadéquation entre des objectifs globaux ambitieux et des contributions nationales qui le sont moins. L’optimiste y voit plus un point de départ qu’un aboutissement. Il veut croire que cet Accord tourné vers l’avenir participera d’une « dynamique vertueuse, reflet d’un nouveau paradigme » (Y. Aguila). La COP 21 a permis à tout le monde de monter dans le bateau. Mais à l’heure où certains, de poids, annoncent qu’ils souhaitent quitter le navire, il est bien difficile de savoir où ce navire conduira l’humanité. Avec la publication du rapport du GIEC sur les conséquences d’un réchauffement supérieur à 1,5 °C, le dialogue politique sur le relèvement du niveau d’ambition (dit « Dialogue de Talanoa »), l’adoption du manuel d’application de l’Accord au menu de la COP 24 et un probable One Planet Summit n° 2, 2018 sera une année déterminante de ce point de vue. Elle sera même un « crash test » pour la coopération internationale sur le climat.

L’objectif de M. Torre-Schaub est largement atteint. Le lecteur referme cet ouvrage relativement court et accessible, y compris pour un non-spécialiste, avec une vision plus claire des enjeux. Il comprend enfin pourquoi, avec tout autant d’arguments convaincants d’un côté comme de l’autre, certains voient dans cet Accord un succès et d’autres un échec. Il prend la mesure de l’ambition des quelques pages sur lesquelles a été couché l’Accord de Paris : rien de moins qu’impulser la transition de nos sociétés vers la décarbonation et maintenir ainsi notre biosphère dans un espace de fonctionnement sécurisé. Si l’Accord de Paris représente d’ores et déjà un grand succès diplomatique, nul ne peut dire encore si ce dernier se conjuguera avec un succès environnemental.

Sandrine Maljean-Dubois
(CNRS, UMR7318 Dice, Aix Marseille Université, Université de Toulon,
Université de Pau et des pays de l’Adour, Aix-en-Provence, France)
s.maljean-dubois@univ-amu.fr

Vivre avec les catastrophes

Yoann Moreau
Presses universitaires de France, 2017, 392 p.

Tiré d’un doctorat d’anthropologie dirigé par Augustin Berque et soutenu en 2013, Vivre avec les catastrophes est un ouvrage particulièrement ambitieux. Car en annonçant « résister au catastrophisme en rappelant les cultures de la catastrophe » (p. 24), c’est-à-dire en voulant montrer comment des sociétés peuvent se reconstruire, non pas seulement sur le plan matériel ou organisationnel (il n’est pas vraiment question de résilience dans cet ouvrage) mais symboliquement, par la façon dont elles se donnent une signification, il est possible, nous dit Yoann Moreau, d’être « apaisé » après une catastrophe, c’est-à-dire d’opérer une restauration du sens qui fera tenir les sociétés comme les individus. Mais au-delà, l’ouvrage entend surtout proposer une véritable théorie de la catastrophe, basée sur des hypothèses universelles, valables en tout temps et en tout lieu, faisant de son auteur un véritable grammairien de ce registre de phénomènes.

On peut rapidement mentionner les aspects formels du livre. Celui-ci est structuré par deux parties d’analyse (de 140 et 150 pages) et d’une partie conclusive de 30 pages. Il s’agit surtout d’un texte difficile à lire, malgré une écriture extrêmement subtile et la présence de très nombreuses petites vignettes explicatives permettant de résumer le propos. Car si de tels panneaux indicateurs simplifient et fluidifient beaucoup la lecture, le raisonnement reste en effet à un niveau très élevé d’abstraction et de généralité − l’auteur concède et assume p. 333 le formalisme de sa théorie. Plus généralement, Y. Moreau élabore son propre lexique et ses propres notions, et le lecteur doit de la sorte les intégrer et constamment naviguer avec des lexiques différents. D’autant plus que les registres d’écriture apparaissent un peu hachés et perturbants : après des pages assez arides de théorie pure, on a de longues descriptions de situations empiriques, sans vraiment d’articulation entre les deux. Au-delà de ces difficultés, il convient de souligner la dynamique riche d’un long texte où l’on voit littéralement la théorie se construire pas à pas, brique après brique et dans lequel Y. Moreau ne s’interdit pas de penser à voix haute, conviant le lecteur dans son atelier d’écriture et dans les coulisses de son raisonnement. C’est notamment le cas lorsqu’il commente comment l’argumentation repose (et se dépose) dans des formes graphiques : on mentionnera à ce sujet au chapitre 7 les « géogrammes » (au sens de A. Berque, c’est-à-dire des tableaux organisés autour des quatre catégories par lesquelles la réalité est saisie : ressources, contraintes, risques et agréments) qui permettent d’abréger les sens multiples d’une catastrophe. En intégrant et en montrant, visuellement, de multiples dimensions des catastrophes, ils ramassent l’argumentation à travers ce que l’auteur dénomme, avec poésie p. 223, les « clés du regard ». D’où cette paraphrase de Wittgenstein : « Ce dont on ne peut parler, il faut le montrer ». On notera aussi les nombreux tableaux du chapitre 12 qui déploient graphiquement des matrices d’interprétation des catastrophes en évitant de trop les figer ou de les séparer les unes des autres. Ou bien encore, aux chapitres 14 et 15, des « anthropogrammes », traductions graphiques imaginées par Y. Moreau afin de condenser les formes de dispute entre les quatre schèmes ontologiques isolés par Philippe Descola (totémisme, animisme, analogisme et naturalisme).

Quelle est donc la théorie des catastrophes proposée par Y. Moreau ? On peut d’emblée dire qu’elle est totale puisqu’elle permet de tenir ensemble l’organique (à savoir la dimension matérielle du vivant), le social, le psychologique, le politique comme le symbolique. L’intérêt porté à toutes les dimensions, tous les acteurs et tous les non-humains impactés par un aléa permet également de belles analyses : ainsi des horloges figées qui arment la réflexion sur le moment catastrophique (p. 84), tout comme les différents objets (monuments ou documents) où se déposent des sens de l’événement (p. 106-110). Cette ambition, quasi prométhéenne, de croiser les échelles, les disciplines, les cultures, pour voir ce qu’il y a de commun aux catastrophes « au milieu de tout ça » (p. 25), renvoie sans doute à la formation mixte de l’auteur, passé de la mécanique des fluides aux mathématiques puis à l’anthropologie. Cela lui donne surtout une position authentiquement et radicalement interdisciplinaire, notamment dans le chapitre 3 dans lequel il établit un pont entre des ordres de savoirs hétérogènes afin de déceler des principes d’homologies concernant la question des crises (qui promeuvent) et des catastrophes (qui détruisent), bref au regard d’une dialectique entre l’ordre et le désordre : les états de la matière pour les sciences physiques (avec René Thom), les états de santé (en sollicitant Georges Canguilhem), les états du social avec Émile Durkhheim ou les états du vivant avec Henri Atlan. Le chapitre 4, d’une densité théorique similaire puisqu’il propose une « typologie des milieux humains » (p. 137), prolonge cette discussion/agrégation de disciplines avec l’éthologie de Jacob von Uexküll ou la philosophie de Martin Heidegger comme celle de Tetsurō Watsuji. Le chapitre 12 s’avère également d’une belle étoffe théorique, en croisant la logique aristotélicienne à la sémiotique de Greimas puis à la grammaire des ontologies de P. Descola. On le voit, Y. Moreau procède par enrôlement de nombreux grands auteurs ou de leurs cadres paradigmatiques afin de construire le sien : citons également (dans l’ordre de leur apparition) Paul Ricœur, Fernand Braudel, Ludwig Wittgenstein, Éric Fassin et Alban Bensa, Friedrich Hegel, Platon, Emmanuel Kant, Edmond Husserl, Émile Benveniste, Luc Boltanski et Laurent Thévenot, Aristote – et bien sûr A. Berque et P. Descola, de loin les auteurs les plus sollicités. La contribution propre de Y. Moreau, sa « méso-anthropologie » énoncée p. 360-361, consiste en effet à enrichir la perspective mésologique berquienne, qui permet déjà d’intégrer « le silencieux et le non-humain » (p. 96), en lui attribuant de surcroît une cosmogonie grâce à la grammaire des ontologies de Descola. On notera que l’éclectisme des emprunts ne signifie nullement un usage superficiel, voire factice, de ces pensées. Y. Moreau en infère ce qui fait le plus sens pour sa propre construction théorique, quitte à discuter et à amender les notions qu’il emprunte (par exemple la typologie des ontologies proposée par Descola en y réintégrant la temporalité).

Car pour l’auteur, la catastrophe doit être avant tout pensée du point de vue du sens, celui qu’on lui donne comme celui qu’elle brise ou qu’elle contribue à refonder. En anthropologue, il en souligne le caractère instituant qui fait tenir debout les sociétés comme les individus, « car le sens est justement ce qui relie le psychologique et le social, la pensée et l’agir, l’être et le devenir » (p. 308), il est ce qui, dans la perspective mésologique qui est la sienne, relie un humain à son environnement. Cette attention au sens ouvre une approche dramaturgique de la catastrophe, qui renvoie d’abord à son étymologie (p. 19-22) et qu’une approche anthropologique se doit de conserver. Y. Moreau se donne alors pour objet de décrire la « grammaire du spectaculaire » (p. 21), c’est-à-dire l’ensemble des règles dramaturgiques qui président à son déroulement. Le tableau synthétique de la p. 340 propose d’ailleurs une typologie générale de ce que l’auteur a dénommé sa « grammaturgie », mélangeant les règles propres à l’exercice grammatical à la dimension dramatique propre aux catastrophes.

La première partie de l’ouvrage décrit ainsi l’irruption du non-sens qu’est l’expérience d’une catastrophe. Celle-ci, par son caractère corrosif, défait ce que la vie sociale a fabriqué, brise les frontières et les cadres qui ordonnent le monde à l’état routinier. La catastrophe détruit « ce qui tenait lieu de milieu commun » (p. 265), elle consacre l’irruption du fortuit, « cette indétermination fondamentale » (p. 311). L’épreuve du non-sens est totale, aboutissant à la rupture des grandes digues (entre civilisé/sauvage, ordre/désordre, etc.) et à un changement de cadence ontologique (par exemple p. 34, avec la projection du temps vécu dans le temps géologique). Événement idiosyncratique par excellence, la catastrophe touche ce qui relève du monde vécu, de la singularité de chaque humain (p. 26). De même, le temps qu’elle institue est fondamentalement local (p. 85). Placée du côté de l’inqualifiable (ou de l’impossible, de l’inconcevable, de l’inimaginable…), elle résiste également tout particulièrement aux entreprises qui visent à l’expliquer – voire tout simplement à la nommer puisque les inventions sémantiques qu’elle provoque échouent (p. 51). C’est donc une approche par les sensations et l’organique, non par l’intellection, qui est nécessaire puisque la catastrophe fonctionne par régression vers le corps (p. 17) ou le biologique (p. 59). Y. Moreau en vient ainsi, par exemple, à décrire le paysage sonore des catastrophes (p. 31) ou bien à voir dans les onomatopées comment le sensible (ici le son) peut être mis au secours du rationnel (p. 52-53). Cette expérience incorporée de la catastrophe en explique ainsi l’incommensurabilité.

Cette « rupture totale d’intelligibilité » (p. 93) n’interdit toutefois pas une herméneutique de la catastrophe, consistant à en repérer les significations culturellement situées, exprimées en mots comme en images. Se révèle en l’occurrence un certain tropisme japonais de Y. Moreau qui voit dans ce pays une « culture de la catastrophe » (p. 55), notamment parce que la langue japonaise développe une expressivité particulièrement riche pour mettre en mots de tels phénomènes (p. 53). Au-delà, on trouve dans l’ouvrage beaucoup de détours par les mythes (entendus comme formes particulièrement cristallisées de sens et comme expressions typifiées de réactions face aux catastrophes [p. 57]) ou bien par les estampes (on en compte jusqu’à 10, abondamment commentées dans le chapitre 7) dont l’économie (parfois au sens premier du terme puisqu’il existe une véritable industrie les concernant) sert de figuration de ces événements (notamment à travers le silure [namazu en japonais]). Mais surtout, Y. Moreau propose véritablement une théorie de la relativité des catastrophes. « Un aléa est catastrophique quand il détruit un principe d’oscillation autour d’une position d’équilibre » (p. 182). Cet aspect scalaire (puisque la description comme la compréhension d’une catastrophe dépendent des échelles d’observation) justifie d’ailleurs la perspective mésologique retenue par l’auteur : une théorie du milieu impacté est utile pour comprendre sa destruction, et donc ce qui peut ou pas faire catastrophe (p. 159). Les chapitres 7 et 8, notamment, montrent comment la catastrophe est domestiquée par une cosmogonie (un principe d’explication du monde) qui la ramène à l’état d’une simple crise rétablissant une harmonie perdue. D’où cette proposition de voir dans les catastrophes des « syndromes », passibles de plusieurs lectures et relevant de temporalités différentes. Cette notion est utile pour analyser des aléas affectant des milieux culturellement hétérogènes, car elle permet de faire varier les significations de l’événement (p. 244). C’est ce que montre particulièrement bien le chapitre 9 consacré au glissement de terrain meurtrier qui a eu lieu au Venezuela en 1999 et dont l’explication est ramenée à trois schèmes principaux (animiste, religieux, technique).

C’est notamment durant la période post-catastrophe que l’on rebat les cartes du sens et des savoirs autour de la causalité de l’événement, ce que Y. Moreau dénomme leur « part avènementielle » (p. 104). La seconde partie de l’ouvrage décrit ainsi finement comment une catastrophe est intégrée à des luttes de signification, par exemple entre plusieurs schèmes disponibles dans une société à un moment donné et que la typologie classique de P. Descola permet de regrouper autour de quatre formes (naturaliste, animiste, analogique et totémiste). Le chapitre 7, par exemple, montre particulièrement bien comment le tremblement de terre d’Edo en 1855 a pu transformer la société nippone avec l’avènement de l’ère Meiji. Les catastrophes ont dès lors à voir avec la reconfiguration des mondes, c’est-à-dire, à nouveau, comment on recompose du sens pour décrire ces derniers, les comprendre et pouvoir y vivre. De ce point de vue, elles constituent de véritables opérateurs de disputes, c’est-à-dire des opportunités de refonder des mondes (p. 365). Y. Moreau insiste à ce sujet sur la dimension bricolée de ces processus de requalification des états du monde : « Les catégories qui émergent parfois ne sont souvent que des moments d’une herméneutique sauvage, tissée, rapiécée, agencée à la manière d’un patchwork » (p. 265). Le chapitre 16 montre bien l’impossibilité de réinstaurer vraiment du sens après une catastrophe, n’autorisant au mieux qu’un bricolage. Notons également l’incapacité du seul registre scientifique à réaliser ce travail ; les catastrophes, par leur extrême singularité, mettent d’ailleurs en danger le registre de la généralisation qui fonde l’argumentation propre à la science, celle-ci étant désormais limitée à des opérations de prédiction et non plus d’explication (p. 316). Le chapitre 14 montre néanmoins comment le registre naturaliste-scientifique est devenu dominant et comment les autres schèmes (animistes, totémistes et analogiques) s’y associent et rentrent dans une dispute de sens, bien synthétisée dans divers anthropogrammes.

On l’aura compris, le propos de Y. Moreau est extrêmement ambitieux et surtout, il donne à penser. Pour autant, on peut regretter un certain déséquilibre entre théorie et empirie. Certes, on voyage beaucoup dans l’espace et le temps puisque l’auteur additionne et fait varier de nombreuses vignettes empiriques, du Japon contemporain à la Grèce antique, en passant par l’Aude en 1999, la Nouvelle-Zélande au début du XXe siècle, le Pérou dans les années 1600, pour ensuite aller au Venezuela en 1999, puis en Sicile en 1991 ou bien encore à Naples en 1965, avant de retourner au Japon en 2011. L’index p. 377 recense ainsi 41 catastrophes. Mais au-delà, la stratégie de démonstration empirique reste déléguée à de la littérature ou à des sources secondaires (témoignages, analyses indigènes, récits) qui visent davantage à donner un peu de chair au propos qu’à le faire reposer sur des enquêtes de terrain. Un seul entretien réalisé par l’auteur est rapidement mentionné p. 64 – mais on apprend p. 68 que l’incendie de sa maison a détruit son matériel empirique. C’est essentiellement en puisant à d’autres enquêtes documentant des situations de catastrophes (comme la thèse de Julien Langumier sur la crue de l’Aude p. 74-76, ou bien celle de Sandrine Revet sur la Tragedia venezuelienne de 1999, abondamment sollicitée dans le chapitre 9) que les descriptions gagnent en densité. Ces nombreux détours permettent ainsi de montrer comment des cultures « digèrent » les catastrophes qu’elles rencontrent, leur donnant une signification qui les ramène à des formes d’intelligibilité, voire même de maîtrise (à l’image des habitants de l’île d’Ambrym, dans le Pacifique Sud, qui se servent du volcan pour défendre leurs traditions dans le chapitre 8). Il n’en reste pas moins qu’ils illustrent davantage qu’ils ne démontrent. Tel est, sans doute, le revers du travail grammairien de Y. Moreau : la généralité et la sécheresse du cadre théorique ont parfois pour effet d’écraser la richesse phénoménologique des catastrophes, en dépit de l’extrême singularité et idiosyncrasie qu’il leur prête. Ainsi en va-t-il, par exemple, de l’anthropogramme de la p. 352 qui condense le tremblement de terre d’Edo de 1855 dans une forme abrégée qui en abrase de nombreux aspects abondamment décrits dans le chapitre 7.

Malgré ces quelques travers, découlant sans doute de la posture de l’auteur et, peut-être, de la liberté que procure l’absence d’un terrain qui aurait pu anesthésier l’ambition de montée en généralités, il faut surtout voir dans ce Vivre avec les catastrophes un beau et grand livre.

Julien Weisbein
(IEP Toulouse, LaSSP, Toulouse, France)
julien.weisbein@sciencespo-toulouse.fr

Brouillards toxiques.
Vallée de la Meuse, 1930, contre-enquête

Alexis Zimmer
Zones sensibles, 2016, 272 p.

Le livre s’ouvre sur la description d’un fort épisode de brouillard lors de la première semaine de décembre 193018. « Dans la vallée [de la Meuse], entre Liège et Huy, le brouillard est chose habituelle. Cette fois-ci, il y est toutefois sensiblement plus épais. […] Une masse insondable et fuligineuse s’est solidement installée dans les creux de la vallée. Comme ancrée, indéboulonnable. Des hauteurs qui la surplombent, elle y pèse comme un couvercle.» (p. 10). Dans la nuit du mercredi 3 au jeudi 4 décembre, un éleveur de porcs déclare que « sa poitrine l’oppresse, et [que] d’un rien il s’essouffle. Ses porcs suffoquent ; un douloureux râle accompagne leur respiration. Il les abat un à un, et ainsi de l’intégralité de son cheptel. Dans le même temps, les hôpitaux de la région reçoivent les premiers “malades du brouillard”. L’hécatombe ne fait que commencer. » (p. 11). […] « Samedi matin [6 décembre] le brouillard a disparu. […] Le soleil apparaît. Dans la région, c’est comme la fin d’un cauchemar. » (p. 18). Au total, cet épisode est responsable d’environ 65 morts. L’inspecteur d’hygiène du gouvernement belge, le docteur Lacombe, annule les autopsies prévues sur les corps des victimes et autorise leur inhumation. D’après lui, les morts sont la conséquence « du brouillard et de causes naturelles ».

Les enquêtes

Le soir du 6 décembre, des voix discordantes s’élèvent, le bourgmestre d’Hermalle-sous-Huy se fait le porte-parole des plaintes récurrentes de ses administrés. Pourtant, dans la presse, on peut lire : « Ce n’est évidemment pas la première fois que la région industrielle de la Meuse est affectée par un brouillard qui incommode et rend malade les gens et les bêtes. Déjà en 1897 et en 1902, on constatait une “maladie du brouillard” ou “asthme du brouillard” dans la vallée de la Meuse entre Huy et Liège. » (p. 23). L’administration des Mines – tout comme celle de l’hygiène – décide, sur ordre de la reine, d’ouvrir une enquête sur cet épisode et de confier la direction de cette commission au sénateur Berryer, ancien ministre d’État. Cette investigation, menée avec l’aide de Jean Firket, professeur de médecine légale à la faculté de médecine de Liège, suit une logique de « dévoilement des causes et des effets par la science» qui semble offrir les garanties nécessaires à l’établissement d’un récit plausible et vraisemblable. L’enquête s’appuie sur deux logiques : celle de la délégitimation des perceptions par la science et celle de la naturalisation des responsabilités attribuées au phénomène « naturel » qu’est le brouillard. La commission disqualifie les plaintes, que seul l’ingénieur sait interpréter de façon adéquate, et par le détour de la science, ce dont les perceptions sensorielles – l’odeur et la vue – sont la manifestation. Les sens sont trompeurs, la raison et ses interprètes se chargent d’en rectifier la signification.

Même si le brouillard est finalement reconnu par la science comme un composé hybride de nature et d’artifice, les dernières conclusions remises au parquet en décembre 1930 soulignent que la nature, par ses puissances météorologiques, demeure toutefois l’agent premier de la catastrophe. « Le parquet conclut à un non-lieu. » (p. 68). En l’absence de dysfonctionnement, les usines ne pouvaient pas faire mieux, elles font partie du paysage, au même titre que la topographie.

Des recommandations de la commission Berryer découle l’arrêté royal du 10 août 1933 concernant la police des établissements classés comme dangereux, insalubres et incommodes. La circulaire du 13 décembre 1933 précise l’application de cette nouvelle législation : « S’il importe d’éviter que l’atmosphère soit polluée par l’anhydride sulfureux dégagé par les usines, il ne faut d’autre part pas perdre de vue qu’on ne peut préconiser des mesures qui mineraient l’industrie et enlèveraient leur gagne-pain aux populations.» (p. 202). Aucune usine ne fut particulièrement mise en danger par les conclusions du rapport d’expertise et d’autres épisodes de brouillard eurent lieu en septembre 1933, novembre 1934 et septembre 1938… L’objet du livre consiste en une contre-enquête qui essaie de comprendre comment de telles conclusions ont pu être établies et rendues crédibles.

Un récit qui invite à réactiver l’histoire, là où les récits experts tendent à le clôturer.

C’est dans cette perspective de mise en cause de l’enquête effectuée que l’auteur se propose de replacer ce brouillard mortel de 1930 dans une histoire de près d’un siècle de pollution, de transformation des territoires et des corps pour mieux comprendre pourquoi les hommes ont réussi à rendre irrespirable le milieu conditionnant l’existence de populations entières. Pour cela, il retrace, sans concessions, l’épopée du charbon, celle de la dépendance inouïe à l’égard du combustible fossile et l’époque du credo dans le progrès et dans le développement de la vallée de la Meuse qui, au XIXe siècle, fut le théâtre d’une accumulation industrielle sans précédent parce que les entreprises recherchaient la proximité de la mine. Parallèlement fut construit un discours sur l’émancipation du travail et des travailleurs par les machines à vapeur qui libèrent du temps et affranchissent de la pénibilité du travail manuel ; émancipation aussi des contraintes de la Nature dans la mesure où le chemin de fer et les machines s’affranchissent des fluctuations des saisons, du gel et des intempéries. C’est toute une économie des relations entre les hommes et les choses qui est bouleversée depuis le début du XIXe siècle.

En quelques décennies, « du symbole de respect des intérêts négociés du collectif imbriqué dans ces exploitations, le bien public est devenu symbole de l’intérêt d’une nation, une notion abstraite, collection subsumée des citoyens ordonnée au principe central et régulateur de son essor : le développement de l’industrie et du commerce» (p. 89).

Le chapitre 8, particulièrement intéressant, est consacré à la perception de l’air et de l’atmosphère. L’évolution considérable dont elle a fait l’objet, en lien avec les découvertes scientifiques du XIXe siècle, permet de comprendre le peu d’attention accordée à la pollution atmosphérique au moment de l’essor de l’industrialisation.

L’air, sous l’Ancien Régime est censé agir de multiples manières sur le corps vivant, il est un principe essentiel de l’ordre public que la police doit faire respecter. Par exemple, à Bruxelles, « l’altération de l’air de certains quartiers est directement associée à l’insouciance de ceux qui sont chargés de la police de la ville » (p. 151). Or, ces airs multiples et agissants de l’Ancien Régime laissèrent la place à une atmosphère universelle, un fond indifférencié, relativement homogène, identique en tout lieu et en tout temps. Les produits de la nouvelle chimie industrielle ont réussi à convaincre de leur innocuité en s’appuyant sur trois principes nouveaux : l’homogénéité de l’atmosphère, le bénéfice de son acidité et l’importance des microbes et des facteurs sociaux dans l’explication des maladies.

Ce sont les analyses de l’air de Louis Pasteur et de Félix Archimède Pouchet relatives « aux germes d’organismes inférieurs » qui ont retenu toute l’attention tandis que les effets des fumées industrielles étaient passés sous silence. Dans le sillage des découvertes pasteuriennes, une nouvelle génération de médecins et de professionnels de santé se met à situer de plus en plus les causes de la maladie non dans le milieu environnant, mais dans des bactéries, virus ou parasites spécifiques, voire dans l’insalubrité du logement et la pauvreté.

C’est dans cette perspective que l’auteur dénonce l’ambiguïté hygiéniste. Les hygiénistes, tenus à l’écart de la surveillance des établissements insalubres, qui demeurent sous la férule de l’administration des Mines, ont jugé les causes d’ordre moral ou social plus déterminantes pour l’étiologie des pathologies du travail ; ces déterminants sociaux détournent le regard médical de la réalité du milieu dans lesquels les ouvriers de la grande industrie sont plongés. Médecins et responsables politiques croient à la résorption de l’insalubrité en raison des promesses du progrès industriel et de l’éradication de la maladie par la lutte contre les microbes.

Certains experts du brouillard mortel de 1930 ont explicitement mentionné l’impossibilité d’améliorer la situation sanitaire de la vallée sans mettre en même temps l’industrie en péril. Alexis Zimmer dénonce l’alliance entre la science, les gouvernements et les industriels pour encourager le développement industriel en niant, avec un certain mépris pour la classe ouvrière, les dégâts collatéraux provoqués. Il met en cause certains procédés de désinformation sciemment (?) mis en œuvre ; par exemple les méthodes d’investigation d’experts qui excluent a priori toute remise en question du monde économique, a fortiori industriel. Il s’agirait de pratiques délibérées, organisées pour produire du doute ou de l’ignorance et échapper ainsi à la réprobation publique ou à une législation contraignante. Il souligne que la volonté de réparer par des indemnités les dégâts engendrés par l’industrie entretenait la croyance en la mesurabilité et la quantification possible de dommages qui altéraient la santé, les environnements, les sols, les eaux, les airs et les corps dans des proportions que certainement aucun calcul ne réussissait à subsumer.

Quels sont les enseignements tirés de cet épisode ?

Selon l’auteur, aucun enseignement n’a été tiré de cet épisode douloureux alors que l’atmosphère est devenue universelle et que notre siècle voit les mêmes phénomènes avec une lentille globale. La vallée de la Meuse a exporté ses usines en Chine et contribue sans doute aux accumulations de poussières dans certaines villes du nord de la Chine. Les gaz à effet de serre, qui ont une durée de vie plus longue que l’anhydride sulfureux, continuent de s’accumuler et représentent une menace globale, notamment pour le climat. A. Zimmer déplore que la société actuelle n’ait pas appris, dans les interprétations données de ces phénomènes, « à relier les éléments imbriqués dans ces pollutions aux modes de vie qui sont les nôtres, aux choix de société qu’ils impliquent, à la manière dont ces choix sont collectivement ou non discutés et effectués, aux types de relations très singulières que nos corps tissent avec les airs, les eaux, les terres, la multitude d’existences qui y sont imbriquées, ainsi qu’aux trajectoires historiques multiples qui les façonnent et dont ils héritent » (p. 222). Mais l’analyse qui est proposée n’est-elle pas, elle aussi, trop dichotomique, opposant les responsables, industriels et gouvernements aux plaintes de ceux qui n’ont pas été écoutés ? Pourtant, cette croyance dans les bénéfices du progrès et de l’industrialisation était largement partagée par la population et par les syndicats qui n’avaient pas encore conscience de l’importance de la notion d’environnement, importance que nos sociétés commencent, très progressivement, à redécouvrir. Encore à l’heure actuelle, la pollution de l’air en général est trop vague pour déterminer l’action du législateur, qui a besoin d’un déterminisme précis pour agir sur une cause connue, mais se trouve démuni face à l’origine complexe et multifactorielle de la pollution atmosphérique. C’est tout un monde dans lequel la complexité et l’incomplétude de la notion d’environnement ne trouvaient pas leur place qui est en train de s’écrouler. Ce qui permet à l’auteur d’apporter, en conclusion, une note plus optimiste : « La désindustrialisation qui affecte la vallée de la Meuse, bien plus que de n’être qu’un motif de déploration ou d’impuissance, pourrait devenir l’occasion d’une réappropriation collective qui invente et expérimente des manières de composer avec cet héritage d’airs, de sols et d’eau et des corps intoxiqués. Cela ne va pas de soi, mais cette invention des possibles est indispensable pour que notre art devienne celui de respirer. » (p. 225).

Isabelle Roussel
(Professeur des Universités émérite, Université de Lille 1,
Laboratoire TVES, Lille, France)
appa.irou@gmail.com

L’innovation en eaux troubles. Sciences, techniques, idéologies

Ivan Sainsaulieu, Arnaud Saint-Martin (Eds)
Éditions du Croquant, 2017, 330 p.

L’ouvrage collectif L’innovation en eaux troubles. Sciences, techniques, idéologies est dirigé par deux sociologues, Ivan Sainsaulieu, de l’Université de Lille, et Arnaud Saint-Martin, du CNRS, et rassemble quatorze contributions visant, selon les termes de l’introduction, à « raisonner sur l’innovation malgré elle, ou par-delà l’innovation : non pas simplement de déconstruire les mirages rhétoriques, mais aussi de reprendre le fil de l’analyse théorique et empirique des activités trop rapidement écrasées sous et par le vocabulaire aujourd’hui routinisé de l’innovation » (p. 20). Il s’agit, précise cette fois la conclusion, de « vérifier l’existence de pistes pour reconditionner l’innovation en objet de recherche à la fois digne d’intérêt et utile pour nourrir les réflexions transversales » (p. 323), et de passer des « eaux troubles », qui donnent leur titre à l’ouvrage, aux « eaux claires ». Des sociologues, des historiens, des juristes, des économistes y participent à travers des contributions préalablement présentées lors d’un colloque, organisé en 2013 pour débattre des formes contemporaines de l’innovation scientifique et technique et « encourager la conception in situ d’expertises contrastées sur des grandes opérations19 de recherche ou d’innovation technique ».

Le parti pris de l’ouvrage est d’écarter les discours trop positifs et utilitaristes sur l’innovation, de disperser un brouillard idéologique autour de ce qui s’est affirmé ces dernières années comme une politique aux effets immanquablement vertueux sur le développement économique, pour mieux en faire apparaître les formes concrètes et les résultats équivoques. L’introduction de l’ouvrage ouvre sur le fait que l’innovation fonctionne comme un slogan légitimant une politique de soutien à la recherche et au développement privé, qu’il contribue à verrouiller et à rendre indiscutable, malgré des effets plus variés et contradictoires dans la pratique. Elle insiste sur le peu de consistance de cette « idéologie spontanée », sur son flou, son caractère autoréférentiel et rhétorique. Elle insiste également sur la participation des sciences sociales à ce programme de l’innovation, notamment «l’économie, le management, la sociologie, les organization studies, design, études des sciences et des techniques, histoire des techniques, géographie, ingénierie… », étonnamment présentées par les directeurs de l’ouvrage comme des « spécialités infra-disciplinaires » (p. 22) des innovation studies. Prenant ses distances avec ces spécialités, insuffisamment critiques à l’égard du nouvel universalisme de l’innovation d’après les auteurs, voire collaborant à le légitimer, l’ouvrage voudrait idéalement structurer une nouvelle sociologie critique, pour dévoiler les « usages » et les « tempos » de l’innovation concrète ainsi que les effets d’économicisation, de privatisation ou de bureaucratisation de la recherche et de l’enseignement supérieur qu’engendrent les politiques inspirées de l’impératif de soutien à l’innovation, que l’idéologie gestionnaire dominante empêche d’apprécier.

Il y a en fait deux livres en un. Un premier ensemble de contributions, plutôt situées dans la seconde partie de l’ouvrage intitulée « L’innovation en situation », ne se préoccupe pas de la question de l’idéologie, mais approche l’innovation de manière générique, comme une série de changements dans les formes, les pratiques ou les instruments organisant la production scientifique et le développement d’objets techniques et commerciaux. Le chapitre 10 étudie ainsi l’économie morale et matérielle du hacking comme contre-innovation, le chapitre 12, sur le Human Brain Project, examine le travail très particulier de légitimation d’un projet financé sur une promesse initiale instrumentale et difficile à réaliser. Le chapitre 11 fait le point sur le recours au modèle du pool de brevet (mise en commun volontaire de brevets sur des technologies similaires ou complémentaires, par les entreprises les ayant obtenus individuellement) dans l’industrie des télécommunications. Le dernier chapitre, lui, étudie les multiples registres de légitimation de la création d’entreprises issues d’une recherche conduite dans le cadre universitaire (spin-off). Quelques thèmes transversaux ressortent de ces divers chapitres, sur lesquels le livre aurait pu davantage capitaliser, comme celui de la légitimation sociale des projets techniques, ou des limites des méthodes de pilotage organisationnel de l’innovation (voir, par exemple, le chapitre 9 sur le logiciel libre ou le chapitre 13 consacré aux plateformes numériques de données pour les sciences humaines et sociales). Mis bout à bout, ces textes démontrent, finalement, la diversité des modes d’innovation et la difficulté toujours présente à mettre en marché et en usages de nouveaux produits technologiques, d’où leur succès tout relatif.

Un autre ensemble de contributions considère l’innovation comme une idéologie (un « discours », une « rhétorique » ou un « emballage ») et réalise plus directement le projet annoncé par le titre de l’ouvrage. Elles se situent principalement dans la première partie, intitulée « L’innovation en perspectives ». Le chapitre 1 démontre que le discours contemporain positif sur l’innovation prolonge une histoire de plusieurs siècles de sacralisation et de mythification de la figure de l’inventeur de technologies − et qu’il relaie donc l’idéologie du progrès technoscientifique. Le chapitre 2 propose une histoire de la conversion des approches de la triple hélice (la théorie selon laquelle les innovations émergent des interactions constantes entre administrations publiques, universités et entreprises) et de la théorie de l’acteur-réseau en savoirs de gestion de l’innovation pour consultants et gestionnaires. Le chapitre 3 porte sur la carrière de la notion de cluster, qui fut d’abord un concept de la géographie industrielle puis un outil cognitif de conception de programmes de réforme des structures de recherche et d’enseignement. Les auteurs insistent sur l’ambiguïté de ce concept et sur les multiples manières dont il est opérationnalisé dans des projets de politique de l’innovation, et relèvent que la malléabilité du terme en fait un outil essentiel de légitimation pour les gestionnaires de la recherche et de l’innovation (c’est le cas du pôle [scientifique et technologique] Paris-Saclay où cette flexibilité a permis d’inclure des institutions d’enseignement supérieur dans le périmètre du projet). Le chapitre 4 documente la prédominance d’une représentation processuelle et linéaire de l’innovation parmi les étudiants d’une école de gestion, tandis que le chapitre 8 se concentre sur une autre prescription, l’interdisciplinarité, elle aussi typique de la gestion de l’innovation, en prenant pour exemple les interactions avec les patients, nouvelle norme des projets de recherche en santé mentale.

La notion d’idéologie peine à fournir le cadre d’ensemble à l’ouvrage, et notamment aux chapitres de la première partie. Certes, les contributions partagent avec l’introduction un profond scepticisme ainsi que beaucoup d’ironie à l’égard de ce discours dominant qui semble incapable d’enregistrer ses limites, ses échecs et les problèmes que les politiques d’innovation génèrent. La notion d’idéologie n’est toutefois pas définie. Il naît donc un doute dans l’esprit du lecteur : faut-il comprendre que la théorie de l’acteur-réseau, la notion de cluster, l’interdisciplinarité, la participation des patients à la recherche participent d’une seule et même idéologie ? La limite de la notion est qu’elle ne s’articule pas à ces dispositifs et concepts concrets. Ces objets auraient d’ailleurs pu être discutés en prenant en compte le fait que l’innovation existe largement à travers des « modèles » (linéaire, distribué, par le bas, social…) dont le caractère très complexe − ils sont à la fois descriptifs et prescriptifs, représentationnels et performatifs – constitue une question récurrente dans les innovation studies. On a l’impression que l’ouvrage surjoue quelque peu la dénonciation des effets de pures idées, sans renseigner sur leurs effets pratiques et leurs limites, c’est-à-dire sur le degré de croyance dans les modèles de l’innovation dans différents contextes. Par exemple, l’analyse sarcastique des « Doctoriales », cette formation destinée à l’insertion professionnelle des doctorants, aurait été plus convaincante si elle avait examiné qui participe et qui croit aux Doctoriales, et ce que ce genre d’événement produit sur les carrières des participants. L’étude du discours sur le « vide juridique » (chapitre 6) – selon lequel le droit établit avec retard les règles concernant de nouveaux produits ou de nouvelles activités et freine l’innovation – aurait gagné, elle aussi, à être replacée dans le contexte des processus effectifs de construction des cadres réglementaires pour les nouvelles technologies. Cela aurait notamment permis de décrire la variété des stratégies industrielles à l’égard de la réglementation, de l’usage des instruments non normatifs (comme le montre le chapitre 11), à l’extension ou au raccordement de cadres réglementaires existants (nanotechnologies, biotechnologies, médicaments innovants). Les chapitres sur le concept de cluster ou sur les théories des science and technology studies reprises dans le discours sur l’innovation semblent, eux, surestimer la performativité des sciences sociales et l’influence des concepts incriminés sur les politiques en question.

Il reste donc une assez grande distance entre les deux parties de l’ouvrage qui, en dépit de sa richesse, ne tient pas vraiment son « pari » de « recadrer l’innovation » (p. 20). Le paradoxe est qu’il laisse entendre que l’idéologie de l’innovation a un pouvoir directionnel, alors même que la capacité à piloter et à diriger l’innovation est elle-même mise en question dans les innovation studies. On pourra approcher l’ouvrage avec profit pour la variété des différents chapitres portant sur différents aspects de l’innovation, souvent discutés dans des littératures qui ne se parlent pas, ici rassemblés. Il a le mérite de mettre à l’agenda de la recherche ce que les innovation studies appellent depuis longtemps le « pro-innovation bias », objet d’un ouvrage20 tout récent, sans toutefois armer la sociologie critique qu’il appelle de ses vœux.

David Demortain
(Inra, UMR9003 Lisis, Marne-la-Vallée, France)
demortain@inra-ifris.org

Théories et modèles en sciences humaines. Le cas de la géographie

Franck Varenne
Éditions matériologiques, 2017, 644 p.

Après avoir traité des modèles et des simulations des plantes en biologie, botanique et agronomie, Franck Varenne s’attaque maintenant au cas de la géographie « qui décontenance et décourage souvent les philosophes des sciences par l’aspect disparate de ses méthodes » (p. 17). C’est cette diversité des méthodes dans un domaine scientifique unifié dans ses problématiques qui motive le livre. Il s’y ajoute la dimension spatiale des phénomènes étudiés, qui conduit à donner plus d’importance aux simulations qu’aux modèles mathématiques. Bien qu’il soit difficile, dans les sciences sociales, d’affirmer l’existence de lois, conçues comme une connexion régulière entre deux ordres de faits, on peut citer en géographie les travaux de Walter Christaller sur la relation entre la taille des villes et le nombre de fonctions urbaines qui s’y trouvent, ceux de William Reilly sur la concurrence entre les zones de marché en fonction des temps d’accès, ou encore les lois de probabilité appliquées par Torsten Hägerstrand à la diffusion spatiale des innovations. Un énoncé universel ne peut toutefois être qualifié de loi s’il n’est pas porté par une théorie qui explicite des facteurs causaux. Le problème vient de ce que les « patterns » géographiques correspondent à la juxtaposition dans l’espace de phénomènes répondant à des logiques différentes. De ce fait, la recherche de théories tend à être remplacée par la recherche de mécanismes, moins ambitieux que des théories, et dont la validité peut n’être que locale. Des expérimentations peuvent conduire à représenter iconiquement des règles d’interaction sans qu’il y ait nécessairement un passage par une représentation analytique préalable. L’auteur rappelle que le géographe Pierre George affirmait ainsi, en 1964 « qu’il ne peut y avoir à proprement parler de loi géographique, car le géographe doit travailler simultanément à toutes les échelles puisque cette superposition circonstancielle de mécanismes en une situation singulière nécessite cette approche multi-échelles. Cette considération simultanée interdit au géographe de contribuer à la constitution d’une authentique loi, c’est-à-dire d’une loi qui serait à la fois constante, nécessaire, universelle et causale21. ».

Historiquement, la révolution quantitative a été intense dans les années 1960. Richard Chorley écrit en 1962 que la théorie générale des systèmes « fournit des méthodes de résolution des problèmes dont on peut dire qu’elles ont été créées pour la géographie ». Si les techniques d’analyse multivariée étaient disponibles dès les années 1920, il a fallu attendre la diffusion informatique pour qu’elles soient appropriées par les sciences sociales, par la démographie d’abord puis par l’économie. Le fil directeur de l’analyse de F. Varenne est que l’hétérogénéité des objets de la géographie ainsi que le rôle de l’espace ont pu finalement être pris en compte par le « computer22 » mieux qu’ils ne pouvaient l’être par l’utilisation initiale de l’ordinateur dans une approche purement mathématique et la recherche de lois.

Le passage de la loi aux modèles est parfaitement analysé à propos du questionnement sur les fondements théoriques de la « loi gravitaire » appliquée à la hiérarchie des villes. La formule P1.P2 /d2 sert à exprimer les interactions entre deux villes, mais la masse peut être mesurée de manière très différente en fonction de la question posée : le taux d’emploi, le revenu moyen, le niveau d’éducation ou de santé peuvent être plus significatifs que la seule population. C’est la question de la signification de la « force » expliquant l’interaction, donc celle de la nature de la « cause », qui se trouve posée. De nombreuses études empiriques montrent, après ajustement, que l’exposant de la distance peut varier de 0,689 à 2,6. Dans un article de 1962, David Huff propose de considérer le concept de gravité comme un modèle, dont la forme générale peut être symbolisée ainsi : Fi j = a.Aj / Dijb, où Fij est la fréquence attendue d’interaction en un point i, créée par l’attraction de la destination j, Aj étant l’attraction de la destination j, Dij la distance du point d’origine i au point de destination j, et a et b des constantes. Le modèle de gravité est conçu pour rendre compte de grands groupes de personnes. S’il est partitionné en différents sous-groupes, il faut l’ajuster par des pondérations différentes et il faut aussi ajuster l’exposant de la distance en fonction de la nature des trajets. Ces trajets peuvent être différents selon les choix individuels, ce qui amène Huff à concevoir un modèle probabiliste, où P(Cij) est la probabilité qu’un consommateur habitant sur une zone i aille au centre commercial situé dans la zone j, Sj étant la surface de vente de la zone j et T le temps de trajet. Sj/Tija est évalué en probabilité de la totalité des trajets des habitants de toutes les zones, soit : P(Cij) = (Sj/Tija)/[∑j=1n(Sj/Tija)]. Dans un tel modèle il faut considérer chaque zone séparément et faire la somme, pour chacune, de toutes les probabilités P(Cij) chaque fois pondérées par les surfaces de vente et les modes de transport.

F. Varenne donne une autre illustration de ce passage d’une théorie empirique à une démarche de modélisation, la fameuse loi « rang/taille » de Zipf (1949). La distribution des tailles des villes montre qu’il existe un petit nombre de grandes villes, davantage de villes moyennes et plus encore de petites villes. Cette distribution, qui suit des régularités mesurables, coexiste avec une autre théorie, celle des « lieux centraux » de W. Christaller. Cette dernière, note l’auteur un peu ironiquement, « a été à elle seule une bannière de ralliement » pour les premiers géographes théoriciens parce qu’elle représentait pour eux à la fois un symbole, une source d’espoir et d’inspiration. La loi rang/taille et la théorie des lieux centraux décrivent le même phénomène, mais la loi rang/taille suppose une distribution continue des tailles de villes, tandis que la théorie des lieux centraux déduit une distribution en paliers où toutes les villes appartenant au même niveau hiérarchique ont la même taille. Les irrégularités de la loi rang/taille s’expliquent par le fait que la probabilité qu’un nouvel individu vienne rejoindre une ville est proportionnelle à la population de cette ville ou d’une ville de même taille. Denise Pumain propose donc un ajustement selon une loi log-normale, la « loi de l’effet proportionnel23 ». Les lois statistiques sont certes des outils de mesure des dynamiques mais, si ce sont des lois internes aux théories mathématiques, on ne peut pas dire que ce sont des lois géographiques. La compréhension des causes profondes de l’évolution des systèmes urbains impose une infrastructure générale de modèle d’hypothèse, ce qui conduit à revenir à la théorie des lieux centraux, en couplant cette dernière avec des modèles dynamiques. Le modèle d’Allen et Sanglier, développé en 1976 à l’Université libre de Bruxelles, est un ensemble de modules ayant chacun la forme d’un système d’équations entre variables. Il prend en compte la théorie de la base économique en introduisant des aspects stochastiques, par exemple sur l’apparition des innovations, et des fluctuations pouvant engendrer des bifurcations, aboutissant ainsi à une situation d’auto-organisation.

Le caractère spécifique des données géographiques tient à leur lien avec la localisation spatiale. Ce lien peut être bien mis en valeur par l’analyse des « surfaces de tendance », c’est-à-dire par une régression multiple qui donne le rôle décisif de variable indépendante à chacune des deux coordonnées x et y, latitude et longitude, de l’espace physique. L’ajustement des valeurs observées zi par un polynôme du premier degré : zi = axi + byi définit une surface plane où a et b représentent l’inclinaison du plan selon les directions de chacune des coordonnées géographiques. On peut compliquer l’équation de régression en ajoutant des termes de degré plus élevé au polynôme. Ainsi, zi = axi + byi + cxiyi + dxi2 + eyi2 définit une surface quadratique qui permet de représenter les variations selon des structures paraboliques qui font apparaître des tendances vers la croissance ou la décroissance selon le déplacement dans le plan x, y.

Cette dépendance spatiale des données géographiques est un problème pour l’emploi des méthodes statistiques traditionnelles, qui supposent que les variables soient indépendantes. Si l’on veut appliquer les tests statistiques traditionnels, il faut retirer l’autocorrélation spatiale des données en remplaçant la valeur de xi par une pondération avec les valeurs proches ∑j dij-axj, avec dij la distance entre les zones géographiques, et a le paramètre de friction de la distance du modèle gravitaire. L’analyse des coefficients d’autocorrélation spatiale permet d’établir dans quelle mesure les unités spatiales d’une région ont tendance ou non à se ressembler à cause de leur proximité.

L’ouvrage se termine par l’approche de Hägerstrand, qui vise à expliquer par un modèle de simulation la diffusion de nouvelles techniques agricoles (mise en herbe, contrôle de la tuberculose bovine) en Suède, localisées à des dates différentes sur des cellules spatiales de 5 km de côté. Toute la population étant informée de l’existence de l’innovation, l’hypothèse, au départ, est que l’adoption de l’innovation par un individu se produit de manière aléatoire, indépendamment de l’adoption par les autres individus. La connaissance de l’information se diffuse ensuite via l’information privée, à intervalles de temps constants. Cette diffusion se fait dans le cadre d’un « champ d’information » (25 cellules centrées sur chaque adoptant de l’information) qui correspond au « champ de migration » observé localement autour de la ville principale. Dans ce champ d’information, qui définit les probabilités de contact en fonction de la distance au centre, un individu sera contacté à chaque itération du modèle, de façon aléatoire selon la méthode Monte-Carlo. L’adoption de l’innovation peut avoir lieu pour certains (les « innovateurs ») après un seul contact, pour d’autres seulement au bout de plusieurs, selon une courbe gaussienne de la répartition des aptitudes à innover. L’intérêt d’une telle modélisation est de faire apparaître des « patterns » géographiques à la suite d’une temporalité simulée, et surtout de montrer que modéliser en partant de l’échelle de l’individu ne condamne pas à la microgéographie, mais permet d’avoir des résultats valables à une autre échelle, ce qui annonce les modèles à base d’agents développés à partir des années 1990.

On peut regretter que la réflexion n’ait porté que sur les modèles de géographie humaine, d’orientation surtout économique, élaborés dans les années 1950-1980 essentiellement par les chercheurs anglophones, dans la foulée de l’apparition et de l’essor de l’informatique. Elle a laissé de côté la géographie sociale ainsi que la géographie physique, notamment les applications des automates cellulaires, les simulations du ruissellement sur des modèles numériques de terrain, ou celles de la diffusion des polluants. Cela ne réduit pas l’intérêt de cet ouvrage d’une très grande clarté, témoignant d’une connaissance approfondie des mouvements scientifiques qui ont traversé la recherche géographique dans la seconde moitié du XXe siècle. La parfaite maîtrise des apports des techniques computationnelles mise en évidence a conduit à l’éclosion d’une épistémologie combinatoire, qui est un atout pour l’ensemble des sciences humaines et sociales.

Yves Guermond
(UMR6266 Idées, Université de Rouen Normandie, Mont-Saint-Aignan, France)
yves.guermond@orange.fr


1

Les éditions La Découverte publieront en 2018 une version de poche de Penser et agir avec la nature.

2

Larrère C., Larrère R., 1997. Du bon usage de la nature. Pour une philosophie de l’environnement, Paris, Aubier.

3

Il est dommage que dans leurs exemples américains, ils ne se soient pas attardés sur le Shenandoah National Park, espace forestier entièrement reconstruit sur des champs et des prairies dans les années 1930 pour créer un parc national en Virginie à une heure de route de Washington (les autres parcs nationaux étant essentiellement situés à l’ouest du continent !), en mobilisant les capacités conceptuelles du corps des landscape engineers et la main d’œuvre disponible du New Deal, et en faisant déguerpir au passage les familles de fermiers qui y résidaient depuis deux siècles...

4

On peut regretter ici qu’ils s’en tiennent à des visions ontologiques de la pensée systémique, dans lesquelles les systèmes sont dans ce qui est observé, laissant de côté les approches plus épistémologiques pour lesquelles il s’agit d’une façon de voir le monde tout en se voyant soi-même regardant le monde comme un système ... en étant donc à la fois sujet et objet de sa propre transformation par le fait même de se donner les moyens d’explorer la complexité du monde sans chercher à la réduire…

5

Ce point leur permet également de discuter de la perception – contestée, notamment du fait de la diversité des cosmologies – de la biodiversité comme un bien commun.

6

Leopold A., 1970 (1re éd. 1949). A Sand County almanac, with essays on conservation from Round River, New York, Ballantine books. Trad. fr. : Almanach d’un comté des sables, Paris, Aubier, 1995, p. 282.

7

Bachelard G., 1942. L’eau et les rêves. Essai sur l’imagination de la matière, Paris, José Corti. De Bachelard, C. Fleury et A.-C. Prévot citent aussi d’autres études sur les rêves et les éléments p. 359.

8

Roszak T., 1992. The voice of the earth, New York, Simon & Schuster. Roszak T., Gomes M.E., Kanner A.D. (Eds), 1995. Ecopsychology. Restoring the earth, healing the mind, San Francisco, Sierra Club Books.

9

Berque A., 1996. Être humains sur la terre. Principes d’éthique de l’écoumène, Paris, Gallimard. Berque A., 2000. Écoumène. Introduction à l’étude des milieux humains, Paris, Belin.

10

Abram D., 1996. The spell of the sensuous. Perception and language in a more-than-human world, New York, Vintage books. Trad. fr. : Comment la terre s’est tue. Pour une écologie des sens, Paris, La Découverte, 2013.

11

Kohn E., 2013. How forests think. Toward an anthropology beyond the human, Berkeley, University of California Press. Trad. fr. : Comment pensent les forêts. Vers une anthropologie au-delà de l’humain, Bruxelles, Zones sensibles, 2017.

12

Terrasson F., 1988. La peur de la nature. Au plus profond de notre inconscient, les vraies causes de la destruction de la nature, Paris, Sang de la terre.

13

Gilligan C., 2008. Une voix différente. Pour une éthique du care, Paris, Flammarion. Traduit de : In a different voice. Psychological theory and women’s development, Cambridge (MASS), Harvard University Press, 1982.

14

Laugier S. (Ed.), 2012. Tous vulnérables ? Le care, les animaux et l’environnement, Paris, Payot & Rivages.

15

Hache É. (Ed.), 2016. Reclaim. Recueil de textes écoféministes, Paris, Cambourakis.

16

Dossier « Écoféminismes », Multitudes, 2017, 67, 2, 17-104.

17

Sur un sujet similaire, voir le texte que Jean Foyer et Édouard Morena ont publié en 2015 dans NSS, 23, 3, p. 275-279, https://doi.org/10.1051/nss/2015051

18

L’ouvrage comporte de nombreuses illustrations : cartes, gravures, dessins représentant la vallée de la Meuse au XIXe siècle et des croquis éclairant les propos de l’auteur.

19

Parmi ces grandes opérations figurent le Human Brain Project (projet de recherche partenarial à un milliard d’euros, financé par la Commission européenne, visant à l’élaboration d’un modèle numérique du cerveau humain) ou l’édification de l’Université Paris-Saclay.

20

Godin B., Vinck D. (Eds), 2017. Critical studies of innovation: alternative approaches to the pro-innovation bias, Cheltenham, Edward Elgar.

21

George P., Guglielmo R., Kayser B., Lacoste Y., 1964. La géographie active, Paris, Presses universitaires de France, p. 32.

22

« Au lieu du mot vieilli d’ordinateur », l’auteur indique en note (p. 18) qu’il « préfère désormais recourir, faute de mieux, au quasi-anglicisme computer. Le retour à ce terme peu usité, mais assurément plus générique, s’impose plus que jamais à l’heure des sciences computationnelles (et non “numériques” ni “ordinatoriales”) et des différents tournants computationnels (et non “ordinatoriaux”) que connaît la science. Le terme ordinateur avait originellement été repris dans ce contexte pour désigner une machine à ordonner et à traiter de l’information. L’usage comme ordinateur d’un computer n’en est qu’un parmi d’autres aujourd’hui. ».

23

À la différence d’un modèle de croissance de population des villes qui serait fondé sur une hypothèse de l’effet constant, menant à une distribution gaussienne des populations, on suppose ici que les accroissements de quantité de population des villes, dx, ne sont pas identiques, mais que le taux de croissance dx/x évolue selon le logarithme de x, et que x (la distribution du nombre de villes en fonction de la taille) suit une loi log-normale, la loi de Gibrat, ou « loi de l’effet proportionnel ». Les accroissements de population les plus forts interviennent ainsi préférentiellement dans certaines villes.


© NSS-Dialogues, EDP Sciences 2018

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.