Issue |
Nat. Sci. Soc.
Volume 27, Number 3, Juillet/Septembre 2019
|
|
---|---|---|
Page(s) | 357 - 376 | |
Section | Repères − Events & books | |
DOI | https://doi.org/10.1051/nss/2019041 | |
Published online | 20 November 2019 |
Ouvrages en débat
Pourquoi la société ne se laisse pas mettre en équations
Pablo Jensen
Éditions du Seuil, 2018, 314 p.
Cet ouvrage de Pablo Jensen aborde la question de la formalisation quantitative des systèmes sociaux, depuis la recherche de lois générales jusqu’au traitement des big data dans les sciences de la société. L’auteur, physicien, vulgarisateur, créateur des « cafés sciences et citoyens » à Lyon, se consacre en effet depuis plusieurs années à ces questions. Constatant l’emploi difficile de la modélisation en sciences sociales (elles « sont les véritables sciences dures ») malgré l’avalanche de données que la révolution numérique rend possible, il a souhaité offrir aux lecteurs des clés de compréhension de l’intérêt et des limites de l’approche quantitative dans l’étude des systèmes sociaux.
L’ouvrage de 314 pages est constitué de 22 chapitres regroupés en 5 parties, chacun d’entre eux se terminant par une minibibliographie « pour aller plus loin » qui donne de nombreuses pistes pour mieux explorer la complexité des questions de modélisation en sciences sociales. Une première lecture laisse imaginer une construction à base de cas tirés de la littérature scientifique, offrant de multiples points d’entrée sur la problématique comme pourrait le faire un dictionnaire amoureux de la modélisation des systèmes sociaux. Pourtant, l’ouvrage prend progressivement la forme d’un parcours organisé dans l’histoire des idées en rapport avec la théorisation et la formalisation des sciences de la société, le long des chemins tracés par la communauté scientifique et parcourus par l’auteur, depuis ses premières recherches en tant que physicien de la matière jusqu’à ses travaux récents sur l’étude formelle des systèmes sociaux. Pédagogique et plein d’humilité, parfois ironique, parfois naïf, toujours passionnant, ce livre constitue le récit de voyage au pays des sciences sociales d’un physicien qui possède le regard affûté de celui qui a beaucoup baroudé dans l’univers des systèmes complexes et qui est prêt aujourd’hui à délivrer un message !
La première partie, intitulée « Comment les sciences naturelles construisent un savoir fiable », constitue une préparation au voyage depuis le monde de la physique qui est la discipline de l’auteur. Jensen commence par rappeler certaines bases épistémologiques de la démarche scientifique en défendant une approche issue de la philosophie pragmatiste de William James et John Dewey, qui favorise la recherche de représentations qui permettent d’enrichir notre expérience du monde. L’auteur enchaîne alors par des illustrations du caractère construit, imparfait, simplificateur mais parfois terriblement efficace des lois et modèles de la physique, sur la base d’exemples tels que la chute des corps, l’atome, le climat.
Après cette ouverture par la physique, la seconde partie de l’ouvrage aborde la construction et l’emploi de modèles de simulation informatique de sociétés virtuelles visant à étudier les sociétés réelles. Jensen y présente successivement des modèles classiques de la littérature scientifique cherchant à rendre compte de manière simple de la réalité sociale (ségrégation raciale, dynamiques électorales, compétition économique), d’autres modèles se proposant d’étudier des systèmes moins complexes mais exploitant de nombreuses données empiriques (la ola dans un stade, la construction d’un nid par des fourmis, le déplacement des piétons), et enfin des modèles plus réalistes de sociétés virtuelles pour décrire des phénomènes complexes comme les dynamiques scolaires d’enfants, la propagation des épidémies, l’évolution du marché du travail. Avec ces exemples, Jensen fait le constat que les modèles sociaux ont du mal à être fiables, car basés sur la modélisation d’individus qui s’avèrent trop instables, imprédictibles, complexes, réflexifs, contrairement aux atomes de la physique. Cela n’interdit pas que ces modèles sociaux puissent être utiles, car ils permettent de rassembler des connaissances sur un domaine, donnent à voir la complexité des problèmes considérés et peuvent aider à écarter des solutions simplistes, mais il faut avoir conscience des limites intrinsèques à la construction de telles sociétés virtuelles.
Après les modèles, les statistiques. Jensen aborde dans les chapitres de la troisième partie l’analyse de la société par les méthodes quantitatives exploitant des données réelles, à la recherche « d’explications », de « lois sociales » toujours sur le modèle de la physique, pour expliquer les phénomènes sociaux comme « l’action d’une même cause qui domine les individus et qui leur survit » (Durkheim). L’auteur rappelle que la méthodologie scientifique classique hypothético-déductive ne peut s’appliquer directement aux sciences sociales : « Le caractère foncièrement unique de chaque situation sociale et l’impossibilité de mener à bien des expériences contrôlées font qu’il n’est pas possible de tester rigoureusement les différentes hypothèses » (p. 201). Toutefois, les méthodes statistiques offrent des outils largement utilisés dans des démarches d’analyse quantitative de la société qui permettent de chercher des régularités dans des données, en identifiant et en quantifiant les causes multiples. L’auteur souligne néanmoins qu’elles rencontrent des difficultés spécifiques en sciences sociales du fait de la multiplicité des causes agissant diversement dans chaque contexte (non observées ou renseignées dans l’étude), des effets non linéaires (dépendants du contexte, difficiles à bien prendre en compte et pourtant toujours présents), et enfin de l’hétérogénéité des cas observés (courante en sciences sociales). Il défend alors de manière convaincante l’intérêt de méthodes alternatives d’analyse de données, par exemple l’analyse qualitative comparée (AQC) introduite par Charles Ragin1, basées préférentiellement sur les cas, plutôt que sur les variables prises isolément avec les méthodes de régression, qui supposent de plus une certaine homogénéité de l’espace des données.
Ainsi, Jensen soutient qu’il ne faut pas renoncer à la recherche d’explications sociales, qui restent toujours nécessaires pour pouvoir mieux guider l’action publique, à la condition de repenser cette notion d’explication. Il mobilise alors Latour (et indirectement Dewey) et sa vision de l’explication en termes de liens dont la pertinence est à juger dans ce qu’ils apportent dans l’action, depuis les entités ainsi connectées. C’est dans ce cadre que Jensen inscrit ses travaux récents sur l’analyse bibliométrique de la production scientifique des institutions de recherche, dans une approche de big data qui vise non pas à prédire ou à expliquer, mais à explorer la complexité du monde des chercheurs, avec et pour eux et les dirigeants de leurs organismes. En effet, des statistiques au traitement des big data, le chemin est direct et Jensen en donne ici sa vision, assez négative là encore. Sur la base de quelques exemples (les retweets, les publicités dirigées, le chômage), il explique qu’il croit peu à la capacité des big data à apporter de nouvelles connaissances scientifiques originales sur nos sociétés et nos comportements. Mais il reconnaît que le rôle d’intermédiation des plateformes du web, sources de big data, bouleverse bel et bien nos sociétés, dans une dynamique qui s’apparente au développement au XIXe siècle des statistiques au service des administrations des États pour mieux gouverner leurs habitants, « aujourd’hui toutefois au niveau mondial, et sous contrôle privé ».
Jensen termine ce tour d’horizon critique des approches quantitatives en sciences sociales en abordant dans la 4e partie l’élaboration et le suivi d’indicateurs dont beaucoup se veulent objectifs pour décrire et piloter des systèmes sociaux complexes. Sur la base d’exemples toujours riches et variés (la répartition des commerces à Lyon, le transport de la chaleur et la température ressentie, la rentabilité du projet d’aéroport à Notre-Dame-des-Landes, le classement de Shanghai des universités, les indices de productivité scientifique), Jensen décrit les indicateurs comme une « quantification d’un phénomène complexe en retenant du réel certains aspects jugés pertinents ». Il rappelle leur origine – au XXe siècle aux États-Unis – dans la méfiance du public envers les experts et dans la quête d’objectivité avec, comme en physique pour la température, la recherche d’un nombre « qui ne dépend ni du chercheur qui mesure ni d’un choix arbitraire de la substance utilisée pour construire le thermomètre ». L’emploi de ces indicateurs s’est alors généralisé avec la standardisation massive des biens et services au sein du commerce mondial et le développement des technologies, en particulier aujourd’hui avec le numérique.
Le propos de Jensen est ici de montrer les obstacles intrinsèques à la définition d’indicateurs objectifs de concepts globaux tels le bonheur ou la richesse (le PIB de Kuznets) et les nécessaires interrogations soulevées par l’emploi d’indicateurs qui se veulent de plus en plus rigoureux, et qui pourtant ne pourront jamais remplacer à l’échelle individuelle l’expérience directe de la réalité. Quantifier, ce n’est pas neutre, cela reflète tout d’abord le choix d’une norme, d’une convention. La mesure, plus ou moins précise, juste, vient ensuite. Pour Jensen, les indicateurs permettent surtout une déresponsabilisation… des responsables, via leur pseudo-objectivité. Mais il reconnaît qu’ils sont néanmoins utiles dans leur capacité à suivre les effets des actions entreprises, à résumer des situations sociales complexes pour mieux les appréhender, les comparer, à la condition que leurs définitions soient ouvertes, vérifiables, critiquables et que la société soit éduquée, encouragée et aidée à développer cette culture de la contre-expertise. Et Jensen d’encourager finalement à ne pas se limiter à critiquer leurs définitions, mais à aller au-delà et à étudier l’impact de leur utilisation dans l’action publique sur l’évolution de nos sociétés en acceptant l’idée qu’ils peuvent jouer un rôle de « faitiche » comme le propose Latour.
Quelle vision du social ? C’est le titre donné par Jensen à la dernière partie de l’ouvrage, dans laquelle il tente d’apporter des éléments de synthèse et de conclusion à l’ensemble des critiques qu’il a jusqu’alors formulées à l’encontre de la modélisation quantitative du monde social. Ces chapitres sont importants, car Jensen y précise les sources et les courants de pensée qui ont orienté sa démarche, son cheminement, permettant ainsi au lecteur de stabiliser sa compréhension du message délivré.
Jensen s’appuie donc sur Dewey, Simon, Latour, Simondon, Jullien, pour dire qu’il n’y a pas nécessairement d’explication globale, que les sociétés virtuelles ne permettent pas toujours de faire émerger les faits sociaux, et que des indicateurs, des relations stables, peuvent toutefois nous aider à réfléchir et à agir via nos propres expériences. Et cela parce que ni l’approche mécaniste de la physique sociale, de l’économie, des systèmes complexes, mettant les interactions et les comportements individuels au cœur de toute explication du global, ni l’approche structuraliste de la sociologie, donnant primauté au fait social et renvoyant à des lois globales toute explication des dynamiques locales, ne sont satisfaisantes. Pour l’auteur, face aux limites de ces deux approches, il serait nécessaire d’adopter un point de vue alternatif, où les interactions ne résultent pas de la présence d’entités définies a priori, mais constituent ces entités, comme avec le concept de monade, repris par Latour, en cohérence avec le concept d’individuation au sens où l’entend Simondon. Il esquisse alors ce que pourrait être un nouveau cadre conceptuel de la modélisation des transformations globales, plus en accord avec la tradition chinoise et la lecture philosophique du Yi King qu’en fait Jullien.
Certains lecteurs de NSS trouveront peut-être dans cet ouvrage trop de physique, de modélisation, de big data. Mais s’ils dépassent cet obstacle, ils pourront apprécier toute l’originalité de ce témoignage, expression d’un physicien curieux s’étant ouvert aux systèmes complexes et aux sciences sociales, et qui après ce cheminement au sein de multiples disciplines tente d’apporter des justifications et des réponses au constat qu’il fait d’un « affaiblissement de l’ambition modélisatrice face à la résistance du social ».
Frédérick Garcia
(Inra, UR875 MIAT, Toulouse, France)
frederick.garcia@inra.fr
Faire et dire l’évaluation. L’enseignement supérieur et la recherche conquis par la performance
Christine Barats, Julie Bouchard, Arielle Haakenstad (Eds)
Presses des mines, 2018, 326 p.
Ordonner les universités : une affaire classée ?
La question de l’évaluation de la recherche et des universités est au cœur des discussions et des débats publics depuis une quinzaine d’années, particulièrement en Europe. Les transformations radicales dans le mode de gestion des universités dans plusieurs pays européens depuis le début du XXIe siècle ont aussi eu pour effet positif d’amener un nombre croissant de chercheurs en sciences humaines et sociales à scruter ce phénomène qui les affectait au premier chef.
L’ouvrage collectif Faire et dire l’évaluation, coordonné par Christine Barats (sciences de l’information et de la communication, Université Paris-Descartes), Julie Bouchard (sciences de l’information et de la communication, Université Paris-13) et Arielle Haakenstad (Université Paris-2-Panthéon-Assas) auquel ont contribué dix-huit personnes, comporte treize chapitres précédés d’une introduction générale et d’une postface qui récapitulent les principales conclusions des auteurs. Tout en offrant des études originales sur les divers mécanismes d’évaluation de l’enseignement supérieur et de la recherche mis en place dans différents pays européens (France, Allemagne, Belgique, Italie, Pays-Bas et Royaume-Uni, mais avec un chapitre sur la Chine), l’ouvrage constitue une excellente synthèse des principales conclusions auxquelles sont parvenues les nombreuses études consacrées à mieux comprendre « les mutations de l’évaluation dans l’espace académique des années 1980 jusqu’à nos jours », mutations que les différents auteurs replacent dans leurs « contextes nationaux et institutionnels » (p. 11). Les lecteurs peu au fait de la manière dont l’évaluation de la recherche s’est imposée dans la plupart des pays européens, des effets et des résistances que cela a entraînés, feront bien de consulter ce livre qui, je crois, servira longtemps de référence en langue française, grâce aussi à sa bibliographie de trente pages qui recense de manière très complète les nombreux travaux publiés sur le sujet depuis les années 2000.
Il est aujourd’hui généralement admis que ce n’est qu’à compter des années 1980, marquées par la montée du néolibéralisme économique, que le monde de l’enseignement supérieur et de la recherche se voit progressivement « conquis par la performance » comme l’indique le sous-titre de l’ouvrage. Cette exigence de « performance » est véhiculée par ce qu’il est convenu d’appeler le nouveau management public (New Public Management en anglais), défini de manière assez consensuelle comme « l’utilisation accrue de techniques managériales […] empruntées au secteur privé par le secteur public (santé, justice, éducation, culture…) » (p. 27-28). Ces techniques de mesure et de contrôle sont en phase avec les discours sur « l’excellence », « l’évaluation », la « reddition de compte », le « benchmarking » et autres buzz words qui se sont multipliés au sein des universités, sommées par leurs gouvernements de rendre des comptes en mettant en place des « tableaux de bord » dont les « lumières » vertes et rouges sont alimentées par une batterie d’indicateurs de « performance ».
La forme institutionnelle que prend la mise en place de ces mesures de contrôle et d’évaluation, tout comme les détails des relations entre l’État et les institutions d’enseignement supérieur, varie bien sûr selon les pays. Différents chapitres présentent donc la manière dont les mécanismes d’évaluation se sont structurés en tenant compte du contexte local. Ainsi, un pays centralisé comme la France a pu mettre en place d’abord un Comité national d’évaluation (CNE) en 1984, remplacé en 2006 par l’Agence d’évaluation de la recherche et de l’enseignement supérieur (Aeres) – qui couvre l’ensemble des activités de recherche et non plus seulement les universités comme c’était le cas du CNE –, elle-même devenue Haut conseil (HCERES) en 2013. L’Allemagne, par contre, en raison de sa structure fédérale, a des universités qui relèvent de landers et l’État central doit en tenir compte pour éviter les débats constitutionnels. Cela explique que la loi fédérale de 1998, qui vise à instituer des évaluations, stipule seulement que les universités doivent mettre en place un processus d’évaluation (p. 31). En Belgique, où la pression idéologique en faveur de l’évaluation s’est fait jour en 1988, au moment où le pays a organisé un transfert de compétences du niveau national vers les régions et les communautés, la situation diffère encore (p. 59). Les communautés flamande et wallone voient alors leur système d’enseignement supérieur et de recherche diverger, la première optant pour une conception plus formelle et quantitative de l’évaluation que la seconde (p. 61). Aux Pays-Bas, en 1985, c’est plutôt l’Association des universités néerlandaises qui prendra en charge l’évaluation de la qualité.
Évaluer la « qualité », « l’impact » ou l’« excellence » de la recherche n’a rien d’évident. Les débats allemands sur l’initiative d’excellence (étudiés au chapitre 2) visant à sélectionner une élite des meilleures universités pour y concentrer les ressources montrent bien comment cela accentue les inégalités, génère des tensions et remet en cause une conception des universités comme lieux de formation accessibles, s’opposant aux grandes universités américaines (Ivy League2) où les frais annuels de scolarité dépassent le salaire moyen des Américains (p. 52). Cette rhétorique de l’excellence est inattaquable – car qui oserait se dire contre ? – mais demeure en fait une tautologie. Comment en effet mesurer l’excellence ? Un organisme pourrait en effet affirmer que son taux de succès est de 60 % car les comités ont considéré que tous les projets retenus étaient « excellents ». Cela est d’ailleurs le cas au Canada : au Conseil de recherches en sciences naturelles et en génie (CRSNG), le taux de succès des trois dernières années au concours « subvention à la découverte » varie entre 65 et 75 %. Rien dans ces décisions n’est fondé sur une mesure objective, mais plutôt sur un choix politique incarné dans un chiffre magique : 10 ou 15 % d’un côté et 50 ou 70 % de l’autre. Le premier reflète le choix discutable qu’il est impossible qu’une majorité des projets valent la peine d’être appuyés financièrement.
Toutes les évaluations doivent bien sûr s’appuyer sur des indicateurs censés mesurer la productivité de la recherche. Ce sont donc les publications qui sont à la base de tous les systèmes de mesure et la question de leur qualité est rapidement apparue et, avec elle, celle des revues qui les publient. Mesurer les citations réellement obtenues par les articles nécessitant d’attendre quelques années – au moins deux en sciences de la nature et au moins cinq en sciences sociales et humaines –, une solution facile a consisté à se fier directement aux revues, même s’il est évident que la variance au sein d’une revue est très grande et suit, en gros, une distribution de Pareto du genre 20/80 (20 % des articles d’une revue recevant 80 % des citations). C’est ainsi que le facteur d’impact des revues est devenu un indicateur de la qualité des articles. Mais comme les revues de sciences sociales et humaines sont très mal couvertes par les bases de données bibliométriques qui calculent ces facteurs d’impact, la solution a consisté à créer des classements complémentaires, en nommant (par des procédés peu transparents) des comités « d’experts » chargés de définir la qualité de centaines de revues en leur donnant des notes ou des chiffres. Ce système adopté en 2008 par l’Aeres, sous la pression des critiques, a été ensuite remplacé – sauf pour la très néolibérale « discipline économique » – par une liste définissant simplement un « périmètre de scientificité » défini, en gros, par l’existence d’un comité de lecture. L’Australie, toujours en 2008, a adopté un classement des revues, lui aussi critiqué (p. 139). La Norvège, quant à elle, a adopté un système de classification des revues (p. 140) plus complet tenant compte de la production de livres, mode de diffusion encore central en sciences humaines et sociales. La prise en compte de livres et de chapitres d’ouvrages collectifs soulève de nouvelles questions : comment comparer un article et une monographie ? La réponse est bien sûr le plus souvent arbitraire et on dira que quatre ou cinq articles valent une monographie. Mais il faudra alors aussi créer une liste de maisons d’éditions pour définir leur qualité ! Et le processus repart en vrille… Le chapitre sept, consacré au classement des revues en SHS, analyse en détail cette énorme quantité de travail de construction et de mobilisation d’un grand nombre de personnes pour créer et mettre à jour ces listes et ces classements de revues devant ensuite servir à l’évaluation des chercheurs.
Les revues, une fois classées, peuvent servir d’unité comptable pour établir des primes ou fixer des seuils d’admissibilité à des concours. En Chine, par exemple, des écoles de commerce offrent une prime de 40 000 RMB pour un article dans une revue dite de « rang 1 » et 12 000 pour une revue de « rang 2 », alors que le salaire mensuel de base n’est que de 10 000 RMB (p. 127). Il est d’ailleurs connu que ce genre de prime existe aussi dans des écoles de commerce en France. La forme la plus extrême d’évaluation quantitative est probablement celle imposée en Italie. Créée en 2006, l’Agence nationale d’évaluation du système universitaire et de la recherche (ANVUR) a défini des normes quantitatives strictes de productivité scientifique pour la qualification nationale des enseignants-chercheurs (p. 85). Aussi incroyable et, en fait, aussi stupide que cela puisse paraître, l’indicateur de base qui permet de déterminer si une personne peut se qualifier pour un poste est la médiane des publications de tous les enseignants-chercheurs : seules les personnes dont la production est au-dessus de la médiane peuvent soumettre un dossier ! Aucune mesure de qualité, seul le nombre décide de tout ! Face au tollé, la médiane a simplement été remplacée par une « valeur seuil » définie par l’ANVUR, mais cela demeure une mesure simpliste et unidimensionnelle (p. 86).
Les effets pervers de tous ces systèmes d’évaluation sont multiples. Le plus ancien système de mesure, le Research Assessment Exercise (RAE), établi dans la Grande-Bretagne néolibérale de Margaret Thatcher en 1986, devenu le Research Excellence Framework (REF) au début des années 2010, a fait émerger la notion douteuse de « chercheur inactif », qui deviendra en France « chercheur non publiant ». De manière à maximiser leur position dans le classement REF, les universités peuvent choisir de ne pas inclure tous leurs chercheurs dans l’évaluation, créant ainsi une classe d’exclus. Le chapitre 6, consacré à « la population inactive de l’université », met en évidence la curieuse croissance au fil des cycles d’évaluation des « inactifs » dans les plus grandes universités. Ainsi, la célèbre université d’Oxford n’a inclus en 2014 qu’une minorité (38 %) de son effectif académique dans l’évaluation tout comme l’écrasante majorité (84 %) des autres institutions (p. 107, p. 109). Dans le cas français, l’usage du mot « non publiant » est en un sens encore plus pervers car le terme ne signifie pas vraiment que ces personnes ne publient pas, mais plutôt qu’elles ne publient pas dans les revues considérées comme « de qualité » par l’organisme d’évaluation. Le plus curieux ici est bien sûr que des chercheurs utilisent eux-mêmes de telles expressions bureaucratiques sans vraiment sembler saisir qu’ils contribuent ainsi à faire exister une catégorie douteuse.
On devine que si l’évaluation de la recherche est difficile, discutable et coûteuse en ressources humaines et monétaires, celle des formations académiques est encore plus redoutable comme le montrent les chapitres 10 et 11 consacrés à cette question. On comprend dès lors la tendance à simplement se fier aux divers classements des universités, dont la multiplication depuis la fin des années 1990 est analysée au chapitre 12. L’impact tout particulier en Europe du fameux « classement de Shanghai » utilisé depuis 2003 justifie d’ailleurs amplement que le chapitre 13 soit totalement consacré au contexte de sa création et de sa réception.
Il est impossible de commenter ici plus en détail la richesse des analyses réunies dans cet ouvrage et je conclurai en soulevant quelques questions pour les recherches à venir. Devant de telles usines à classer on reste en effet surpris que les auteurs n’aient pas tenté d’évaluer les coûts économiques (incluant les coûts d’opportunité) de toutes ces opérations censées être essentielles pour assurer la qualité renouvelée de la recherche dans ces pays. Après tout, il semble tout à fait logique d’appliquer l’évaluation « coût-bénéfices » aux promoteurs de l’évaluation. Vu de l’Amérique du Nord, il est également frappant de constater que l’obsession des dirigeants d’universités pour le classement de Shanghai est essentiellement européenne, alors même que ces dirigeants se disent fascinés par les universités américaines. Alors que les journaux européens en parlent abondamment (p. 280), on peine à trouver plus de dix articles sur le sujet dans les journaux américains depuis 2004. Je pense aussi qu’une attention plus marquée devrait être portée au rôle de l’Europe dans toutes ces transformations (p. 79). Il apparaît assez évident que l’idéologie du nouveau management public qui va de pair avec une conception purement managériale et néolibérale de l’éducation est d’abord et avant tout portée par le projet européen qui cherche à reconfigurer les systèmes de la recherche des pays membres pour les rendre homogènes et au service des seuls besoins du marché. Enfin, étant donné que l’on entend encore des dirigeants d’universités en France répéter qu’il faut « prendre les classements au sérieux » alors même qu’il est prouvé que ces instruments sont mal construits, qu’ils influencent très peu les étudiants et leurs parents (p. 287), et n’excitent en fait que les dirigeants eux-mêmes – réunis dans les chambres d’écho formées par les associations d’universités et autres groupes autoproclamés d’accréditation de la qualité –, il faudrait étudier de plus près les types de personnes qui, parvenus à des postes de direction, semblent perdre tout esprit critique et engagent l’avenir de leurs institutions sur la base de mesures coûteuses, douteuses et le plus souvent techniquement invalides.
Yves Gingras
(Université du Québec à Montréal [UQAM]), Centre interuniversitaire de recherche sur la science et la technologie [CIRST], Montréal, Québec, Canada)
Gingras.yves@uqam.ca
La mondialisation des pauvres. Loin de Wall Street et de Davos
Armelle Choplin, Olivier Pliez
Éditions du Seuil, 2018, 108 p.
La mondialisation des pauvres est un titre provoquant, car s’il est coutume d’accuser l’interconnexion du monde et la multiplication des échanges d’avoir aggravé les inégalités, il est bien moins courant de s’intéresser à la face la moins rutilante de ce processus. Pour autant, ce livre fait un pari réussi, celui de ne pas traiter des « perdants » de la mondialisation, se fondant sur l’hypothèse que tous les habitants de la planète, pris dans la toile d’interconnexions croissantes qu’ils ne font pas que subir, « agissent » à leur façon ces phénomènes. Il s’agit bien d’un ouvrage « à thèse », montrant d’abord que personne ne peut être considéré comme tout à fait passif dans un tableau socioéconomique du monde actuel et que les stratégies mises en œuvre par les plus pauvres ne se résument pas à des positions de repli, notamment géographique. Loin de l’idée d’opposer gagnants et perdants de la mondialisation, Armelle Choplin (Université Paris-Est Marne-la-Vallée) et Olivier Pliez (CNRS) construisent leur propos à partir de l’analyse des réseaux qui mondialisent « les plus pauvres ».
Pour comprendre de qui il s’agit quand on parle ici des « pauvres », il faut s’intéresser au sous-titre de l’opus : « Loin de Wall Street et de Davos » : ce n’est pas à l’échelle individuelle que la pauvreté est saisie. Les auteurs construisent une analyse géographique visant à retourner les représentations que l’on peut avoir depuis le monde occidental et proposent de saisir la planète du point de vue de ceux qui habitent aujourd’hui les espaces les plus “discrets” du monde global. Loin des hyper-lieux concentrant les regards et les investissements, ce ne sont pas pour autant des lieux oubliés des flux mondiaux, mais des parties du monde qui font peu parler d’elles, ce qui ne veut pas dire qu’elles ne comptent pas et que les Nords ne sont pas impactés par ce qui s’y produit. La définition initiale de la pauvreté utilisée par les auteurs de l’ouvrage n’est pas simple, et l’introduction de cet opus se base sur des statistiques (dont le choix demanderait à être plus discuté qu’il ne l’est dans ce chapitre liminaire) à l’échelle nationale, lesquelles permettent d’opposer des pays riches et des pays pauvres, notamment en termes d’accès à la consommation, critère de définition d’un « horizon mondialisé ».
De façon originale, l’ouvrage se départit d’emblée de la volonté de repérer dans ces « espaces interstitiels » des mécanismes d’innovation qui permettraient de retourner le stigmate de la pauvreté, selon un raisonnement traditionnel en économie sur l’effet de ruissellement. En l’occurrence, après quelques pages d’ouvertures assez classiques sur les déséquilibres macroéconomiques globaux, A. Choplin et O. Pliez offrent ici une possibilité de retournement du regard, « une géographie désoccidentalisée [qui] s’écrit en pointillé, entre des lieux connectés par des routes qui forment un espace réticulaire, et bat en brèche les délimitations et grands ensembles d’hier » (p. 27). Leur proposition est en effet de s’intéresser à des circulations entre les Suds, que nous ne connaissons pas, et dont la découverte nous amène à penser très différemment ce qui fait la mondialisation aujourd’hui, liant par exemple les souks nord-africains, Dubaï et les régions chinoises de provenance et de commercialisation des produits manufacturés, notamment pour l’aménagement des maisons, ou les routes des sacs de ciment en Afrique subsaharienne.
La force de l’ouvrage est de fonder ce raisonnement sur une pratique ethnographique des terrains, dont la richesse, liée à une fréquentation personnelle sur plusieurs années, permet un tableau très nuancé et vivant de ces routes commerciales et financières, comme des réseaux interpersonnels qui s’y déploient. Les auteurs se défendent aussi de mettre en avant une volonté de transformer tout individu en micro-entrepreneur, préférant une approche géographique qui met en lien « la frontière, le carrefour, la place marchande, la gare routière, l’entrepôt, la villa, l’immeuble », comme autant de lieux qui façonnent des « routes globales » et des « réseaux transnationaux » dont le dynamisme explique la production de ressources dans des territoires qui échappent jusqu’ici au fonctionnement des modèles économiques occidentaux. Cette analyse multiscalaire met en évidence la force des liens interpersonnels, mais aussi les capacités à repousser les frontières culturelles, comme l’illustre le développement de Yiwu, à deux heures au sud de Shanghai, devenue ville « hub pour les marchés de gros en biens de consommation » grâce notamment à la pénétration massive, depuis vingt ans, de commerçants arabes en provenance de Dubaï et d’Afrique du Nord.
Après une courte introduction, intitulée « La géographie discrète de la mondialisation », la première partie tente de construire une proposition théorique pour aborder ces aspects peu visibles de l’interconnexion économique, sociale et culturelle de la planète, avec un titre en forme d’oxymore : « Une mondialisation (pas si) discrète ». L’ouvrage court, dans le style de la collection développée par la République des idées qui vise à mettre à disposition du plus grand nombre des matériaux originaux de recherche, déploie ensuite deux chapitres empiriques, l’un consacré « aux espaces mondialisés en Méditerranée », l’autre aux « Mondialisations africaines ». Ce que ces deux titres ne disent pas, c’est que le continent africain et les espaces du Golfe se trouvent de fait présentés dans leurs liens forts avec l’Asie, la Chine notamment, mais aussi l’Europe. Les territoires américains sont les grands absents de ce travail, même si certains commerçants libanais disent avoir vécu en Amérique latine, par exemple, avec des contacts notamment sur la triple frontière Brésil/Paraguay/Argentine.
On sent bien dans cette construction que ces deux développements font écho aux spécialités respectives des deux auteurs : l’Afrique du Nord et le golfe Arabo-Persique pour O. Pliez, l’Afrique subsaharienne pour A. Choplin. Avec le premier, on part d’abord à la découverte du « Souk Dubaï » à El Oued, dans le Sud algérien, puis en remontant les filières commerciales, vers la frontière Libye-Égypte. C’est un jeu de piste ancré dans la matérialité de produits qui y ont longtemps été importés depuis Dubaï et les Émirats, mais que les « acheteurs » vont désormais commander directement en Chine. Au cours de ces trajets, certaines frontières franchies en contrebande, d’autres officiellement, témoignent de la caducité de la binarité entre commerce formel et informel. Cette mondialisation, en revanche, met en évidence une négociation constante avec les normes.
On retrouve dans la partie suivante, sous la plume de A. Choplin, le même ancrage matérialiste dans le suivi des « tribulations d’un sac de ciment » ou le portrait des circulations du « parpaing, lingot du pauvre », dans toute l’Afrique de l’Ouest, et notamment sur les routes Dakar/Bamako. Là encore, le facteur humain est essentiel, car ces trajets sont l’expression de combinaisons entre « stratégies familiales et opportunités commerciales du moment » où les femmes jouent une place importante. Derrière ce qui pourrait relever parfois de l’anecdote, on trouve des explications convaincantes pour comprendre certains aspects des transformations rapides des continents concernés, notamment des approches inédites de l’urbanisation africaine et la présentation d’une géographie d’infrastructures mal connues, zones portuaires et aéroportuaires installées là où ne les attend pas quand on n’y voyage pas : l’aéroport de Casablanca comme hub, le port de Tripoli.
Ces découvertes originales qui justifient la lecture de l’ouvrage ne cachent pas quelques déceptions, sur sa structure notamment : on peut regretter la juxtaposition de ces deux grands cas d’études sans justification méthodologique de l’apport d’une telle approche comparative. La rapidité de l’exposé nous prive également du récit par les auteurs des conditions de récolte de ces informations. Le format condensé de la collection ne justifie pas complètement non plus une conclusion rapide, qui certes revient sur les échelles de cette mondialisation qui met en réseau « points d’ancrage » inédits et voies de circulation, mais ne tient pas toute la promesse du titre. On peut aussi penser que la première partie du livre, écrite à quatre mains, manque parfois de fluidité : il ne s’agit pas seulement d’une question de style, mais de construction. Les auteurs y justifient leur approche par un état de l’art liant pauvreté, interconnexion commerciale et archipel mondialisé planétaire, mais ne vont sans doute pas assez loin dans leur proposition initiale consistant à déconstruire notre représentation commune selon laquelle l’Occident serait maître de la mondialisation. Les personnes dont il est question au cours de ces pages ne sont « pauvres » qu’aux yeux de ceux qui ne les connaissent pas et ce n’est pas vraiment l’objet du livre que de questionner et de définir la pauvreté dans la mondialisation. Ce sont des individus vivant dans des espaces où l’accès aux ressources globales se négocie selon des modalités que nous ignorons, et sur lesquelles l’ouvrage a le grand mérite de nous ouvrir les yeux, dans une invitation au voyage dans des lieux ignorés des circuits touristiques. D’une certaine manière, il importe peu que La mondialisation des pauvres soit aussi ramassé puisqu’il s’agit avant tout, comme son titre l’indique, d’un livre programmatique : comme le soulignent A. Choplin et O. Pliez, nous ne pouvons plus faire semblant de comprendre la mondialisation d’un point de vue nombriliste !
Anne-Laure Amilhat Szary
(Université Grenoble Alpes, UMR5194 Pacte, 38000 Grenoble, France)
Anne-Laure.Amilhat@univ-grenoble-alpes.fr
Le syndrome de l’autruche. Pourquoi notre cerveau veut ignorer le changement climatique
George Marshall
Actes Sud/Colibris, 2017, 405 p.
L’auteur de l’ouvrage Le syndrome de l’autruche, le Britannique George Marshall, a servi sous plusieurs casquettes. Il a été militant pour la Rainforest Foundation et pour Greenpeace. Plus récemment, en 2004, il a fondé le Climate Outreach Information Network à Oxford, une organisation spécialisée dans la communication sur le changement climatique qui propose ses conseils à un large éventail de parties prenantes (ONG, gouvernements, entreprises). Climate Outreach a d’ailleurs participé à la rédaction d’un manuel de communication à l’usage des auteurs du sixième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Marshall a également écrit de manière ponctuelle pour plusieurs journaux (dont The Guardian, New Scientist et The Ecologist) et a publié Carbon detox3 en 2007, un guide qui propose différentes manières de se mobiliser pour le changement climatique au niveau individuel.
Son deuxième livre, Le syndrome de l’autruche4, a été publié en français en 2017 par Actes Sud dans la collection Domaine du possible qui sert de caisse de résonance aux solutions et aux initiatives cherchant à bâtir un futur plus durable. L’auteur s’intéresse aux multiples obstacles psychologiques qui freinent nos actions contre le changement climatique, une manière, selon lui, de ne pas faire de la mobilisation des intérêts climatosceptiques la seule raison de ce manque d’engagement. G. Marshall n’a pas conduit lui-même des recherches scientifiques originales sur la question, mais se base sur son expérience de militant écologique et sur ses nombreuses rencontres avec des personnalités de tous horizons (psychologues, climatosceptiques, scientifiques, écologistes, etc.). C’est donc un ouvrage destiné à un large public, pas nécessairement expert de la question climatique. Son format est original et propose 42 cahiers excédant rarement dix pages, ce qui permet de le lire sans obligatoirement suivre l’ordre de la table des matières.
La première partie propose une présentation des différents biais psychologiques qui nous poussent à ignorer la question du changement climatique, tout en ayant pourtant bien conscience de la menace. Pour G. Marshall, c’est en ouvrant la boîte noire de notre cerveau que nous prenons la mesure des difficultés que nous rencontrons à faire face à ce problème. Au fil de ses rencontres avec des experts, l’auteur introduit le lecteur aux différentes théories en psychologie cognitive et sociale qui aident à expliquer le déni climatique. Il développe en particulier les approches évolutionnistes qui distinguent entre le cerveau rationnel et le cerveau émotionnel et soutiennent que, si le cerveau rationnel est conscient de la menace climatique, le cerveau émotionnel, lui, fondamental pour passer de la pensée à l’action, ne se sent pas concerné par les messages souvent trop techniques et abstraits qu’il reçoit5. Il évoque également les codes sociaux, normes et valeurs qui poussent certaines communautés à rejeter la gravité du changement climatique et d’autres à la reconnaître. Aux États-Unis, par exemple, la ligne de fracture entre « convaincus » et « sceptiques » s’est progressivement superposée à celle opposant républicains et démocrates6. En Norvège et en République tchèque, activistes et chercheurs ont observé la persistance d’un silence socialement construit autour de la question du changement climatique, qui est devenue « tabou » dans le débat public. Pour la majorité des experts, la nature même du changement climatique (dite « pernicieuse »), en tant que menace « distante, abstraite et contestée » (p. 106), dont les coûts se matérialiseront sur le long terme, n’aide en rien notre cerveau à y faire face.
Dans la seconde partie, G. Marshall offre de nombreux exemples de campagnes de sensibilisation à la question climatique qui selon lui ne sont pas parvenues à mobiliser le public. L’omniprésence de la figure de l’ours polaire dans les manifestations des ONG environnementales en est un exemple, tant elle représente un symbole éloigné de nos préoccupations quotidiennes. Les campagnes qui cherchent à culpabiliser les citoyens en les mettant face à leurs responsabilités envers leurs propres enfants sont un second exemple. L’auteur critique également les campagnes qui, à l’inverse, débordent d’optimisme quant aux capacités de nos sociétés à enclencher la transition écologique, mais ne remettent pas en question le statu quo.
À de nombreuses reprises, l’auteur revient donc sur les nombreux processus « innés et intuitifs » (p. 164) qui nous poussent à « faire l’autruche » en refusant d’affronter un problème qui mérite pourtant qu’on s’y intéresse. Ce constat sert de tremplin à une proposition originale qui cherche à élargir l’éventail des histoires et des discours qui circulent sur le changement climatique, trop longtemps limités, d’après l’auteur, à des présentations austères alliant graphiques et statistiques complexes. Il conseille aux scientifiques de narrer leurs propres expériences et angoisses face au changement climatique afin de cultiver une certaine proximité avec le grand public et de gagner ainsi sa confiance. De manière plus générale, G. Marshall plaide pour une communication positive mettant en avant la coopération (plutôt que la concurrence) autour d’une cause commune pour « combler le fossé partisan » (p. 387) et présentant le changement climatique comme un cheminement spirituel.
À lire Marshall, et en particulier la première partie de son ouvrage, on serait tenté, en mettant l’accent sur nos biais psychologiques, à ne pas reconnaître les choix politiques qui nous ont mis sur la voie de l’inaction. Si la dimension psychologique du changement climatique ne doit pas être négligée, il ne faut pas pour autant écarter le projet politique qui, en premier lieu, est responsable de notre dépendance aux énergies fossiles et dont les défenseurs cherchent par tous les moyens à se maintenir au pouvoir7. De même, de nombreux chercheurs ont montré que la construction du changement climatique comme problème environnemental et global a contribué à sa dépolitisation, en minimisant les conflits autour des inégalités socioéconomiques entre pays du Nord et pays du Sud, ainsi qu’au sein de chaque État8. Marshall n’est pourtant pas naïf et expose des questions très pertinentes sur le cadrage du changement climatique en tant que problème de « gaz » (et non de société) et sur la lenteur et l’autoréférentialité des négociations internationales dont « […] “l’objectif n’est rien de moins que d’appeler à prendre des mesures audacieuses” afin de “jeter les bases” grâce à des “engagements solides” en vue d’une “feuille de route pour des négociations futures” » (p. 268). Il rappelle également que mettre l’accent sur la responsabilité individuelle (et non sur les structures de production et de prise de décision) correspond parfaitement à l’idéologie individualiste propre à la doctrine néolibérale. On peut donc regretter que l’auteur finisse par réduire la question de l’inaction climatique à une question de communication, laissant ainsi entendre qu’une narration « humanisée » suffirait à dépasser les nombreux blocages institutionnels et politiques qui sous-tendent ce manque d’engagement.
Le syndrome de l’autruche est un livre très agréable à lire, qui contient de nombreuses anecdotes fines et détaillées issues des multiples rencontres de l’auteur avec différents experts, activistes et citoyens. Toutefois, la validité de ses recommandations et leur capacité de fondamentalement transformer l’action climatique demandent à être confirmées.
Kari De Pryck
(Sciences Po Paris, CERI, Paris, France et Université de Genève, GSI, Genève, Suisse)
kari.depryck@sciencespo.fr
La Grande Transition de l’humanité. De Sapiens à Deus
Christine Afriat, Jacques Theys (Eds)
Fyp Éditions, 2018, 270 p.
La Grande Transition de l’humanité, dirigé par Christine Afriat et Jacques Theys (vice-présidente et vice-président de la Société française de prospective [SFP]), s’inscrit dans la mouvance des remises en cause du modèle de croissance de nos sociétés, confronté à des dynamiques de changement profond à l’œuvre dans tous les domaines : environnement, climat, processus de connaissances, démographie, alimentation, économie, ressources… Notre humanité, devenue « globale », risque-t-elle de devenir esclave de la technique, contrainte de plus en plus par les limites des ressources de la planète jusqu’à mettre fin au projet émancipateur de nos sociétés démocratiques ? La menace d’un « effondrement », déjà observable pour la biodiversité, donne lieu à une importante littérature autour du thème de l’Anthropocène9, que celui-ci soit traité sur le mode de la science-fiction, de l’utopie ou de la dystopie. La tendance collapsologue, avec le scénario pour l’Île-de-France 2050 de l’Institut Momentum10 ou le manuel de développement personnel de Pablo Servigne11, en donne quelques exemples.
La Grande Transition de l’humanité se distingue radicalement de cette littérature, au moins par sa méthode. L’ouvrage a été écrit à l’initiative de la SFP. Il présente les réflexions d’un groupe de personnes, hauts fonctionnaires et universitaires français, engagés depuis une quarantaine d’années dans des études de prospective. Leurs travaux reposent sur d’importantes enquêtes, des méthodes propres à la prospective, sur la revue Futuribles, sur des réseaux internationaux et ont été entamés bien avant que l’on parle d’Anthropocène. On doit à la SFP et à quelques précurseurs, comme Thierry Gaudin, des travaux solides comme, par exemple, 2100. Récit du prochain siècle12 publié en 1990 ou encore le rapport Agora 2020 de 200813.
Le propos des auteurs est de donner du sens à cette Grande Transition qu’ils voient riche de promesses et d’innovation, mais aussi source de conflits et d’oppositions. Il s’agit d’expliquer, de donner des outils pour éclairer ce qui dépasse nos capacités cognitives. L’originalité du livre est de ne pas aborder les différentes « crises » (démographique, technologique, écologique, politique, numérique…) à l’œuvre, mais leur articulation dans un même mouvement historique de long terme. Le lecteur trouvera dans l’ouvrage une analyse de cette transition, des rappels d’auteurs précurseurs, des scénarios de réponse et enfin quelques ébauches de solutions.
Cette Grande Transition en préparation présente quatre caractéristiques : 1) elle est à l’échelle de notre siècle, même si ses racines sont multiséculaires ; 2) elle est systémique et globale : toutes les activités humaines sont impliquées ; 3) son amplitude et sa radicalité vont transformer toutes les dimensions de la nature et de l’anthroposystème : économie, travail, société, politique, éducation, représentations du monde… ; 4) son actualité et son intensité renvoient à la responsabilité des décideurs envers les générations futures, et du fait de l’accélération des processus, leurs décisions auront des conséquences irréversibles.
L’ouvrage replace cette Grande Transition dans l’histoire de l’humanité qui a déjà connu de grands bouleversements se poursuivant sur des millénaires, puis sur des siècles, de la révolution néolithique à la révolution industrielle : passage à l’agriculture, à l’écriture, à la maîtrise des énergies, au capitalisme industriel, à la globalisation et la prise de contrôle du système Terre…
Ce passage a été annoncé et décrit par divers penseurs : Sorokin, Capra, Morin… L’Homo sapiens est passé au fil des millénaires du tryer au maker. Le nouveau stade devrait être celui du sharer. En 1966 déjà Kenneth Boulding décrivait deux types d’économie : la cow-boy economy (système ouvert aux ressources perçues comme infinies) et la spaceman economy (système fermé, aux ressources limitées, comme un vaisseau spatial, ce qu’est de fait la Terre)14. Fabienne Goux-Baudiment, elle, utilise la métaphore de la tectonique des plaques. Quand une plaque de croûte continentale, flottant sur le magma, passe sous une autre (phénomène dit de « subduction »), elle génère des « turbulences géologiques », des à-coups dans le mouvement, et donc des tremblements de terre qui libèrent les masses et de l’énergie. De même, notre monde évolue par saccades plus ou moins brutales quand on passe d’un « ancien monde » à un « nouveau monde », par exemple d’un monde 1.0 traditionnel, notre univers agro-industriel prédateur actuel, vers un monde 2.0, un univers déterminé par le numérique, les biotechnologies et nos choix caractérisés par la fin potentielle de la pénibilité et des inégalités, l’avènement de la bienveillance et de l’hédonisme, bref, le monde des sharers. La question qui cristallise les peurs est celle de l’émergence possible d’une conscience de l’intelligence artificielle, hors de tout contrôle humain et sans valeur éthique intrinsèque. Mais il faudra choisir : changer ou être changé. C’est cette période d’instabilité et de risques que nous vivons.
La Grande Transition peut alors se comprendre comme une combinaison du passage à une humanité globale plus riche, instruite, interconnectée, mais dépendante des marchés et prédatrice de son environnement, avec l’avènement d’une autre humanité où l’homme est imbriqué à la machine. Cet « avènement » est préfiguré par le transhumanisme et par cette nouvelle génération de jeunes, indissociables de leurs écrans, au cerveau adapté aux flux permanent d’informations. Il faut admettre l’évolution vers des sociétés plus immatérielles, de plus en plus détachées des institutions (patriarcat, gouvernements autoritaires centralisés), avec d’autres rapports à la propriété et au partage. Ces sociétés seraient plus pacifiques et plus responsables, et porteraient des revendications éthiques et des valeurs transcendantales. La place donnée aux relations humaines prendrait une nouvelle importance. Mais ce monde peine à émerger d’une période de fragmentation des composantes majeures du monde : autorité, famille, travail, solidarités traditionnelles…
Patrick Viveret résume cette Grande Transition par un joli jeu de mots : il s’agit à la fois d’un changement d’air (dû aux dérèglements climatiques), d’aire (un monde global, connecté, avec des territoires virtuels) et d’ère (nouvelle période historique ouverte par les technologies de l’information et du vivant). Cette nouvelle période de modification des cycles écologiques, du corps humain, des techno-pouvoirs et d’expansion du numérique sera singulièrement plus courte. Doit-on se réjouir de ce que les auteurs évaluent sa durée à 150 ans ? Nous en aurions déjà passé la moitié : il nous resterait donc 75 ans pour atteindre un nouvel état du monde ! La période de transition (jusqu’à la fin de ce siècle) est résumée par l’acronyme VUCA : volatiliy, uncertainty, complexity, ambiguity issu du langage militaire, puis transposé au monde politique, économique et social.
Mais avons-nous encore des degrés de liberté face aux dilemmes majeurs qui se posent déjà ? Dans ces débats, la prospective a une responsabilité essentielle : imaginer, évaluer et mettre en discussion des solutions pour s’orienter dans cette Grande Transition. Quelle serait une société écologique globale ? J. Theys propose plusieurs scénarios. Les scénarios de systèmes conventionnels que nous vivons actuellement, comme le réformisme inefficace dans lequel on peut ranger l’Accord de Paris sur le climat, fruit de la COP21. Puis, les scénarios de déclin accéléré de notre environnement avec notamment l’érosion de plus en plus rapide de la biodiversité et ses conséquences pour les sociétés via la perte d’une partie des services écosystémiques, et enfin, les scénarios de fragmentation des espaces (artificialisés versus protégés) et le risque associé de sécession des plus riches dans des territoires-forteresses. Dans ce dernier cas, il s’agit de la fin de la démocratie et un élément du passage à la barbarie. Enfin, on peut imaginer des utopies réalistes dont la version « locale » rejoint les situations imaginées par les collapsologues : mouvement des villes en transition de Rob Hopkins, Zad, permaculture, survivalisme, valorisation de la décroissance, de la frugalité heureuse et du buen vivir… On le voit, la réflexion prospective peut conduire au découragement, mais aussi à l’optimisme méthodologique comme celui de Positive Planet15 (Jacques Attali) ou celui de l’« économie bleue »16 (Gunter Pauli).
Pour que cette transition soit choisie et non subie, et que l’on se dirige donc avec optimisme vers le dernier scénario du monde éco-communautariste, les auteurs envisagent plusieurs solutions : 1) tout d’abord, la simplexité, l’art de rendre lisibles les choses complexes et les représentations du réel, par exemple, comme le propose Rémi Barré, en rompant l’accord passé entre le système scientifique et les forces dominantes ; 2) en développant ensuite l’empathie, l’attention à l’autre, pour contrer les intérêts égoïstes et créer une « société organique » de gestion des biens communs ; 3) en produisant enfin de nouveaux imaginaires du changement en repensant notre rapport au monde, ce qui, reconnaissent les auteurs, n’est pas l’apanage de la prospective. La tentation est grande de prêcher un retour à la spiritualité, fondement d’un nouveau pacte irénique entre les hommes et la nature.
Il faut souligner à quel point ce livre est salutaire et éclairant en temps d’incertitudes et de bouleversements. Sans minimiser les tensions et les points de blocage actuels et à venir, les auteurs cherchent des voies de passage réalistes vers un monde plus équitable, plus durable et surtout plus humain.
Restent deux questions en suspens. Selon les régions, la durée de cette transition et les réponses apportées par les sociétés seront différentes, car elles sont dépendantes de leur vulnérabilité aux dérèglements climatiques, de leur niveau de développement, mais aussi des cultures et des mentalités. Des solutions locales sont-elles susceptibles de répondre efficacement à un chaos global ?
Par ailleurs, le refus d’un déterminisme historique et l’engagement positif dans les changements doivent-ils conduire à arrêter de lutter contre l’inexorable pour libérer cette énergie à imaginer un autre monde ? La tentation est grande, devant l’imminence de la catastrophe, de renoncer à analyser les conflits, les inégalités et de s’opposer aux forces du techno-pouvoir. Il est sans doute plus facile de penser l’effondrement que la fin du capitalisme.
Catherine Aubertin
(IRD, UMR208 Paloc, Paris, France)
catherine.aubertin@ird.fr
Denis Lacroix
(Ifremer, Direction scientifique, Sète, France)
dlacroix@ifremer.fr
La propriété de la terre
Sarah Vanuxem
Wild Project, 2018, 103 p.
L’ouvrage de la juriste Sarah Vanuxem (Université Nice-Sophia-Antipolis) est tiré d’une communication faite au Collège de France en février 2017, à l’invitation de Philippe Descola. Il est publié chez Wildproject, maison d’édition dont on peut lire sur son site qu’elle a été créée il y a une dizaine d’années « pour acclimater en France les idées révolutionnaires de la philosophie de l’écologie » afin de « constituer un laboratoire du monde qui vient ». En proposant une relecture de la propriété « au soutien d’une politique écologique », c’est bien en effet un monde juridique à venir que S. Vanuxem nous invite à explorer. Pour dessiner ce monde nouveau, libéré de la conception occidentale moderne, elle va rechercher ses fondements dans l’histoire du droit. Elle opère pour ce faire une démonstration en trois temps, au cours des trois chapitres structurant son ouvrage. Dans le premier, « Trois formes de propriété considérées d’après leur lien à la terre », elle s’attache à déconstruire l’interprétation dominante du droit civil français pour démontrer dans le deuxième, « Trois visages de la nature aux origines de la tradition juridique civiliste », qu’une autre interprétation est possible, qu’elle développe enfin dans le troisième, « La propriété comme faculté d’habiter ».
Si la démarche, qui consiste à écologiser le droit civil français, a déjà été explorée, on peut dire que S. Vanuxem la pousse très loin, l’originalité de son travail résidant sans doute dans les correspondances qu’elle trouve entre les sources les plus anciennes du droit et les innovations juridiques les plus récentes de notre droit moderne, confronté aux enjeux écologiques. Et surtout, la juriste que je suis ne peut qu’être sensible à l’image du droit lui-même, et plus encore du raisonnement juridique, que sa réflexion offre à chacun. Très loin d’un système obscur et figé au service de la pensée dominante, le droit qu’elle nous montre est porté par ses « forces imaginantes » et par là même capable de nous aider à concevoir des rapports sociaux, incluant les non-humains, plus justes et plus démocratiques.
Formellement, La propriété de la terre débute avec la mise en exergue de trois textes juridiques. Le premier, qui ouvre le titre du Code civil français de la propriété, est assez connu et dispose depuis 1804 que « La propriété est le droit de jouir et disposer des choses de la manière la plus absolue, pourvu qu’on n’en fasse pas un usage prohibé par les lois ou par les règlements. » Les deux autres le sont un peu moins sans doute en ce qu’ils traitent des biens communaux. C’est le matériau principal de sa réflexion que l’autrice met ainsi en avant. À partir de ces articles un peu secs et qui pourraient rebuter un lecteur peu familier des textes juridiques, elle annonce sa volonté de « proposer une vision de la propriété qui fasse directement écho aux usages de la terre et qui réponde aux exigences écologiques actuelles ». Sa démarche consiste, simplement si l’on peut dire, à en proposer une nouvelle lecture, car elle estime « qu’il n’est pas nécessaire de mettre à bas notre droit pour aider à la transition écologique ». Il s’agit finalement de faire avec ce que l’on a déjà, en adaptant aux exigences du jour des matériaux anciens que l’on aurait pu croire périmés. Mais ce faisant, comme Philippe Descola nous en avertit dès la première de couverture, S. Vanuxem bouleverse la notion même de propriété. Dès la première phrase de la courte introduction, « S’approprier la terre », le ton est donné, le lecteur est invité à se rappeler le double sens pronominal du verbe « approprier », faire sien et s’adapter à, l’oubli du second en droit, ouvrant ainsi la voie aux actuels maux environnementaux.
Sans prétendre à l’exhaustivité, S. Vanuxem présente trois grandes façons de penser la propriété dans leurs liens à la terre : le système des propriétés simultanées, censément disparu à la Révolution française mais dont des exemples perdurent encore aujourd’hui, comme celui des marécages aménagés de la Dombes et ses droits d’assec et d’évolage ; la théorie classique de la propriété, élaborée après le Code civil de 1804, qui postule la supériorité de l’individu sur la nature mais aussi sur le groupe humain ; et la théorie renouvelée de la propriété développée à partir de 1980, qui en fait une pure abstraction, littéralement hors-sol, faisant de l’exclusivité l’essence même de la propriété, qui apparaît ainsi « tristement jalouse et solitaire ». Si la démonstration exige parfois des développements plus techniques, l’autrice fait montre de pédagogie, à l’aide de notes de bas de page explicatives et de passages récapitulatifs. Elle recourt également à des images parlantes pour illustrer son propos : « Là où le système des propriétés simultanées est de type rhizomique, la doctrine classique obéit au modèle arborescent, et la doctrine renouvelée offre le dispositif d’un porte-greffe. »
Ses critiques les plus sévères vont aux fondements théoriques de la conception renouvelée de la propriété, que l’on pourrait presque qualifier, à la lire, de malhonnêteté intellectuelle. Mais ses propos sont toujours très tenus, mesurés, et solidement argumentés. Sans qu’elle le formule expressément, le lecteur perçoit combien cette théorie renouvelée est proche d’une vision néolibérale du monde et de l’économie, tant ce propriétaire jaloux et désincarné, évoque l’homo economicus.
Avant de développer sa propre vision de la propriété comme faculté d’habiter, S. Vanuxem propose de repartir de l’appréhension juridique de la nature, à travers trois de ses visages aux origines de la tradition juridique civiliste. Ce retour aux origines, nécessaire car elle y fondera sa propre interprétation, peut être parfois plus difficile à suivre. Il faut dire que la démonstration n’est pas simple, qui consiste à revenir sur l’altérité juridique de la nature, pour montrer que, dans la conception juridique romaine, les choses et les personnes ne s’y distingueraient pas nettement les unes des autres. C’est donc bien la summa divisio entre choses et personnes, prétendument structurante de notre droit actuel, qui est ainsi mise de côté. S’appuyant notamment sur les travaux de l’historien du droit Yan Thomas, elle s’efforce de lire le droit romain « autrement qu’au prisme de la modernité », convoquant également Heidegger pour revenir à la signification originelle et juridique du mot chose, comme des lieux d’accueil. C’est à partir de là qu’elle se propose d’expérimenter la figure, originelle et originale, de la propriété comme faculté d’habiter.
Son raisonnement consiste au préalable à intégrer les limites apportées à l’usage des choses dans la définition même de la propriété. C’est ici l’apport majeur de sa réflexion, tant il s’agit là de mon point de vue, de la question fondamentale pour écologiser de l’intérieur le droit de propriété, et sur laquelle d’autres ont buté. Je pense notamment, dans un registre un peu différent, aux tentatives de reconnaissance d’une fonction sociale à la propriété. Pour ce faire, S. Vanuxem revient au droit romain, débarrassé de ses interprétations anachroniques, pour rappeler que toutes les choses y étaient incorporelles. La propriété, dans sa démonstration, porte alors sur des choses immatérielles ou dit autrement des droits (d’user, de jouir, de disposer). Elle en tire d’ailleurs un autre argument, que je trouve personnellement très fort, en s’appuyant cette fois-ci sur notre droit moderne de la propriété intellectuelle pour refuser à la propriété son caractère exclusif par nature. Car il est vrai que si l’on peut se représenter la propriété des choses matérielles comme procédant d’un « besoin » naturel, ancestral, d’enclore pour mettre les autres à distance, le droit de la propriété intellectuelle, quant à lui, est innervé par un principe de libre utilisation des conceptions intellectuelles, et l’exclusivité y est conçue comme une dérogation temporaire. L’argument porte d’autant plus qu’il fait écho, à travers les exemples donnés, au mouvement de dématérialisation de la biodiversité et du vivant. L’autrice cite à cet égard les services écosystémiques ou les ressources génétiques pour en justifier la non-appropriation. Plus précisément, deux manières d’être propriétaire se dessinent alors : d’un côté, la propriété (qui peut être individuelle) d’un droit ou d’un bien dans les choses, et de l’autre, la liberté de tous d’user et de séjourner dans les choses, sans titre, et en respectant les droits attribués.
Une autre proposition, qui me paraît reposer sur une argumentation particulièrement solide, a trait à la question de la propriété communale. S. Vanuxem propose de renouer avec une lecture littérale de l’article 542 du Code civil17 qui traite des biens communaux, avant que l’écran de la personne morale de la commune n’interfère entre la collectivité des habitants et leurs lieux de vie. Écarter l’écran de l’institution qu’est la commune rencontre à mon sens un écho particulier si on le rapporte à nombre d’initiatives locales où des citoyens manifestent leur souhait de gérer collectivement la « chose publique » ou plus modestement certains espaces.
Enfin, dans le monde juridique qu’elle redessine, l’autrice fait une place aux entités non humaines. Pour cela elle revient sur la solution qui connaît aujourd’hui un regain d’intérêt en France et à l’étranger, qui consiste à personnifier, dans le champ du droit, des éléments de l’environnement (animaux, fleuves, nature en elle-même, par exemple). Elle ne la retient pas, considérant que cette solution ne s’attaque pas au principe même de cette division, qui repose sur « la confrontation du libre vouloir et de l’objet ». Et surtout, écrit-elle à très juste titre à propos des choses de la nature, il s’agit ainsi de les coiffer « d’un nouveau masque qui bientôt les dissimulera », les condamnant à être « des entités au nom desquelles d’autres peuvent s’exprimer, mais avec lesquelles on pourrait, par avance, se refuser à communiquer. » Mettant l’accent sur la nécessité de penser en termes de relations entre humains et non-humains, elle revient à la notion de chose en droit romain qui, dans son acception la plus ancienne, signifie le procès ou l’affaire à débattre, pour glisser ensuite, de ce sens processuel, aux choses du droit des biens considérées comme des lieux où habiter, mais aussi où régler les affaires et les éventuels différends. On peut voir ici une correspondance avec les « centres d’intérêts » défendus par le juriste Gérard Farjat.
Pour conclure cet ouvrage, l’autrice convoque trois innovations juridiques issues de la loi française du 8 août 2016 pour la reconquête de la biodiversité, de la nature et des paysages (la réparation du préjudice écologique, l’obligation réelle environnementale et la compensation écologique), qui peuvent être expliquées dans les termes de la propriété-habitation et dans lesquelles elle décèle les traces d’un chemin vers un droit portant au-delà ou en deçà des sujets de droit. À dire vrai, la démonstration laisse un peu ici le lecteur sur sa faim, peut-être à cause du format court exigé par l’éditeur. Mais c’est peut-être là l’un des intérêts de ce petit ouvrage dense, écrit dans un style élégant, que de nous révéler une juriste formée à la philosophie, habitée par un désir profond d’authenticité et qui sait si bien parler à chacun du droit tel qu’il est ou tel qu’il pourrait être.
Isabelle Doussan
(Inra, UMR7321 Gredeg, Valbonne, France)
isabelle.doussan@inra.fr
The ecocentrists. A history of radical environmentalism
Keith Makoto Woodhouse
Columbia University Press, 2018, 372 p.
Comme trop de travaux publiés dans des maisons d’édition états-uniennes, ce livre est de prime abord agaçant. Agaçant, car son titre est extrêmement trompeur. Si cet ouvrage traite bien des écocentristes et de l’histoire de l’environnementalisme radical, il se concentre sur les écocentristes états-uniens et sur l’histoire de l’environnementalisme radical de l’association Earth First! Cela dit, ce livre n’en est pas moins extrêmement instructif.
Partant du constat selon lequel les historiens ont très peu étudié les écocentristes, leur accordant tout au plus quelques pages au terme desquelles ressort généralement l’image d’une minorité d’activistes dépourvus de réelle philosophie, l’auteur décide de livrer une histoire des modes de pensée et d’action de ces environnementalistes radicaux. Depuis la fin des années 1960, ces derniers, également appelés écocentristes, partagent l’idée selon laquelle « le monde naturel est en crise, la société moderne est responsable de cette crise, et les gens doivent alors changer leur comportement » (p. 1). Pour ce faire, non seulement le système de valeurs qui place l’homme au cœur de toute préoccupation sociale doit alors être remplacé par un système qui place les êtres humains et non-humains sur un pied d’égalité, mais l’action politique doit aussi être « directe », c’est-à-dire concrète et immédiate, et centrée sur la « wilderness ».
Cette pensée et les pratiques qui en découlent, explique Keith Makoto Woodhouse (historien, Northwestern University) dans un premier chapitre, trouve sa genèse dans le mouvement environnementaliste états-unien tel qu’il fut porté, depuis la fin du XIXe siècle, par le Sierra Club. Après un retour sur les fondateurs du club, comme John Muir, sur sa raison d’être, à savoir se focaliser sur la « wilderness », ses lieux iconiques, tels que la vallée de Yosemite, et ses contradictions (« protéger les parcs pour le peuple, et protéger les parcs du peuple » [p. 18]), l’auteur relate la rencontre, à la fin des années 1960, entre les revendications pour les droits civiques portées par des mouvements comme la « New Left » et celles pour l’écologie portées par des intellectuelles comme Rachel Carson. Si cette rencontre signe la conversion du mouvement « écologiste » en mouvement « environnementaliste », elle s’avère toutefois rapidement inégale. En effet, tandis que les partisans de la « New Left » adoptent une sensibilité environnementale sans pour autant inclure la nature dans leur triptyque race-classe-genre, les défenseurs de la cause environnementale vont, eux, considérer que les êtres naturels font l’objet d’une domination similaire à celle des Noirs, des ouvriers et des femmes. C’est ainsi qu’en 1969, mobilisé pour la défense du « Park’s People » de la baie de San Francisco, à Berkeley, le Sierra Club associe pour la première fois les problématiques environnementales à une plus large critique du capitalisme et des inégalités sociales.
La voie est ouverte et le mouvement environnementaliste se développe alors progressivement au cours des années 1970. Objet d’un second chapitre, celui-ci se caractérise par deux tendances principales. D’un côté, des associations comme le Sierra Club ou la nouvelle Environmental Action s’investissent dans le lobbying. Lançant des campagnes publicitaires massives, s’appuyant sur de l’expertise technique et misant sur un rapprochement avec le gouvernemental fédéral, ces associations nous renvoient, selon l’auteur, à la prise de conscience de la « crise environnementale » (p. 56). Mais d’un autre côté, des associations comme la Zero Population Growth estiment que l’impact humain sur la planète a atteint un point de rupture et que l’urgence est telle qu’elle nécessite des sacrifices politiques sans précédent. Ces associations nous renvoient, elles, à « l’environnementalisme de crise » (p. 67).
Ces dernières continuent cependant de placer l’humain au cœur de leur préoccupation et il faut attendre le début des années 1980 pour que se produise une rupture radicale, que l’auteur décrypte dans un troisième chapitre. Déçus par l’inefficacité et la culture du compromis du mouvement environnementaliste, un certain nombre de militants créent à la fin 1979 Earth First! Adoptant une philosophie écocentriste selon laquelle humains et êtres non-humains ont une valeur équivalente, et une posture critique selon laquelle les processus démocratiques libéraux sont inefficaces pour protéger la nature, ces environnementalistes radicaux militent pour qu’une partie de la planète soit mise à l’écart de toute exploitation humaine. Et contrairement aux associations comme Green Peace qui prônent l’action directe mais aussi la paix et la non-violence, les écocentristes d’Earth First! sont animés par la croyance en une possible « éco-révolution » (p. 97). Au nom de cette lutte, ils décident d’utiliser leurs corps pour protester contre l’aménagement de barrages ou l’exploitation de zones forestières et d’organiser diverses opérations de sabotage.
Radicale, la philosophie d’Earth First! n’en est pas moins contradictoire. À cet égard, dans un quatrième chapitre consacré au bien public, K. M. Woodhouse signale la façon dont les militants d’Earth First! évoluent, dès le début des années 1980, entre des courants de pensée anarchistes (laisser faire les individus), néolibéraux (laisser faire le marché) et conservateurs (laisser les communautés se gouverner sans État). Ainsi, les dirigeants de Earth First! vont contester la loi lorsqu’elle s’attaque à la « wilderness », objet par essence au-delà de l’État, mais s’en réclamer lorsque des investisseurs privés s’en prennent à leur tour à la « wilderness », par essence richesse nationale et publique. Irréconciliables, ces contradictions entre l’ordre naturel et l’ordre économique vont rapidement saper l’unité de Earth First!
À travers plusieurs études de personnages puis de lieux, le cinquième chapitre de l’ouvrage décrit les conflits qui vont miner, durant les années 1985-1990, la légitimité puis le fonctionnement même de Earth First! La pensée écocentriste de l’association est l’objet de la première attaque ; une attaque d’autant plus douloureuse qu’elle est portée par l’un de ses maîtres à penser, l’anarchiste Murray Bookchin. Théoricien d’une écologie sociale, Bookchin estime qu’en opposant la nature et les hommes comme elle le fait, Earth First! reproduit non seulement la hiérarchie que l’anarchisme est supposé éradiquer en société, mais aussi une forme de domination qui fait de ses militants des « racistes », des « survivalistes », des « machistes », des « réactionnaires », bref, des « éco-brutes » œuvrant pour le bien d’une minorité de citoyens urbains et privilégiés (p. 196). Venue de l’extérieur, l’attaque est ensuite portée depuis l’intérieur par certains militants de Earth First! Ces derniers reprochent à l’association, entre autres, de cesser de soutenir les Amérindiens dès lors que ceux-ci n’ont pas pour première préoccupation la protection de la nature et la restauration d’un mode de vie dit traditionnel. Les critiques se transforment enfin en de véritables oppositions lorsque, à la fin des années 1980, d’anciens militants anarchistes et de nouvelles associations créent des mouvements concurrents qui, à l’instar de Ecotopia Earth First!, renoncent à l’action violente et à un combat pour une justice environnementale qui ne serait pas, aussi, sociale.
Victime de l’écocentrisme qui avait fait son succès dix ans auparavant, la philosophie de Earth First! ne tombe pas pour autant dans l’oubli. Bien au contraire, l’auteur relate dans un dernier chapitre la façon dont cette pensée écocentriste minoritaire, une fois dépouillée de ses attraits non démocratiques et antihumanistes, est devenue, au début des années 1990, la « pensée mainstream » (p. 236) qui anime la majorité des associations environnementales. La fin de l’ouvrage fait alors écho au problème qui pointait dès l’introduction. Pour K. M. Woodhouse, une fois pour ainsi dire « humanisé », l’écocentrisme devrait être retenu pour ce qu’il a été, à savoir un mode de pensée qui a su questionner « les limites des libertés et des ambitions humaines, de la relation entre l’humain et le naturel, et de l’intersection entre la justice sociale et la résilience environnementale ». Et selon l’auteur, ce sont bien ces mêmes limites qu’il nous faut aujourd’hui « poser et débattre sur une planète changeante » (p. 289). Or, à l’instar de son titre, le défaut principal de cet ouvrage est que la « planète » dont il est question est la planète états-unienne. L’écocentrisme est pourtant loin de revêtir partout les mêmes formes. Ainsi, par exemple, au début des années 2000 Bruce Hays, l’un des fondateurs de Earth First!, fut responsable d’un programme de conservation des forêts tropicales dans la République centrafricaine, programme au nom duquel, moyennant finance, il a obtenu de la part des pouvoirs publics l’autorisation de tirer à vue sur tout braconnier qui se trouverait dans la zone naturelle concernée par ce programme environnemental. Plusieurs centaines de personnes ont été tuées, et cet exemple n’en est qu’un parmi d’autres en Afrique subsaharienne18. Les questions soulevées par l’écocentrisme trouveront peut-être réponse, ainsi que le souhaite l’auteur. Mais il y a fort à parier que ces réponses ne pourront être bonnes si sous couvert d’universalité, elles ne répondent en réalité qu’au seul contexte états-unien.
Guillaume Blanc
(Université Rennes 2, EA7468 Tempora, Rennes, France)
guillaume.blanc@univ-rennes2.fr
Affronter le manque d’eau dans une métropole. Le cas de Recife, Brésil
Paul Cary, Armelle Giglio, Ana Maria Melo (Eds)
Presses universitaires du Septentrion, 2018, 258 p.
L’ouvrage intitulé Affronter le manque d’eau dans une métropole. Le cas de Recife, Brésil est une production collective coordonnée par un trio interdisciplinaire : Paul Cary (sociologue, Université de Lille), Armelle Giglio (anthropologue, Université de Poitiers) et Ana Maria Melo (géographe/urbaniste, Université de Lille). Les auteurs présentent un ouvrage de 258 pages, divisé en quatre parties et onze chapitres, qui restitue les principaux résultats d’un projet ANR franco brésilien piloté par le BRGM19 et intitulé : COQUEIRAL « Contraintes sur la qualité de l’eau dans l’environnement urbain de Recife » (2012-2015). D’entrée de jeu, l’introduction précise l’ambition de l’ouvrage, qui a également constitué l’un des enjeux du projet ANR : associer sciences humaines et sociales (SHS) et sciences de la terre (biochimistes, géologues, hydrogéologues notamment) pour analyser les problèmes et les stratégies d’approvisionnement en eau à Recife et dans sa région métropolitaine, en évitant l’écueil, pour les SHS, de les réduire à des questions d’acceptabilité sociale ; et en rendant intelligibles les résultats des unes pour les autres. On peut regretter l’absence de chapitres coécrits entre les deux corps de disciplines pour aller au bout du dialogue interdisciplinaire et apporter – d’un point de vue méthodologique – un retour réflexif sur leur expérience collaborative20. Il reste que l’ensemble des données sur les aquifères, sur la qualité des eaux qui alimentent le réseau d’eau urbain se mêlent harmonieusement à l’analyse des discours, des pratiques et à une approche anthropologique de l’accès à l’eau pour répondre à la problématique suivante : par quels mécanismes une situation de rationnement en eau très inégale socialement a pu se développer et perdurer ?
La première partie de l’ouvrage pose le contexte urbain, hydrogéologique et social qui permet de cadrer le problème d’eau dans la métropole de Recife. Située dans le Nordeste brésilien, l’une des régions les plus sèches du Brésil, Recife est historiquement marquée par de fortes divisions sociospatiales. La métropole de 4 millions d’habitants connaît un taux de pauvreté élevé qui s’accompagne d’une fragmentation de l’espace urbain entre quartiers aisés des professions cadres et secteurs précaires. L’augmentation et la densification de la population consécutives à de grands projets de planification urbaine à partir des années 2000 ont accru les pressions sur des ressources en eau déjà vulnérables. Tous dépendent d’un service public d’eau irrégulier, mais les zones les plus précaires ont moins d’alternatives pour pallier cette irrégularité et concentrent en leur sein les problèmes de santé liés à la qualité de l’eau (contamination des nappes d’eaux souterraines par les activités anthropiques et salinisation due à la proximité côtière). Assuré à l’origine par les barrages, l’approvisionnement en eau (public et privé) repose à 85 % sur les eaux souterraines de cinq principaux aquifères profonds et superficiels qui parcourent la ville du Nord au Sud, d’Est en Ouest. Les captages s’effectuent par des puits plus ou moins profonds : ceux publics de l’entreprise concessionnaire du service public d’eau, la Compagnie d’assainissement du Pernambuco (COMPESA), et une multitude de puits privés qui échappent au contrôle de la COMPESA. En l’état actuel, les taux de captage ont largement dépassé les capacités de recharge des aquifères dont les niveaux superficiels font face à une pollution importante.
C’est à la lumière des éléments restituant le contexte de la pénurie d’eau à Recife que la deuxième partie de l’ouvrage se penche sur l’analyse du vécu quotidien de cette pénurie. Les trois chapitres de cette partie décryptent l’« eau du quotidien » (p. 76 et suivantes) dans les pratiques et les représentations des habitants de la métropole. Selon les statistiques officielles, plus de 86 % de la population de Recife est raccordée au réseau public d’eau. Mais « quand raccordement ne rime pas avec approvisionnement », satisfaire et sécuriser l’accès effectif à l’eau deviennent deux impératifs autour desquels s’organise le quotidien des populations. D’abord présentée comme intermittente, la distribution d’eau par rationnement de la COMPESA est devenue de fait son mode principal de fonctionnement. Ainsi s’est construit chez les populations de Recife un rapport à l’eau dominé par la peur constante d’en manquer et se traduisant par le développement de stratégies parallèles et autres solutions techniques pour s’affranchir d’une eau publique déficiente. Les auteurs identifient trois grands piliers structurant les stratégies parallèles de gestion de l’eau des populations : approvisionnement-stockage-utilisation. S’approvisionner, outre l’eau de la COMPESA, passe par plusieurs sources : les puits, les camions-citernes et l’eau en bouteille vendue par bonbonnes de 20 litres. Stocker l’eau ensuite : sous terre (réservoirs souterrains), au sol (tonneaux, seaux), en l’air (citernes de toits). Enfin, à la diversité des provenances de l’eau et des modalités de stockage correspondent des catégories d’usages distinctes. Utiliser l’eau, c’est lui attribuer des usages spécifiques en fonction de sa source. Cette affection dépend de la perception qu’ont les habitants de la qualité de l’eau et des risques pour la santé auxquels elle exposerait. La diversification de l’offre en eau domestique a été rendue possible grâce à l’émergence d’un secteur privé tantôt légal tantôt informel qui joue un rôle social et économique majeur. On y retrouve les entreprises de forages pionnières dans le domaine, le marché de l’eau en bouteille qui s’est progressivement concentré et les entreprises de camions-citernes, principal fournisseur d’eau dans les établissements publics.
La troisième partie de l’ouvrage montre comment s’est constituée une économie de la prédation autour des ressources en eau, dans laquelle le secteur privé est présenté comme le principal prédateur. Mais l’État n’est pas en reste, avec la mise en place d’un partenariat public privé pour développer l’offre en eau publique et regagner les usagers « sortis » du réseau public dans un contexte de concurrence aiguë des modes d’approvisionnement.
Concernant la gouvernance de l’eau, l’ouvrage révèle deux traits caractéristiques principaux : un déni public de la situation de pénurie que subissent les habitants de la métropole et une gestion par indicateurs portée par la logique du new public management. Un déni public, d’une part, qui se traduit par de multiples décalages entre les discours et la réalité ainsi que par une réelle méconnaissance du terrain conduisant à qualifier de conjoncturels la pénurie et le rationnement. Une rhétorique gestionnaire quantitative, d’autre part, qui privilégie une culture du chiffre (statistiques du raccordement, croissance de la facturation, du chiffre d’affaires de la COMPESA) et masque les problèmes d’universalité de l’accès à l’eau. La quatrième partie de l’ouvrage propose d’analyser une gouvernance de l’eau problématique à plusieurs titres : un cadre normatif ambigu où le statut de l’eau oscille entre bien public et économique, la non-mise en œuvre des réglementations pour contrôler les volumes et la qualité de l’eau captée ; et un cadre institutionnel fragmenté qui complexifie la répartition des compétences parfois intersectorielles et des responsabilités dans un mille-feuille administratif entre les instances nationales, régionales et municipales. Le manque de coordination entre acteurs entraîne une profusion d’actions dispersées sur un réseau d’eau et d’assainissement qui est à l’image de sa gouvernance : « un patchwork » (p. 215). Les auteurs affirment que l’essor de nouvelles pratiques de gouvernance (création des agences de l’eau, adoption de nouvelles directives pour l’assainissement) n’a pas modifié la prévalence des arrangements informels pour l’accès à une eau qui n’est pas perçue comme un bien commun. Ce qui explique le constat inattendu que fait l’ouvrage d’une absence de mobilisations collectives pour l’eau dans un pays qui a une tradition ancrée des contestations sociales. Concernant l’action collective, on peut regretter que l’étude qui dispose d’un abondant matériau empirique n’ait pas été enrichie de références à la littérature brésilienne sur les « communs »21 pour proposer une approche de « ce qui fait commun » quand l’eau en tant que ressource ne semble pas constituer l’élément fédérant les acteurs autour d’une vision partagée de ce que doivent être son usage et sa gestion.
En définitive, Affronter le manque d’eau dans une métropole. Le cas de Recife, Brésil est une analyse fine des transformations qui alimentent la pénurie en eau domestique dans la métropole brésilienne. L’ouvrage présente deux grandes forces : la première réside dans la place importante accordée au verbatim des entretiens. Dès la deuxième partie, le lecteur plonge dans le récit des enquêteurs et la restitution de segments entiers de leurs échanges avec divers acteurs (habitants aux profils variés, entreprises privées, gestionnaires publics) qui lui permettent de saisir les logiques de pensée et d’action décrites. Cette immersion – c’est là l’une des principales originalités de l’ouvrage – est renforcée par le recours à la photoethnographie où les images, « éléments du monde visible22 », accompagnent la compréhension d’une situation. Ce choix méthodologique est aussi celui d’un canal différent, moins classique, pour la dissémination des résultats de la recherche. Si le présent ouvrage rassemble les images prises sur le terrain au sein d’un « cahier de photographies » (p. 115-137), l’expérience d’écriture visuelle proposée par les auteurs est menée jusqu’au bout grâce à l’exposition « TER ÁGUA – Récit photoethnographique de l’eau du quotidien à Recife (Brésil) ». Livre en main, voilà donc une autre façon de joindre l’utile à l’agréable…
Rhoda Fofack-Garcia
(France Énergies Marines et UMR6539 LEMAR, Plouzané, France)
rhoda.fofack@france-energies-marines.org
Les coulisses du monde des catastrophes « naturelles »
Sandrine Revet
Éditions de la Maison des sciences de l’homme, 2018, 237 p.
Administrer les catastrophes à l’échelle mondiale. L’institution d’un nouveau standard d’influence
Dans son dernier ouvrage, l’anthropologue Sandrine Revet documente et analyse l’émergence du dispositif de gouvernement des catastrophes à l’échelle planétaire qu’elle avait mis au jour avec Julien Langumier23. Pour ce faire, elle s’appuie sur un travail de terrain exceptionnel de par sa temporalité d’engagement et son amplitude spatiale : sept ans d’une enquête ethnographique multisituée, menée aux six coins du monde (Venezuela, Pérou, Mexique, Japon, Haïti, Suisse) de septembre 2008 à mai 2015, dans des contextes aussi divers que les grandes conférences internationales, les discussions informelles dans les couloirs, les échanges de mails, les exercices de simulations grandeur nature ou les salles de négociations des plans d’action décennaux et des traités interétatiques. Il n’en fallait peut-être pas moins pour ouvrir la voie et commencer à rendre compte des langages, formes de négociations, types d’infrastructures, standards et modèles de représentation qui se mettent en place actuellement pour administrer les catastrophes à l’échelle internationale.
À ce titre, Les coulisses du monde des catastrophes fait écho à la recherche-enquête ethnographique qu’avait menée l’anthropologue Frédéric Keck sur les traces du virus H1N124, ou bien encore à celle d’Alexandra Ouroussoff sur la standardisation et le cadrage des marchés économiques sous la pression incitative des agences de notation25. Toutefois, à la différence d’Ouroussoff, S. Revet a recours aux outils de la sociologie pragmatique pour produire une analyse se situant sur le plan des discours, des pratiques et des représentations énoncées par ses informateurs et interlocuteurs, sans se risquer donc à spéculer sur des enjeux et des motivations profondes dont les acteurs eux-mêmes n’auraient pas conscience. En restant sur le plan des énoncés explicites, l’auteure questionne d’autres « coulisses » que celles des fictions que se racontent les individus, en particulier la relation entre dispositifs normatifs et cadres explicatifs (p. 17).
L’anthropologie des dispositifs sociaux propres aux situations de catastrophes procède en confrontant les niveaux d’intelligibilité (des individus, des collectivités présentes sur le territoire affecté, des organismes internationaux d’aide humanitaire et de gestion des catastrophes) et les régimes d’historicité (des personnes, des sociétés, des milieux géographiques et géologiques)26. S. Revet met ici en tension, d’une part, le ciment symbolique que constitue la volonté de réduire et de quantifier la contingence, expression d’une « réponse anthropologique universelle » à l’incertitude (p. 124), et d’autre part, les divers champs de force exprimés en situations concrètes, expressions de l’incompressible hétérogénéité des vécus de chacun, des champs d’expériences, des modes d’existence et des savoirs situés.
D’après l’auteure, ce leitmotiv de la réduction des risques permet de fabriquer un monde commun (de normes, modèles, histoires, scénarios, pratiques, protocoles et iconographie standardisés) malgré l’absence de consensus et d’homogénéité, ou plutôt grâce à l’absence de consensus et à l’irréductible hétérogénéité des modes d’existences et de prise en charge concrets des aléas.
Avec cette perspective originale, et renversante, les accords se forment grâce aux écarts et l’hétérogénéité devient une condition nécessaire aux cadrages et recadrages successifs des uns par les autres, la diversité des collectifs permettant une friction27 et des disputes28 fondamentales pour l’émergence d’un agencement social d’ensemble.
S. Revet entreprend ainsi l’étude du « dispositif à disputes29 » en train de s’agréger autour de la question des catastrophes, en particulier depuis la fin des années 1980 (p. 34), période où se sont succédé le séisme de Mexico (1985), l’éruption du Nevado del Ruiz – et la mort tragique et médiatique d’Omaira Sanchez (1986) – et le tremblement de terre de Spitak (1988). Pour ce faire, l’auteure repère notamment trois temporalités de prise en charge des catastrophes (p. 124-125) : 1. la préparation et la prévision, qui se mettent en œuvre en amont de l’événement ; 2. la réparation et la résilience, qui s’opèrent après l’événement ; et 3. l’urgence, qui a lieu en situation, pendant l’événement. La première (chapitre 5) part du principe que les catastrophes peuvent faire l’objet d’une maîtrise, et qu’il serait donc possible de les prévoir et d’atténuer leurs impacts pour peu que les collectes de données et les appareils techniques soient suffisamment précis. L’horizon de ce champ d’action de la gestion des catastrophes se distribue en quelques lignes de forces : anticiper les catastrophes ou en détecter les signes avant-coureurs, avertir les populations et mettre en place des plans d’évacuation, mener des campagnes d’information, fabriquer des infrastructures robustes permettant de les contenir (par exemple avec des digues) ou de leur résister (avec des installations antisismiques). La seconde (chapitre 6) assume le caractère récurrent et inévitable des catastrophes et se donne donc pour horizon une prise en charge et une adaptation « par le bas » mobilisant surtout les techniques locales « low cost » et les savoirs émiques dévéloppés dans la longue durée par les cultures autochtones (p. 202). La troisième attitude consiste à prendre acte que les catastrophes naturelles ne peuvent être gérées uniquement au moyen de protocoles de préparation à l’avant et à l’après et qu’il convient d’installer des dispositifs logistiques et des chaînes opératoires spécifiques aux situations imprévues qui imposeront d’agir dans l’urgence, de décider et d’intervenir rapidement, et de coordonner les différentes échelles d’action et de temporalités opérant sur les lieux du désastre.
S. Revet repère également des zones de « fractures » (p. 112), zones favorables aux frictions entre ces diverses temporalités des catastrophes. La première grande fracture que décrit et analyse l’auteure concerne la distribution du champ symbolique (chapitre 2). L’iconographie produite par le monde des catastrophes naturelles et des campagnes humanitaires demeure percluse de clichés finement croqués par S. Revet. Ainsi, entre autres stéréotypes, les femmes et les enfants continuent d’incarner les figures des victimes et de la vulnérabilité, tandis que la gent masculine, en uniforme ou vêtement de fonction (militaires, pompiers, médecins, formateurs, experts, médiateurs), continue d’incarner les institutions qui portent secours et soutiennent le retour à l’autonomie. D’autres fractures sociales passées au crible forment autant de champs de force capables de susciter et d’alimenter la friction, notamment sur les plans de la distribution des richesses économiques et technologiques, des ruptures d’échelles et des questions de souverainetés étatiques. Ces lignes de failles permettent et organisent non seulement les disputes internes au monde de la gestion des catastrophes, mais aussi la grammaire des récits de légitimation des modes d’action, niveaux d’intervention et logiques de productions des données statistiques produits par les multiples acteurs de l’internationalisation des catastrophes (chapitre 4).
On l’aura compris, l’ouvrage de S. Revet est d’une densité rare, croisant les niveaux d’intelligibilité, les régimes de temporalité et les focales d’observation. Or le maintien de cette complexité s’avère crucial, car une simple addition et accumulation d’informations n’aurait pu rendre compte des innombrables éléments dispersés qui indiquent un découplage de plus en plus prononcé entre le monde de la gestion internationale des catastrophes et les réalités du terrain. L’écart grandit entre les standards qui se mettent en place et les attentes citoyennes, entre les prérogatives globales et les contingences concrètes, in situ et in vivo. Est-ce que cet écart pourra continuer à contribuer aux frictions nécessaires à la vie des sociétés et des institutions, ou bien est-ce simplement le signe d’une incompréhension sans possibilité de dispute et d’ajustement ? D’après l’auteure, cette déconnexion va de pair avec la possibilité – effrayante – que les standards internationaux finissent par prévaloir sur les contraintes et les réalités de terrain au travers de logiques d’incitations – guides des bonnes pratiques, benchmarking (création de compétition), prix et cérémonies sous l’égide de comités des risques (p. 140-141). Or, en l’absence de friction, il est tout à fait possible que ces outils d’incitation se transforment en outils de propagande d’une idéologie des risques, de même que les agences de notation fabriquent, véhiculent et imposent désormais leurs propres standards auto-institués, ainsi que l’avait montré A. Ouroussoff. Gageons que cet ouvrage exceptionnel, qui met en lumière ces coulisses, contribuera à éviter qu’il en soit ainsi.
Yoann Moreau
(École des Mines ParisTech, Centre de recherche sur les risques et les crises, Paris, France)
yoann.moreau@mines-paristech.fr
L’interdisciplinarité. Un enjeu pour le développement
Frédéric Bourdier, Chrystelle Grenier-Torres (Eds)
Karthala, 2017, 322 p.
Cet ouvrage collectif, coordonné par Frédéric Bourdier (anthropologue, IRD) et Chrystelle Grenier-Torres (sociologue, Université de Bordeaux), partait d’une volonté partagée : rendre compte du parcours scientifique de Claude Raynaut, anthropologue impliqué et engagé, par le faisceau de témoignages de ceux qui l’ont côtoyé, qu’il a formés ou fortement inspirés sur plus de quatre décennies. S’il dessine, à petites touches, cette trajectoire – depuis les Sahels africains en crise et l’étude des relations nature-sociétés dès les années 1970, pour embrasser, à partir des années 1990, les enjeux de santé publique en Afrique de l’Est et en Amérique latine – il ne se réduit pas à cela. À la différence d’autres ouvrages, où la part d’égotisme transpire, ici la dimension mémorielle reste discrète30. On ne peut que s’en féliciter.
Ce basculement géothématique se traduit directement dans les contributions mobilisées : sur douze chapitres, quatre relatent des expériences de recherches interdisciplinaires en Afrique de l’Ouest contre trois au Brésil. Comptabilisés autrement, trois s’intéressent expressément aux relations sociétés-environnement-développement (chapitres 9, 10, 12), tandis que cinq se consacrent aux relations entre inégalités, sociétés et santé (chapitres 3, 5, 6, 8)31. Le tout est mené avec rigueur et finesse, chaque contribution ayant à cœur de rappeler l’intérêt, comme les difficultés, à travailler de manière interdisciplinaire.
Au demeurant, cette oscillation permanente – entre retours d’expériences de chercheurs et chercheuses, posant un regard critique sur leurs menées interdisciplinaires, et des réflexions plus ambitieuses, dont la portée heuristique et conceptuelle est clairement affichée – donne à cet ouvrage une portée pédagogique évidente et bienvenue. Les coordinateurs ont veillé à ce que les contributeurs et contributrices de l’ouvrage ne fassent pas de l’interdisciplinarité une « notion valise » (p. 299). C. Raynaut, dès 1996, rappelait, d’ailleurs, que « l’interdisciplinarité est une méthodologie d’intervention d’une réalité et pas seulement une méthode pour diagnostiquer et proposer des solutions » (p. 284).
Deux textes me semblent particulièrement éclairants pour comprendre l’engagement et l’exigence qu’elle rend nécessaires : celui de F. Bourdier, intitulé « Interdisciplinarités : progrès, obstacles, applications » et celui de C. Raynaut « Interdisciplinarité. Complexité et défis à la production et l’application de la connaissance dans le monde contemporain ». À la base, la démarche interdisciplinaire constitue « un défi théorique et méthodologique » (p. 87), puisqu’elle vise à produire « un savoir nouveau » et « un savoir commun » (p. 95), sans pour autant viser la synthèse ou le consensus32. De même, elle n’est pas une fin en soi mais davantage un moyen et un chemin.
Quels en seraient les prismes ou les marqueurs privilégiés ? Sans présager d’une quelconque hiérarchie : 1/ l’interdisciplinarité se base sur des critères précis et adaptés à l’enjeu considéré ; 2/ elle se construit de manière contradictoire, partagée et négociée à partir des disciplines existantes ; 3/ elle s’articule toujours autour de différents niveaux d’intelligibilité des faits (qui peuvent se révéler ambivalents en matière de développement) ; 4/ elle doit servir à éclairer les controverses par un décentrement des postulats, des regards et des connaissances établies ; 5/ enfin, elle prend appui sur une demande sociale et un apprentissage pour créer les conditions mêmes de sa reproduction. Ces cinq points fondamentaux vont irriguer l’ensemble des chapitres et, souvent, faire l’objet d’un travail habile de réappropriation-maturation de la part des contributeurs et contributrices.
De fait, l’ouvrage dévoile, d’emblée, la nature de son ambition : montrer combien l’interdisciplinarité est une science de combat (contre les certitudes, les idées reçues et les pouvoirs constitués des disciplines et des institutions) et d’ajustement (avec les contextes de réalisation, en termes de partenaires). C. Raynaut relève ainsi que les défis actuels en matière de développement – faits de controverses, de doutes et d’inquiétudes – appellent à adopter une « une nouvelle posture intellectuelle face à la nature complexe des problèmes » (p. 100). Il en appelle à une sorte de « révolution culturelle » ! Selon lui, l’interdisciplinarité permet d’inventer cette science de la complexité essentielle à la compréhension des changements accélérés, même si, de plus en plus, représentations, subjectivités et pouvoirs viennent exercer une influence parfois délétère.
Les histoires de projets interdisciplinaires serviront d’en-cas. Au-delà, ce sont les analyses sur la délicate praxis interdisciplinaire, avec ses marqueurs (interactions incessantes entre structures implicites et manifestations explicites), ses dynamiques (relations étroites entre événements et processus), ses paris et ses difficultés (questionner les représentations, dépasser les catégories, prendre en compte la complexité…) qui marqueront le lecteur exigeant.
En ce sens, cet ouvrage intéresse un public qui dépasse le cercle des chercheurs en sciences sociales et peut utilement éclairer l’enseignant, l’expert et le décideur « soucieux de (bien) comprendre pour (mieux) agir ». Loin de n’être qu’une réflexion de plus sur les enjeux et les difficultés de l’interdisciplinarité, avec de longs passages théoriques, il tresse très finement les analyses à partir d’expériences de recherches de terrain et de contributions de chercheurs s’étant essayés à l’interdisciplinarité à partir des prismes et des marqueurs de l’approche pensée par C. Raynaut : qu’il s’agisse de Chrystelle Grenier-Torres sur la santé génésique en Côte d’Ivoire, de Tatiana Engel Gerhardt sur les conditions et les situations de vie pour l’analyse des inégalités sociales et sanitaires, de Boubacar Yamba et Ibrahim Amoukou sur la démarche participative appliquée aux projets de développement agricole.
C. Raynaut a occupé, dès la fin des années 1970, une position originale, au carrefour des sciences sociales, de l’environnement et de la santé, avant même que ces derniers ne soient reformulés, en termes de grands défis intégrés, sociétaux et environnementaux pour l’action publique, autour des Objectifs du millénaire pour le développement (OMD) d’abord, puis des Objectifs du développement durable (ODD) à partir de 2015. Travaillant « sur » ce qu’était le développement – les besoins et les aspirations des sociétés locales, les paradigmes et les pratiques des professionnels dédiés –, il a été amené à construire, pas à pas, cette science de l’interdisciplinarité à laquelle il consacre deux textes magistraux : l’un destiné à la déconstruire d’un point de vue conceptuel pour en montrer la portée heuristique (p. 99-135), l’autre plus orienté vers sa mise en pratique pour montrer la pluralité des « manières de faire de l’interdisciplinarité dans le champ du développement » (p. 253-280).
Ce dernier sert de point d’orgue au sens où il rappelle clairement ce que « faire de l’interdisciplinarité » signifie comme distanciation avec les savoirs étalonnés et constitués pour construire des recherches adaptatives, intégratives, itératives. On devrait donc parler d’interdisciplinarités au pluriel, non pour en dresser des typologies un peu creuses, mais en fonction des attentes formulées par les différentes communautés épistémiques (chercheurs, citoyens, experts, militants…) en se souciant donc toujours de son utilité sociétale, sans jamais se départir d’une attitude critique. E. Grégoire en présente (p. 52) une, mise en avant pour servir une stratégie institutionnelle et partenariale au sein de l’Institut de recherche pour le développement : l’expertise collective, tenant à la fois de la mise en commun des savoirs capitalisés et insuffisamment valorisés, et de l’aide à la décision publique. Ouverture à laquelle C. Raynaut et Magda Zanoni répondent indirectement (p. 264-266) avec leur trilogie : interdisciplinarité de service (explicative et experte, répondant à une commande), instrumentale (étude d’un problème commun constituant un défi), conceptuelle en période de changement accéléré pour lever les incompréhensions et les blocages.
On l’aura compris, l’interdisciplinarité n’est pas une méthode pour réaliser le développement dans le cadre de projets mais une trajectoire incertaine, faite d’exigences, de doutes, de tâtonnements et de négociations ! Et C. Raynaut d’insister : l’interdisciplinarité est toujours une expérience pratique à construire et à reconstruire (p. 132). C’est pourquoi elle ne peut rester une simple expérience individuelle et doit être pensée collectivement pour être transmise.
Anthropologue social, soucieux de l’analyse située du changement, C. Raynaut s’inscrit donc définitivement dans une anthropologie dynamique, construite autour des relations – parfois conflictuelles et inégalitaires – entre savoirs experts et savoirs profanes, et souvent même ambivalentes entre apparences et réalités. Le caractère intriqué des systèmes de représentation et d’action constitue aussi une des clés de compréhension de l’accélération des changements observés dans des environnements à risques systémiques élevés. On l’aura compris, il s’agit d’une anthropologie non figée, attentive à saisir la complexité des faits à plusieurs niveaux d’intelligibilité : celle des conditions matérielles, des actions et des représentations (p. 122). La figure de l’hybridation y est, en tout point, essentielle selon C. Raynaut, alors que pour F. Bourdier elle se situe plutôt comme « l’interpénétration entre phénomènes sociaux, environnementaux et biologiques » (p. 75).
Cette anthropologie du changement croise les dimensions environnementales, sociopolitiques et techniques, les facteurs internes comme externes aux systèmes considérés : cette matrice sera reprise par certains chercheurs brésiliens, hors champ agricole (chapitre 9, p. 224 notamment), avec le cas des pêcheries. C. Raynaut a donc été un « défricheur » selon E. Grégoire (p. 41), exerçant une « influence théorique d’avant-garde » ajoute José Milton Andriguetto Filho (p. 213). Son cadre des interrelations nature-société, prenant appui sur la pluralité des faits intelligibles, à différentes échelles sociospatiales et temporelles, a permis de donner corps à une véritable rythmanalyse du changement. En ce sens, elle annonce la place que prendront, à partir de la décennie 2000, les réflexions centrées sur les relations processuelles entre risque, vulnérabilité et résilience, avant d’être promues au rang de théorie (theory of change), comme ligne directrice organisant de nombreux projets de recherche-action dans le champ du développement.
Pierre Janin
(IRD, UMR201 Développement et sociétés, Nogent sur Marne, France)
pierre.janin@ird.fr
LeDoux J., 2003. The emotional brain, fear, and the amygdala, Cellular and molecular neurobiology, 23, 4-5, 727-738, doi:10.1023/A:1025048802629.
Dunlap R.E., McCright A.M., 2008. A widening gap: republican and democratic views on climate change, Environment: Science and Policy for Sustainable Development, 50, 5, 26-35, doi:10.3200/ENVT, 50, 5, 26-35.
Mitchell T., 2009. Carbon democracy, Economy and Society, 38, 3, 399-432, doi:10.1080/03085140903020598. Fressoz J-B., 2012. L’Apocalypse joyeuse. Une histoire du risque technologique, Paris, Seuil, p. 320.
Gaudin T. (Ed.), 1990. Récit du prochain siècle, Paris, Payot, http://documents.irevues.inist.fr/handle/2042/30598.
Bain P., Maujean S., Theys J., 2008. Agora 2020. Vivre, habiter, se déplacer en 2020 : quelles priorités de recherche ?, La Défense, Centre de prospective et de veille scientifique et technologique, http://temis.documentation.developpement-durable.gouv.fr/docs/Temis/0060/Temis-0060141/12411_AGORA_2020_Priorites_de_recherche.pdf.
Neumann R.P., 2004. Moral and discursive geographies in the war for biodiversity in Africa, Political Geography, 23, 7, 813-837, doi:10.1016/j.polgeo.2004.05.011.
Langumier J., Revet S. (Eds), 2013. Le gouvernement des catastrophes, Paris, Karthala. Voir le compte rendu de Lydie Cabane dans NSS, 23, 3 doi: 10.1051/nss/2015041 (p. 316-318).
Revet S., 2017. Anthropologie d’une catastrophe. Les coulées de boue de 1999 au Venezuela, Paris, Presses Sorbonne Nouvelle. Chateauraynaud F., 2011. Argumenter dans un champ de forces. Essai de balistique sociologique, Paris, Pétra. Moreau Y., 2017. Vivre avec les catastrophes, Paris, Presses universitaires de France.
Le chapitre 7, consacré à la présentation des méthodes d’analyses du fonctionnement des réseaux marchands ouest-africains (sorte de rappel à la contribution de E. Grégoire au milieu des années 1980), possède un statut un peu particulier : l’interdisciplinarité ne s’y déploie qu’à l’intérieur du champ des sciences sociales, de l’économie à l’anthropologie historique.
© NSS-Dialogues, 2019
Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.
Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.
Initial download of the metrics may take a while.