Revue

Revue

Une revue des risques existentiels mondiaux

Les recherches relayées par la Stanford Existential Risks Initiative

La Stanford Existential Risks Initiative est une collaboration entre des professeurs et des étudiants de Stanford, qui se consacrent à l’atténuation des risques existentiels mondiaux (ou « risques x »), tels que les pandémies ou la prolifération nucléaire. Les possibles effets en cascade entre des risques x sont l’un des objets de recherche privilégiés. En 2023 s’est tenue la troisième conférence annuelle de Stanford sur les risques x, visant à présenter les recherches menées dans le cadre de cette initiative.

Les articles retenus illustrent les projets de recherche en cours, soulignent aussi leurs lacunes et proposent des orientations pour l’avenir. Beaucoup évoquent les effets en cascade entre les risques x, à travers des sujets variés (effondrement écologique, intelligence artificielle, risques nucléaires, biosécurité) et une lecture pluridisciplinaire. Une publication (« Expanding the Field of Existential Risk Studies ») récapitule l’ensemble des articles mis en avant lors de cette conférence :

La première catégorie d’articles se concentre sur l’identification et la caractérisation de typologies de risques x, et les défis épistémologiques qui s’y rapportent :

  • « Should Epistemic Security Be a Priority GCR [Global Catastrophic Risk] Cause Area? », d’Elizabeth Seger, est une étude des menaces épistémiques, comme la polarisation ou la désinformation.
  • « Maniacs, Misanthropes, and Omnicidal Terrorists: Reassessing the Agential Risk Framework », d’Émile P. Torres, propose une réflexion sur les risques « agentiels », qui surviennent lorsque des individus souhaitant détruire le monde se retrouvent en capacité de le faire.
  • « Psychological Fragility: An Overlooked Existential Risk », de Dana Klisanin, porte sur la fragilité de la psyché humaine, un domaine de risque inexploré, avec des implications majeures.
  • « Psychological and Psychosocial Consequences of Super Disruptive A.I.: Public Health Implications and Recommendations », de David D. Luxton et Eleanor Watson, propose un focus sur les impacts psychosociaux de l’intelligence artificielle (IA).
  • « Science, Delusion, and Existential Risk », d’Andrew Nepomuceno, pointe le décalage entre les croyances solidement ancrées et les réalités scientifiques, qui se traduit par des aveuglements de masse et l’inaction.
  • « An Axiology of Aesthetics for Existential Risk », d’Ishan Raval, est un plaidoyer pour une lecture esthétique du monde et des risques x.

La deuxième catégorie d’articles aborde les implications plus larges des risques x en cascade :

  • Dans « Navigating Cascading Planetary Boundaries: A Framework to Secure the Future », Thomas Cernev estime que la transgression des limites planétaires exacerbera les risques x mondiaux connus, et pourrait conduire à faire émerger des risques imprévus.
  • Dans « Anthropocene under Dark Skies: The Compounding Effects of Nuclear Winter and Overstepped Planetary Boundaries », Florian Ulrich Jehn milite en faveur de l’étude de la cascade des risques et souligne l’importance de la biosphère dans la capacité à survivre à un hiver nucléaire.
  • Dans « Is Climate Change Ungovernable », Paul N. Edwards appelle à appréhender les effets du changement climatique au-delà de 2100.

La troisième catégorie d’articles aborde les liens entre les risques liés aux technologies émergentes :

  • Dans « Investigating How Academic Researchers Engage with Dual-use Biosecurity Research », Sofya Lebedeva souligne les risques et avantages des recherches en cours sur la biosécurité à double usage.
  • Dans « Existential Risks Associated with Dual-use Technologies », Ashok Vaseashta milite pour que la société limite les technologies à double usage par des mesures éthiques, des cadres réglementaires et des coopérations internationales, en renforçant éventuellement la traçabilité et la résilience.
  • « Fairness in AI and Its Long-term Implications on Society », d’Ondrej Bohdal et alii, souligne les biais de prédiction de la plupart des systèmes d’IA actuels, qu’il va falloir atténuer pour éviter qu’ils s’aggravent à long terme.
  • Dans « The Looming Nuclear War », Jean-Pierre Dupuy rappelle qu’en dépit du rôle dissuasif des armes nucléaires, une guerre nucléaire menace toujours dans la mesure où tant qu’elles existent, ces armes peuvent un jour être utilisées.

La quatrième catégorie d’articles traite de la manière dont les risques x peuvent être gouvernés :

  • « Collective Intelligence as Infrastructure for Reducing Broad Global Catastrophic Risks », de Vicky Yang et Anders Sandberg, montre l’importance de la capacité des gouvernements ou des communautés scientifiques à travailler de concert pour mitiger les risques x.
  • « Convergence on Existential Risk Policy? », de Philip Arthur, cherche à identifier des points de convergence entre l’approche techno-utopique et l’approche pluraliste à plus court terme.
  • « Governing Anthropogenic Existential Risks (Envisioning Some New Approaches) », de Mariana Todorova, alerte sur la complexité croissante et la multiplication des risques, et encourage à « désidéologiser » de l’avenir. Il évoque également les systèmes autopoïétiques, capables de s’autoréparer.
  • Dans « The Intergovernmental Panel on Global Catastrophic Risks », R. Daniel Bressler et Jeff Alstott proposent la création d’un groupe intergouvernemental sur les risques x, qui compléterait les travaux du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) et de l’Organisation mondiale de la santé, en particulier sur les effets en cascade de risques.
  • « Crisis Government’s Legitimacy Paradox : Foreseeability and Unobservable Success », de Daniel D. Slate, met en garde contre une lecture trop court-termiste des risques, qui empêche la compréhension des risques x à des échelles de temps plus longues.
  • Enfin, dans « Scenarios 2075: The Cascading Risks Study », Trond Arne Undheim souligne que les humains sont confrontés à une myriade de risques technologiques, géopolitiques et écologiques ; et propose cinq scénarios (cataclysme climatique, troisième guerre mondiale, croissance et effondrement, emballement de l’IA et biologie synthétique).

Référence : Undheim Trond Arne et Zimmer Daniel, « Expanding the Field of Existential Risk Studies », in Intersections, Reinforcements, Cascades: Proceedings of the 2023 Stanford Existential Risks Conference, The Stanford Existential Risks Initiative / Stanford Digital Repository, 2023.

#Catastrophes #Changement climatique #Écosystèmes #Géopolitique #Risques #Science. Recherche. Méthodologie #Systèmes #Technologie