Un risque de catastrophe planétaire ou de catastrophe globale est un événement futur hypothétique qui aurait le potentiel de dégrader le bien-être de la majeure partie de l'humanité, par exemple en détruisant la civilisation moderne ; cette notion, introduite par divers auteurs à partir de la fin du xxe siècle, a été théorisée et précisée en 2008 par le philosophe Nick Bostrom, lequel avait proposé également dès 2002 d'appeler risque existentiel un événement qui pourrait causer l'extinction de l'humanité.
Une étude quantitative rigoureuse de ces risques est difficile, en raison de l'incertitude sur les conséquences finales (les enjeux) de l'aléa déclencheur de la catastrophe, et sur la probabilité de cet aléa, et aussi parce que de nombreux biais cognitifs en compliquent l'analyse ; de plus, un évènement ayant pu provoquer l'extinction de l’humanité ou la destruction complète de la civilisation ne s'étant évidemment encore jamais produit, la probabilité qu'il en advienne un est minimisée ; ce phénomène est connu en statistique sous le nom de biais de sélection.
Bien que les risques de catastrophe planétaire aient fait l'objet de nombreux scénarios de science-fiction (modernisant souvent des mythes très anciens comme celui de Pandore), et de déclarations alarmistes à partir des années 1950, ce n'est qu’au début du XXIe siècle que divers organismes ont commencé à les étudier systématiquement, en particulier sous l'impulsion des mouvements transhumanistes, et plus récemment, de la collapsologie.
Un risque majeur est un événement incertain dont la réalisation est souvent faiblement probable, mais dont les effets négatifs sont considérables. Les géographes et de nombreux spécialistes après eux découpent cette notion en trois termes : l'aléa, qui est l'événement incertain lui-même, les enjeux, qui sont les valeurs socio-économiques ou écologiques soumises aux effets de l’aléa quand il survient, et la vulnérabilité, qui fixe le degré plus ou moins grand de destruction des enjeux par ces effets[1]. Par exemple, dans le cas du risque d’inondation fluviale, l’aléa est la crue du cours d’eau, les enjeux sont les personnes et les biens exposés à l'inondation, enfin la vulnérabilité se mesure en particulier en tenant compte de la hauteur, de la solidité et de l’étanchéité des immeubles concernés[2].
Risque de catastrophe planétaire et risque existentiel
À partir des années 1990, des avertissements de plus en plus détaillés (comme le World Scientists' Warning to Humanity de 1992), reprenant parfois des thèses plus anciennes telles que celles du rapport Meadows en 1972, amènent plusieurs auteurs à préciser la définition de risques dépassant les limites de désastres régionaux, et pouvant concerner toute l'humanité.
Indépendamment de ces travaux, le philosophe Nick Bostrom a introduit en 2008 la notion de risque de catastrophe planétaire (anglais : global catastrophic risk)[5], prolongeant son analyse de 2002 dans laquelle il définissait la notion de risque existentiel (anglais : existential risk)[6],[n 1], et en relation avec une classification des risques selon leur étendue et leur intensité[8], l’étendue allant de l’échelle individuelle à l’ensemble des générations futures, et l’intensité de « imperceptible » à « maximale » (des exemples sont donnés dans le tableau ci-dessous). Sur cette échelle, il définit un « risque de catastrophe planétaire » comme au moins « global » (affectant la majorité des humains) et d'intensité « majeure » (affectant le bien-être des individus sur une période prolongée)[n 2] ; un « risque existentiel » est défini comme « transgénérationnel » et « maximal » (irréversible, et mortel à court terme). Ainsi, un risque existentiel détruit l'humanité (voire toutes les formes de vie supérieure) ou au minimum ne laisse aucune chance à la réapparition d’une civilisation, alors qu’une catastrophe planétaire, même si elle tuait la majorité des humains, laisserait une chance de survie et de reconstruction aux autres ; Bostrom considère ainsi les risques existentiels comme beaucoup plus significatifs[10] ; il fait également remarquer que l'humanité n'avait pas pu envisager de risque existentiel avant 1950[n 3], et que toutes les stratégies conçues pour diminuer les risques de catastrophe planétaire sont inopérantes face à des menaces d’extinction complète[6].
Presque par définition, les catastrophes planétaires constituent non seulement des risques majeurs, mais correspondent à une vulnérabilité maximale et à des enjeux si vastes qu’ils sont impossibles à quantifier. Il en résulte une confusion souvent faite entre risque et aléa dans ce cas.
D’après un article de Nick Bostrom sur la prévention des risques existentiels[8] ; sur fond rose, les risques de catastrophe planétaire ; sur fond orange, les risques existentiels.
Classification en fonction de scénarios
Bostrom identifie quatre types de scénarios de catastrophe planétaire. Les « bangs » sont des catastrophes brutales (accidentelles ou délibérées) ; les exemples les plus vraisemblables étant les guerres nucléaires, l’utilisation agressive (et échappant à tout contrôle) de biotechnologies ou de nanotechnologies, et les impacts cosmiques. Les « écroulements » (crunches)[n 4] sont des scénarios de dégradation progressive des structures sociales, dans lesquels l’humanité survit, mais la civilisation est irrémédiablement détruite, par exemple par épuisement des ressources naturelles, ou par des pressions dysgéniques abaissant l’intelligence moyenne. Les « hurlements » (shrieks) sont des scénarios d’avenirs dystopiques, tels que des régimes totalitaires utilisant des intelligences artificielles pour contrôler l’espèce humaine. Les « gémissements » (whimpers) sont des déclins graduels des valeurs, puis de la civilisation[6]. Nick Bostrom considère les trois derniers types de scénarios comme empêchant (plus ou moins définitivement) l’humanité de réaliser son potentiel ; Francis Fukuyama estime que cet argument, qui s’appuie sur les valeurs du transhumanisme, ne suffit pas à lui seul à les classer tous comme des risques de catastrophe planétaire[7].
En économie, les événements ayant une probabilité très faible de survenir, mais qui peuvent avoir des conséquences désastreuses pour l'économie mondiale sont appelés des risques oméga. Un risque oméga désigne le fait qu'un événement réduise le produit intérieur brut (PIB) mondial de plus de 50 % en l'espace d'une décennie. Ces risques se distinguent par deux caractéristiques principales : un événement doit avoir le potentiel de réduire le PIB mondial de plus de 50 % et la chute du PIB doit se produire dans les 10 ans suivant l'impact. Ainsi, les événements comme les crises démographiques résultant de faibles taux de fécondité, même s'ils peuvent entraîner une baisse du PIB (la baisse n'est pas brutale), ne sont pas considérés comme des risques oméga[11].
Sources potentielles de risques
Parmi les risques existentiels, c'est-à-dire les risques d'extinction massive de la biosphère incluant l'espèce humaine, figurent surtout des causes exogènes naturelles, comme :
un sursaut gamma orienté vers notre région de la galaxie.
Certains de ces phénomènes se sont produits à de nombreuses reprises dans le passé, mais leur probabilité d'occurrence à l'échelle historique est souvent impossible à évaluer faute de données scientifiques suffisantes (les observations précises n'ont commencé qu'il y a trois siècles).
En revanche, les risques de catastrophe planétaire correspondent le plus souvent à des causes endogènes (dues aux actions humaines) :
une pandémie d'origine artificielle, soit accidentelle soit criminelle[12] ;
le remplacement de l'humanité par l'intelligence artificielle capable d'apprentissage, de choix et d'auto-réplication (éventuellement sous la forme de robots).
Avec le développement des technologies, la destruction, sinon du genre humain[n 5], du moins de la civilisation moderne par les actions d'une nation, d'une corporation, d'une communauté religieuse ou autre, ou même d'un individu, est plus probable qu'auparavant d'un point de vue statistique. Il est cependant possible que le développement des techniques de sécurité puisse diminuer ces risques, mais en sacrifiant les droits de l'homme et les libertés démocratiques.
Certains scénarios combinent des causes naturelles et artificielles : un orage magnétique majeur du Soleil ou une inversion du champ magnétique terrestre pourraient bloquer le fonctionnement des appareils et des réseaux électroniques dont l'économie mondiale est devenue totalement dépendante, débouchant sur un krach mondial et sur des conflits de grande envergure[12]. Une pandémie peut avoir des conséquences économiques majeures, amenant à une crise systémique[13].
Selon le Future of Humanity Institute, les causes anthropiques menacent davantage de provoquer l’extinction de l’humanité que des causes naturelles[8],[14]. De même, le Cambridge Project for Existential Risk (développé en 2012 par le Centre pour l’étude des risques existentiels de l’université de Cambridge[15]) affirme que les « plus grandes menaces » pour l’espèce humaine sont anthropogéniques ; il s’agit, selon lui, du réchauffement global, des guerres nucléaires, de biotechnologies ayant échappé au contrôle, et d’intelligences artificielles hostiles[16].
Depuis 1947, le Bulletin of the Atomic Scientists analyse les risques de catastrophe planétaire (initialement, ceux liés à un conflit nucléaire), représentant symboliquement leur estimation des risques à l'aide de l’Horloge de la fin du monde. Depuis 1991, cette horloge n'a pas cessé de se rapprocher de minuit ; en particulier, en 2015, elle a été avancée de deux minutes pour refléter le fait que le Bulletin of the Atomic Scientists considère que le réchauffement climatique correspond désormais à un risque de catastrophe planétaire, et peut-être existentiel[17] ; l'expression « existential risk » (risque existentiel) apparait depuis cette date dans tous leurs documents de synthèse, accompagnant l'analyse de nouveaux risques, tel que celui de la désinformation cybernétique en 2020[18] ; en 2024, l'horloge est au plus près de minuit depuis sa création, en raison entre autres « des lacunes dans la gouvernance mondiale que la gestion de la crise de la Covid-19 a fait apparaître »[19], et des conséquences de la guerre en Ukraine[20].
Les listes plus détaillées de risques ci-dessous (dont certains sont corrélés entre eux, par exemple une crise systémique affaiblissant les services de santé augmentera les risques de pandémie) sont classées par probabilité estimée décroissante[21],[n 6] ; cette classification, reprenant les travaux des divers groupes d'étude cités plus loin, ne recoupe pas bien les classifications plus traditionnelles des géographes, lesquelles sont basées en particulier sur la typologie des enjeux (environnementaux, économiques, etc.).
Le réchauffement climatique actuel (qui n’est plus contesté par la communauté scientifique, et dont la plus grande partie est attribuée aux activités industrielles depuis le XIXe siècle), amène à des variations anormales du climat sur toute la Terre, et à des effets secondaires tels que la montée du niveau des océans et leur acidification. Les projections même les plus modérées de ce réchauffement suggèrent qu'il va s’amplifier, augmentant en particulier la fréquence et l’intensité d’évènements climatiques extrêmes (canicules, inondations, tempêtes, etc.) et des catastrophes qui leur sont associées[24]. Parmi ses effets indirects, on mentionne la perte de la biodiversité, les dommages subis par le système actuel de production agricole, la propagation accrue de maladies infectieuses telles que le paludisme, et la mutation rapide de micro-organismes. Pour toutes ces raisons, le Bulletin of the Atomic Scientists considère depuis 2015 que le réchauffement climatique correspond désormais à un risque de catastrophe planétaire, et peut-être existentiel[17].
Il a même été suggéré que le dépassement d'un certain seuil pourrait amener le climat terrestre à basculer vers un état stable brûlant analogue à celui de Vénus (c'est la thèse de l’emballement climatique) ; même des scénarios moins extrêmes, sans rendre la Terre inhabitable, pourraient causer la fin de la civilisation[25] (un exemple de risque climatique nouveau apparaissant dans certains de ces scénarios est la formation d'hypercyclones). Cependant, l’existence de climats beaucoup plus chauds dans un passé relativement récent, par exemple lors du début de l’Éocène, amène de nombreux spécialistes à contester que ces derniers risques soient réels[26],[27],[28].
Même sans catastrophe soudaine (les « bangs » définis par Nick Bostrom), les déséquilibres entre population et ressources alimentaires risquent d’amener progressivement à des crises majeures, les catastrophes malthusiennes (ce sont des « écroulements » (crunches) pour la même classification). Le XXe siècle a vu une augmentation rapide de la population mondiale[33] due aux progrès de la médecine et à une forte amélioration de la productivité agricole, en particulier venant de la Révolution verte[34],[35]. Ainsi, entre 1950 et 1984, les transformations mondiales de l’agriculture amenèrent à une augmentation de 250 % de la production de céréales. La Révolution verte permit à la production de nourriture de se maintenir au niveau de la croissance démographique, et même de la favoriser. L'énergie demandée pour les travaux agricoles était apportée par les carburants fossiles, que ce soit pour les tracteurs et l’irrigation (aux moteurs consommant des hydrocarbures), ou pour la fabrication d’engrais et de pesticides ; l’arrivée du pic pétrolier pourrait ainsi amener une crise agricole[36],[37].
Dans une étude intitulée Food, Land, Population and the U.S. Economy (« Nourriture, terre, population, et économie américaine »), David Pimentel (professeur à l’université Cornell) et Mario Giampietro (chercheur au National Research Institute on Food and Nutrition) estiment que la population américaine maximale pour une économie durable ne peut dépasser 200 millions d’habitants ; la même étude affirme que pour éviter le désastre, la population mondiale devrait être réduite des deux tiers[38] ; ils pensent que les conséquences de cette crise agricole devraient apparaître à partir de 2020, et devenir critiques après 2050. Dale Allen Pfeiffer craint que les décennies à venir voient une montée des prix alimentaires suivie de famines massives telles que le monde n’en a encore jamais connues[37],[39]. Ces calculs recoupent ceux de l’ONG américaine Global Footprint Network, qui détermine le jour du dépassement (la date à laquelle la production mondiale annuelle de ressources renouvelables a été entièrement consommée), et constate que, depuis 1971 (année où cela s'est produit pour la première fois), il arrive chaque année plus tôt : en 2019, il a lieu le [40],[41] ; si en 2020, en raison de la pandémie de Covid-19, il n'a eu lieu que le , il revient au dès 2021[41], et au en 2022[42].
Outre les crises mentionnées précédemment, des risques écologiques divers menacent les productions agricoles. Ainsi, le blé, la deuxième céréale produite après le maïs, reste sensible à des infections fongiques. Ug99, une souche de la rouille noire, peut causer une perte complète des récoltes de la plupart des variétés modernes[43]. L’infection se voit propagée par le vent, et aucun traitement n'est connu ; si elle contaminait les grandes régions de production (États-Unis, Europe, Inde, Russie et Chine du Nord), la crise résultante amènerait à une flambée des prix, mais également à des pénuries d’autres produits alimentaires[44]. Comme pour d’autres scénarios de catastrophes, des déplacements massifs de populations ou même des guerres sont à craindre. En revanche, en dépit de débats concernant l’introduction de plantes génétiquement modifiées, les risques que cette introduction provoque une catastrophe écologique globale (par exemple par l’apparition d’insectes résistants à tous les pesticides, ou de mauvaises herbes envahissantes) semblent négligeables[45].
Enfin, les décès dus à la pollution de l’air atteignent un niveau alarmant[n 7] et provoquent un déficit économique annuel de centaines de milliards de dollars, selon la Banque mondiale[50]. Il n'est cependant pas clair qu’il s'agisse d’une catastrophe planétaire au sens de Nick Bostrom, dans la mesure où de nombreuses régions ont les moyens de lutter localement contre cette pollution[n 8].
L'ensemble des menaces décrites dans les sections précédentes, considéré comme une crise globale, a fait l'objet à plusieurs reprises de tentatives d'alerte. Le , la revue BioScience et le journal Le Monde publient un manifeste signé par 15 364 scientifiques de 184 pays : constatant que depuis l'appel « World Scientists' Warning to Humanity » lancé en 1992 par l'Union of Concerned Scientists et plus de 1 700 scientifiques indépendants, dont la majorité des lauréats de prix Nobel de sciences alors en vie, « non seulement l'humanité a échoué à accomplir des progrès suffisants pour résoudre ces défis environnementaux annoncés, mais il est très inquiétant de constater que la plupart d'entre eux se sont considérablement aggravés ». Ils concluent : « Pour éviter une misère généralisée et une perte catastrophique de biodiversité, l'humanité doit adopter une alternative plus durable écologiquement que la pratique qui est la sienne aujourd’hui. Bien que cette recommandation ait été déjà clairement formulée il y a vingt-cinq ans par les plus grands scientifiques du monde, nous n'avons, dans la plupart des domaines, pas entendu leur mise en garde. Il sera bientôt trop tard pour dévier de notre trajectoire vouée à l'échec, car le temps presse »[52],[53],[54] ; en , ce texte est repris par plus de 11 000 scientifiques, insistant sur « le risque de souffrances indicibles en raison de la crise climatique »[55].
Le , l'IPBES, à la suite de sa réunion à Paris, lance à son tour une alerte majeure concernant la perte de biodiversité, affirmant que « la santé des écosystèmes dont nous dépendons, comme toutes les autres espèces, se dégrade plus vite que jamais » et que « un million d'espèces animales et végétales [...] risquent de disparaître à brève échéance », ce qui représente une sur huit des espèces connues à cette date[56].
Le scénario qui a été le plus étudié est celui d’une guerre nucléaire. Bien que la probabilité annuelle d’une telle guerre est faible, Martin Hellman faisait remarquer en 1985 que si cette probabilité reste constante ou ne diminue pas assez vite, la guerre est inévitable à long terme : il viendra fatalement un jour où la chance de la civilisation s’épuisera[57]. Durant la crise des missiles de Cuba, John Kennedy estimait les chances d’une guerre nucléaire « entre une sur trois et une sur deux »[58] ; à plusieurs reprises, le déclenchement d'un tel conflit (avec ses risques d'escalade incontrôlable) n'a été évité que de justesse, comme en 1962, lorsque Vassili Arkhipov s'opposa à l'envoi d'un missile nucléaire contre un navire américain[59], ou lors de la fausse alerte nucléaire soviétique de 1983.
En 2024, les États-Unis et la Russie ont un arsenal combiné de 11 130 armes nucléaires[60] et, en tenant compte des autres puissances nucléaires, il y a 12 500 armes nucléaires en existence dans le monde[60], d’une puissance destructrice totale d’environ 5 000 mégatonnes (Mt), soit 250 000 fois celle de la bombe d’Hiroshima ; bien que cela ne représente qu'une fraction de l'arsenal de la guerre froide et soit en constante diminution depuis celle-ci[n 9], ces chiffres expliquent cependant les estimations pessimistes symbolisées par l’Horloge de l’Apocalypse, laquelle a été avancée en 2018 pour refléter l'inquiétude face à « l'incapacité des dirigeants mondiaux à faire face aux menaces imminentes d'une guerre nucléaire »[61],[62], et encore avancée le pour les mêmes raisons, accompagnées d'une inquiétude nouvelle sur la désinformation cybernétique[63]. Les déclarations menaçantes de Vladimir Poutine accompagnant l'invasion de l'Ukraine à partir de amènent de nombreux experts à réévaluer leurs estimations du risque nucléaire à l’échelle régionale, sans d'ailleurs exclure complètement la possibilité d’une escalade incontrôlable[64] ; une nouvelle avancée (à 90 secondes avant minuit) est effectuée le 23 janvier 2023, en raison du développement de la guerre en Ukraine et des risques correspondants[20].
Le grand public identifiait souvent la guerre nucléaire avec la « fin du monde », mais jusqu’au début des années 1980, les dirigeants et les experts n’envisageaient qu’un faible risque d’extinction complète de l’humanité à la suite d’une telle guerre : dans une célèbre déclaration de 1957, Mao Zedong expliquait qu’il ne craignait pas une guerre nucléaire, à laquelle « de nombreux Chinois survivraient »[65] ; en 1982 encore, Brian Martin estimait qu’un échange de bombes entre les États-Unis et l’URSS pourrait tuer de 400 à 450 millions de personnes directement, et peut-être quelques centaines de millions de personnes supplémentaires en raison des retombées, surtout dans l’hémisphère Nord, soit « guère plus de 10 % de l’humanité »[66]. Cependant, à partir de 1983, des scénarios plus pessimistes, prenant en compte la notion d’hiver nucléaire[67],[68], amenèrent à craindre, au minimum, une destruction complète de la civilisation dans ce cas, en raison en particulier de l’impossibilité de l’agriculture durant plusieurs années[69],[70],[68].
Les armes de l’Apocalypse constituent une forme ultime de la notion de dissuasion nucléaire : il s'agit d’armes suicidaires garantissant qu’un agresseur hypothétique périrait avec l’agressé (et avec le reste de l’humanité). Elles sont techniquement réalisables (par exemple sous forme de bombes H gigantesques salées au cobalt), mais le concept a été abandonné au début des années 1960 (essentiellement parce que, par nature, elles constituaient une épée de Damoclès pour leur possesseur)[71], et elles ne font plus partie des risques existentiels sérieusement envisagés.
D’autres types d’armes et de conflits peuvent entraîner des risques de catastrophe planétaire, en particulier l’utilisation d’armes de destruction massive (chimiques et biologiques), mais aussi certaines formes de bioterrorisme (parce que risquant de déclencher des pandémies incontrôlables)[72].
Bien que les crises financières, telles que la Grande Dépression, aient souvent par le passé présenté un caractère global, on ne pouvait jusque-là pas parler de risque de catastrophe planétaire au sens strict. Mais l’accélération des communications et l’utilisation massive d’Internet rendent désormais envisageable deux types d’effondrement du système : d’une part une déstabilisation des mécanismes financiers, provoquée par exemple par une amplification des fluctuations boursières échappant à tout contrôle (risque qui a été associé aux transactions à haute fréquence lors du Flash Crash de 2010), ou par une crise de confiance analogue à la crise des subprimes, d’autre part une perte physique d’informations, voire de valeurs, liée à une panne d’Internet. Le premier risque est difficilement mesurable (et en particulier mal assurable) ; en revanche, Internet a été conçu pour résister à la plupart des attaques ou des dysfonctionnements envisageables, et ce n’est qu’au début du XXIe siècle qu’il a été remarqué qu’une éruption solaire suffisamment puissante, telle que celle de 1859 ou celle de , pouvait perturber suffisamment les communications et les appareils électroniques pour « renvoyer la civilisation au XVIIIe siècle »[73] ; cependant, une étude de 2021 conclut que le risque a été surévalué, et ne dépasserait pas le niveau de catastrophes « locales », comparables par exemple à la rupture d'un câble transatlantique[74].
Plus généralement, la mondialisation et l’interconnexion des divers systèmes fait désormais qu’une crise locale ou ne concernant qu’une seule ressource peut, par effet domino, amener une catastrophe planétaire (il s’agit d’« écroulements » (crunches) au sens de Nick Bostrom). La plus connue des crises de ce genre est l’arrivée du pic pétrolier (et en particulier ses conséquences sur l’agriculture)[36],[37], mais elle est anticipée depuis plusieurs décennies, et ce ne serait que des effets indirects inattendus qui pourraient la transformer en effondrement global. D’autres scénarios de crise systémique de ce type ont été moins étudiés, et pourraient avoir des conséquences difficilement réparables ; on peut ainsi mentionner la « crise de l’eau », laquelle devient planétaire, mais qui pourrait surtout entraîner une guerre entre la Chine, l’Inde et le Pakistan (trois puissances nucléaires) pour le contrôle des ressources hydriques de l’Himalaya[75],[76], ou encore la pénurie de terres rares, a priori de faible importance, mais pouvant amener des tensions sur la fabrication de produits aussi divers que les ampoules basse consommation, les voitures électriques ou les éoliennes, avec des conséquences non négligeables sur la transition énergétique[77]. Vers 1990, Joseph Tainter a développé des analyses plus générales de ces scénarios ; dans son travail le plus connu, L’Effondrement des sociétés complexes[78], il étudie l’effondrement de la civilisation maya, de la civilisation anasazi[79] et de l’Empire romain, en termes de théorie des réseaux, d’économie de l’énergie et de théorie de la complexité[n 10]. Bien que ces crises résultent d’enchaînements de désastres locaux, non inéluctables et auxquels on peut espérer trouver des parades plus ou moins rapides, Victor Clube et Bill Napier ont fait remarquer que des scénarios de catastrophes systémiques brutales (les « bangs ») déclenchées par un accident local sont également possibles[n 11], et ne laissent qu’une étroite marge de manœuvre avant de devenir planétaires.
Plus précisément, il a été suggéré que des ordinateurs capables d’apprentissage pourraient devenir rapidement superintelligents et entreprendre des actions non prévues par leur programmation, voire hostiles ; ou encore que des robots pourraient entrer en compétition avec l’humanité[84]. Il est d'ailleurs possible que la première superintelligence apparaissant élimine toutes les autres, étant également capable de manipuler toute intelligence inférieure afin d’atteindre ses objectifs[85]. Nick Bostrom appelle cette question le « problème du contrôle »[86].
Stephen Hawking, Bill Gates et Elon Musk ont exprimé leurs craintes d’intelligences artificielles se développant au point d’échapper à tout contrôle, Hawking précisant que cela pourrait signifier « la fin de l’humanité »[87]. Des experts participent en 2009 à une conférence organisée par l’Association for the Advancement of Artificial Intelligence afin de discuter la possibilité, pour des ordinateurs et des robots, d’acquérir une sorte d’autonomie, et la menace que cette éventualité pourrait présenter. Outre le fait que certains robots ont acquis diverses formes de semi-autonomie, allant de la recherche de prises pour se recharger au choix de cibles à attaquer, ils font remarquer que certains virus informatiques peuvent activement lutter contre leur élimination, et atteignent « le niveau d’intelligence des blattes ». Ces experts ajoutent que si une apparition de la conscience telle que la dépeint souvent la science-fiction reste peu vraisemblable, d’autres problèmes ou dangers ne sont nullement à exclure[82]. Plus récemment, divers groupes scientifiques notent une accélération des progrès en intelligence artificielle (dont la victoire d'AlphaGo contre Lee Sedol en a été l’un des signes les plus visibles) pouvant amener à de nouvelles inquiétudes[88],[89],[90]. Eliezer Yudkowsky pense que les risques créés par l’intelligence artificielle sont plus imprévisibles que toutes les autres sortes de risques et ajoute que la recherche à ce sujet se voit biaisée par l’anthropomorphisme : les gens basant leur analyse de l’intelligence artificielle sur leur propre intelligence[n 12], cela les amène à sous-estimer les possibilités de l’IA. Il sépare d’ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l’IA d’atteindre ses objectifs[n 13]), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l’IA sont en fait nuisibles à l’humanité[93]. Nick Bostrom rejoint cette position en publiant en 2014 Superintelligence : Paths, Dangers, Strategies[94].
Des craintes plus immédiates ont été exprimées, s'inquiétant de ce que l'utilisation d'intelligences artificielles faibles permettent de créer des fake news et de les propager efficacement sur les réseaux sociaux, amenant par exemple à des manipulations politiques d'envergure ; un avertissement est régulièrement donné chaque année depuis 2020 à ce sujet par le Bulletin of the Atomic Scientists, considérant que « des vagues de mensonges portées par Internet... mettent en danger la démocratie en général, et sabotent les efforts globaux de lutte contre les risques existentiels »[95]. À partir de 2020, des logiciels tels que GPT-4 et DALL-E, permettant de créer des textes et des images difficiles à distinguer de documents authentiques, apparaissent sous des formes accessibles au grand public ; ils sont soumis par leurs créateurs eux-mêmes à de sévères restrictions d'emploi, pour éviter des « effets néfastes potentiels tels que la désinformation, le spam, l'hameçonnage, etc. »[96], mais il n'est pas certain que des produits analogues ne puissent être développés par des groupes d'acteurs moins scrupuleux[97].
Une croissance exponentielle est observée dans le secteur des biotechnologies ; Noun et Chyba prédisent que cela amènera à une énorme amélioration de ces techniques dans les décennies à venir[98]. Ils estiment que les risques correspondants de guerre biologique et de bioterrorisme sont plus importants que ceux des armes nucléaires ou chimiques, parce que les agents infectieux sont plus faciles à produire, et que leur production en masse est difficilement contrôlable, les capacités technologiques correspondantes devenant accessibles même à des individus isolés[98]. Jusqu’à présent, les utilisations terroristes des biotechnologies ont été rares, mais il est difficile de savoir si cela est dû à un manque de moyens, ou à un manque de motivation[98].
Le risque principal attendu dans l’avenir est l’apparition d’agents infectieux génétiquement modifiés ou entièrement artificiels[98]. On estime en effet en général que la virulence des agents infectieux naturels, qui ont coévolué avec leurs hôtes, est limitée par la nécessité que les hôtes survivent assez longtemps pour transmettre l’agent[99], mais il est possible de modifier génétiquement ces agents (volontairement ou accidentellement) pour changer leur virulence et d’autres caractéristiques[98]. Ainsi, un groupe de chercheurs australiens a involontairement changé les caractéristiques du virus de la variole de la souris en essayant de développer un virus qui stériliserait les rongeurs[98] ; le virus modifié est devenu extrêmement létal même chez des souris vaccinées ou naturellement résistantes[100],[101],[102]. Si elles ne sont pas strictement réglementées, les technologies permettant des manipulations génétiques des caractéristiques des virus risquent de devenir aisément accessibles dans l’avenir[98].
Noun et Chyba proposent trois catégories de mesures pour réduire les risques de pandémies (naturelles ou artificielles) : régulation ou interdiction de recherches potentiellement dangereuses, amélioration de la veille sanitaire, et développement des moyens de lutte contre la propagation d’épidémies (par exemple en produisant des vaccins plus efficaces, et en les distribuant plus largement)[98].
De nombreuses nanotechnologies sont en développement ou déjà utilisées[103]. La seule qui semble présenter un risque de catastrophe planétaire significatif est l’assemblage moléculaire, une technique qui permettrait de construire des structures complexes à une précision atomique[104]. L’assemblage moléculaire est pour l’instant un concept purement théorique et demandant des avancées importantes en nanotechnologie, mais qui pourrait permettre de produire des objets sophistiqués en grande quantité et à bas coût dans des nano-usines de la taille d’imprimantes 3D (lesquelles sont une version grossière et macroscopique du même concept)[103],[104]. Lorsque ces nano-usines pourront elles-mêmes en produire d’autres, la production pourrait être limitée seulement par la quantité de ressources relativement abondantes, comme les matériaux bruts, l’énergie, et les logiciels ; elles pourraient ainsi, entre autres, fabriquer à bas prix des armes sophistiquées, autonomes et durables[103].
Chris Phoenix classe les risques de catastrophe créés par les nanotechnologies en trois catégories[105] :
Il signale cependant également que les nanotechnologies sont susceptibles de diminuer plusieurs autres risques de catastrophe planétaire[103].
Plusieurs chercheurs affirment que l’essentiel de ces risques vient du potentiel militaire et de course aux armements[100],[103],[106]. On a suggéré plusieurs raisons pour lesquelles ces techniques pourraient amener à des escalades instables (contrairement par exemple aux armes nucléaires) :
un grand nombre d’acteurs peuvent être tentés de participer à l’escalade, le coût correspondant étant faible[103] ;
la fabrication d’armes par cette méthode est peu coûteuse et aisée à camoufler[103] ;
la difficulté de contrôle des intentions des autres acteurs pousse à s’armer par prudence, et à déclencher des attaques préventives[103],[107] ;
l’assemblage moléculaire diminue la dépendance envers le commerce international[103], lequel est un facteur de paix ;
une guerre d’agression devient économiquement plus intéressante pour l’agresseur, la fabrication d’armes étant bon marché, et les humains moins nécessaires sur le champ de bataille[103].
L’auto-régulation par tous les acteurs, étatiques ou non, semblant difficile à atteindre[108], des mesures pour limiter les risques d’armement et de guerre ont été principalement proposées dans le cadre du multilatéralisme[103],[109]. Une infrastructure internationale, peut-être analogue à l’Agence internationale de l’énergie atomique et consacrée spécifiquement aux nanotechnologies, devrait être développée, donnant plus de pouvoir au niveau supranational[109]. Il est également possible d’encourager le développement technologique différentiel, privilégiant les technologies défensives[103],[110].
D’autres catastrophes planétaires dues aux nanotechnologies sont envisageables. Ainsi, en 1986, dans son livre Engines of Creation[111], Eric Drexler envisageait la notion de gelée grise, un thème souvent repris par les médias et la science-fiction[112],[113] ; ce scénario met en jeu de petits robots autoréplicatifs qui détruiraient toute la biosphère en l’utilisant comme source d'énergie et de matériaux. Cependant, désormais, les experts du domaine (y compris Drexler) ont discrédité ce scénario ; selon Chris Phoenix, « une gelée grise ne pourrait être que le résultat d’un processus délicat et délibéré, et non un accident »[114].
Les risques décrits dans cette section correspondent à des aléas indépendants des actions humaines ; la plupart, à l'exception principalement des pandémies, ne sont également guère atténués par des mesures préventives éventuelles. Leur probabilité annuelle, comparée à celle des risques d'origine humaine, est cependant estimée le plus souvent comme étant négligeable[14] (là encore à l'exception des pandémies).
La mortalité due à une pandémie est égale à la virulence de l’agent infectieux, multipliée par le nombre total de personnes infectées. On suppose en général qu’il y a une limite à la virulence des agents infectieux ayant coévolué avec leurs hôtes[99], parce qu’un agent qui tue trop rapidement son hôte n’aura pas le temps de se propager[123]. Ce modèle simple prédit que s’il n’y a pas de lien entre virulence et mode de transmission, les agents infectieux évolueront vers des formes peu virulentes et à transmission rapide. Cette hypothèse n’est cependant pas toujours vérifiée, et lorsqu’une relation existe entre virulence et transmission, par exemple parce que la décomposition cadavérique libère l’agent infectieux, de hauts niveaux de virulence peuvent alors apparaître[124], limités seulement par d’autres facteurs tels que les interactions entre les différents hôtes (puces, rats et humains dans le cas de la peste, par exemple)[99],[125] ; de plus, si la pandémie est un phénomène secondaire lié à une zoonose, la virulence chez les humains peut être totale[126]. De nombreuses pandémies historiques ont ainsi eu un effet dévastateur sur des populations importantes, les plus connues étant la peste noire (entre 1347 et 1352) et la grippe espagnole (1918-1919) ; cela implique qu’une pandémie globale pourrait constituer une menace réaliste contre la civilisation.
La veille sanitaire actuelle rend la probabilité d’une telle pandémie assez faible, au moins pour des agents infectieux similaires à ceux connus (et en particulier non modifiés par l’utilisation de biotechnologies). Cependant, la possibilité qu’apparaisse un nouveau pathogène (comme dans le cas des maladies émergentes), ou qu’une mutation rende beaucoup plus virulent un virus tel que celui de la grippe, n’est jamais à exclure ; un affaiblissement des services de santé lié par exemple à une crise économique pourrait également rendre ce risque de catastrophe planétaire beaucoup plus important. Inversement, les mesures de confinement prise lors de la pandémie de Covid-19 pourraient avoir des conséquences économiques majeures ; la transformation de cette crise en catastrophe planétaire n'est pas exclue par certains collapsologues[127],[13].
Sans qu’il s’agisse directement de pandémies, l’apparition de « super-bactéries » résistant à tous les antibiotiques fait peser de nouvelles menaces de crises sanitaires[128],[129]. D’autre part, des maladies telles que l’obésité ou les allergies, bien que non contagieuses, sont décrites métaphoriquement comme des pandémies[130],[131] ; si elles s’étendaient, elles pourraient finir par exercer d’importantes pressions dysgéniques à l’échelle mondiale[132].
Un changement climatique est une modification durable des climats de l’ensemble du globe. Dans un passé relativement récent (à l’échelle géologique), la Terre a connu des climats allant de périodes glaciaires à des épisodes si chauds que des palmiers poussaient en Antarctique. On suppose de plus que des épisodes dits de Terre boule de neige, où tous les océans étaient recouverts de glace, ont eu lieu dans un passé beaucoup plus reculé. Des changements climatiques soudains (en quelques décennies) ont eu lieu à une échelle régionale, par exemple durant le petit âge glaciaire, ou lors de l’optimum climatique médiéval, mais les changements climatiques globaux se sont produits lentement, du moins depuis le début du Cénozoïque[n 15], et le climat est devenu plus stable encore depuis la fin de la dernière période glaciaire il y a dix mille ans. La civilisation (et en particulier l’agriculture) s’étant développée durant une période de climats stables, une variation naturelle vers un nouveau régime climatique (plus chaud ou plus froid) pourrait constituer un risque de catastrophe planétaire[134].
La période actuelle (l’Holocène) est considérée comme un épisode interglaciaire au milieu d’une oscillation assez régulière entre glaciations et déglaciations, d’une période d’environ 50 000 ans, que l’on explique par la théorie astronomique des paléoclimats. Une nouvelle glaciation constituerait certainement une catastrophe planétaire au sens de Bostrom, mais outre que le modèle n’en prédit pas pour les quelques millénaires à venir, l’intervention du réchauffement climatique modifiera probablement l’évolution des climats, pouvant même amener à l’apparition de régimes très différents de ceux que la Terre a connu dans le passé[25].
L’éruption d’un supervolcan[135],[136] peut amener à un hiver volcanique semblable à un hiver nucléaire, lié à une importante pollution (soufre, cendres et gaz carbonique). Un évènement de ce type, l’éruption de Toba[137], s’est produit en Indonésie il y a environ 71 500 ans ; selon la théorie de la catastrophe de Toba[138], cette éruption aurait pu réduire les populations humaines à quelques dizaines de milliers d’individus.
La caldeira de Yellowstone est un autre de ces supervolcans, ayant connu plus d’une centaine d’éruptions formatrices de caldeiras au cours des derniers 17 millions d’années, dont une douzaine de « superéruptions »[139]. Lors de la dernière de ces éruptions, il y a 640 000 ans, les cendres éjectées recouvrent tous les États-Unis à l’ouest du Mississippi, ainsi que le nord-ouest du Mexique[139].
Ce type d’éruption entraine d’importantes conséquences sur le climat global, pouvant aller jusqu’à déclencher une glaciation si le soleil reste caché suffisamment longtemps par les cendres, ou au contraire un réchauffement climatique si ce sont les gaz à effet de serre qui l’emportent. À une plus petite échelle, cela s’est produit en 1816 après l’éruption du Tambora, avec pour conséquence une « année sans été ».
Bien que ne relevant pas du même mécanisme, les éruptions ayant donné naissance aux provinces magmatiques s'accompagnent sans doute (durant des dizaines voire des centaines de milliers d'années) d'émissions de gaz et de poussières en quantité comparable à celle des supervolcans. Elles demeurent beaucoup plus rares (la plus récente, celle du groupe basaltique du Columbia, ayant eu lieu il y a environ quinze millions d’années), et sont généralement considérées comme responsables des plus importantes des extinctions de masse, l’extinction Permien-Trias étant par exemple corrélée à la formation des trapps de Sibérie. Il s’agit là clairement d’un risque existentiel, mais dont nous serions probablement prévenus des millénaires à l’avance.
Le champ magnétique terrestre s’est inversé de nombreuses fois durant son histoire, laissant en particulier des traces dans les roches du fond océanique, permettant de dater ces inversions. Elles sont actuellement peu fréquentes, la dernière ayant lieu il y a 780 000 ans. Au moment de la transition, le champ s’affaiblit considérablement, permettant aux radiations (vent solaire, éruptions solaires, rayons cosmiques) d’atteindre le sol, mettant en danger la civilisation par augmentation des cancers, des mutations, etc. Ces théories restent cependant actuellement partiellement discréditées, l’analyse statistique ne montrant pas de corrélation entre ces inversions et des extinctions de masse[140],[141].
Un autre risque de catastrophe planétaire est un mégatsunami, vague géante qui pourrait être causée par exemple par l’effondrement d’une ile volcanique. La probabilité de ce genre d’évènement a été fortement exagérée par les médias[142] et ces scénarios ne correspondent qu’à des catastrophes régionales. Cependant, un impact cosmique se produisant dans l’océan (tel que celui correspondant à l’extinction des dinosaures) pourrait provoquer un mégatsunami balayant des continents entiers[143].
Plusieurs astéroïdes sont entrés en collision avec la Terre au cours de son histoire. L’astéroïde de Chicxulub, par exemple, est la cause la plus probable de l'extinction des dinosaures non-aviens il y a 66 millions d’années, à la fin du Crétacé[144]. Un objet de plus d’un kilomètre de diamètre frappant la Terre détruirait probablement la civilisation, et à partir de trois kilomètres, aurait de bonnes chances de provoquer l’extinction de l’humanité[145] ; on estime que ces impacts se produisent en moyenne une fois par 500 000 ans (les impacts de gros objets, dépassant les 10 kilomètres, étant à peu près 100 fois moins fréquents)[145]. Le scénario d’une collision combine plusieurs des catastrophes planétaires vues précédemment : hiver d’impact, déclenchement d’éruptions volcaniques et de mégatsunamis (si l’impact a lieu dans l’océan), mais aussi séismes, tempêtes de feu, etc.[81].
Autres menaces cosmiques
En dehors des impacts d’astéroïdes, et peut-être d’éruptions solaires exceptionnelles[73], les autres menaces identifiables correspondent typiquement à des scénarios à très longue échéance, ou de plausibilité très faible ; il n’est au demeurant pas envisageable dans un avenir prévisible de s’en protéger. Ainsi, le Soleil passera inéluctablement par une phase d’expansion (le transformant en géante rouge englobant peut-être l’orbite terrestre) dans environ 7 milliards d'années[146] ; de même, des simulations des mouvements planétaires à long terme montrent qu’une collision entre Mercure et la Terre (un risque existentiel pour toute forme de vie[143]) a une probabilité non négligeable de se produire d’ici quelques milliards d’années[147].
De nombreux évènements très énergétiques, tels que les sursauts gamma[148], les supernovas et les hypernovas, constitueraient des risques existentiels s'ils se produisaient à moins de quelques centaines d'années-lumière de la Terre (une hypernova pourrait être la cause de l’extinction de l’Ordovicien-Silurien[149]). Cependant, la probabilité d’une telle occurrence est estimée comme très faible[150].
D’autres risques, tels que le passage du système solaire à travers une nébuleuse obscure ou un nuage de poussière cosmique (qui pourrait amener d’importants changements climatiques), ou l'approche d'une autre étoile à moins d'une année-lumière du Soleil[n 16], sont eux aussi estimés comme négligeables à l’échelle des prochains millénaires[152].
Depuis La Guerre des mondes, la vie extraterrestre et ses interactions avec l’espèce humaine sont des thèmes récurrents de la science-fiction. Cependant, bien que des scientifiques tels que Carl Sagan estiment que son existence (mais pas nécessairement l’existence d’une intelligence extra-terrestre) est très probable, les distances interstellaires sont telles qu'une interaction avec l'humanité semble peu vraisemblable. Le seul risque qui peut être raisonnablement envisagé est celui d’une contamination accidentelle (par exemple par des bactéries martiennes), et même ce scénario est considéré comme très peu réaliste[153],[n 17].
Estimation de la vraisemblance du risque
Certains aléas ne dépendant pas des actions humaines ont une probabilité qu’on peut envisager de calculer avec précision. Ainsi, la probabilité que l’Humanité disparaisse au cours du prochain siècle en raison d’un impact cosmique serait d’une chance sur un million[155] (même si certains scientifiques affirment que le risque pourrait être beaucoup plus grand[156],[157]). De même, la fréquence d’éruptions volcaniques d’ampleur suffisante pour créer une catastrophe climatique, analogue à celle ayant résulté de l’explosion de Toba (qui aurait peut-être provoqué la quasi-extinction de l’humanité[158]) a été estimée d’une par 50 000 ans[135].
Le danger relatif que posent d’autres menaces est beaucoup plus difficile à estimer. En 2008, à la conférence sur les risques de catastrophe planétaire organisée à l’Université d’Oxford, un groupe d’experts réputés regroupant leurs compétences sur différents types de risques a suggéré une probabilité de 19 % de l’extinction de l’espèce humaine durant le prochain siècle (cependant, le compte-rendu de la conférence avertit que la méthode utilisée pour synthétiser les réponses données ne prend pas correctement en compte l’absence de réponse à certaines questions[21]). Le rapport annuel pour 2016 de la Global Challenges Foundation fait remarquer que même les estimations les plus optimistes impliquent que l’Américain moyen risque cinq fois plus de mourir dans une catastrophe planétaire que dans un accident de voiture[159],[160].
L’estimation précise de ces risques présente de considérables difficultés méthodologiques. L’attention a surtout été donnée à des risques portant sur les cent prochaines années, mais des prévisions sur un tel laps de temps sont difficiles : si les menaces posées par la nature sont relativement constantes (quoique de nouveaux risques peuvent être découverts), les menaces anthropogéniques sont susceptibles de changer dramatiquement avec le développement de nouvelles technologies. La capacité des experts à prédire l’avenir sur de telles échelles de temps s’est par le passé révélée assez limitée. De plus, outre les aspects technologiques de ces nouvelles menaces, l’analyse de leur impact sur la société et de la capacité qu’elle a à s’en défendre est limitée par les difficultés méthodologiques des sciences humaines, et par la vitesse avec laquelle les relations internationales peuvent changer[159].
Les risques existentiels posent d’autres problèmes d’estimation, en raison d’un biais de sélection majeur, le principe anthropique. Contrairement à la plupart des autres catastrophes, le fait qu’une extinction massive concernant l’humanité ne se soit jamais produite dans le passé ne donne aucune information sur la probabilité d’un tel évènement dans l’avenir, parce que, par définition, une extinction ne laisse pas d’observateurs (humains), et donc, même si des catastrophes constituant des risques existentiels étaient très probables, le fait que l’humanité ait survécu signifierait seulement qu’elle a eu énormément de chance[161]. Il reste cependant possible pour estimer ces risques de se servir d’évènements analogues ayant laissé des traces, comme les cinq grands épisodes d’extinction ayant précédé l’apparition de l’Homme ; il est parfois aussi possible de calculer les effets de telle ou telle catastrophe technologique, par exemple d’un hiver nucléaire[8].
En 1950, le physicien italien Enrico Fermi se demanda pourquoi l’humanité n’avait pas encore rencontré de civilisations extra-terrestres. Comme il le demandait, « où est tout le monde ? »[162]. Étant donné l’âge de l’Univers et son grand nombre d’étoiles, la vie extraterrestre devrait être banale, à moins que la Terre soit très atypique. C’est cette bizarrerie qui est connue sous le nom de paradoxe de Fermi.
Bien qu’elle ne soit pas majoritairement acceptée, une explication proposée du paradoxe est la notion de risque existentiel, et plus précisément, l’idée que des civilisations que nous aurions pu observer (ou qui auraient pu nous rendre visite) ont été détruites avant que l’humanité apparaisse[161],[163].
Importance économique et éthique des risques existentiels
La réduction des risques existentiels bénéficie surtout aux générations futures ; en fonction de l’estimation de leur nombre, on peut considérer qu’une diminution même légère du risque a une grande valeur morale. Derek Parfit affirme ainsi que nos descendants pourraient potentiellement survivre encore cinq milliards d’années, jusqu’à ce que l’expansion du Soleil rende la Terre inhabitable[164],[165] ; Nick Bostrom pense même que la colonisation de l’espace permettrait à un nombre astronomique de personnes de survivre durant des centaines de milliards d’années[10] ; c’est la comparaison entre la population actuelle et cet énorme nombre de descendants potentiels détruits par l’extinction qui justifie « moralement » qu’on fasse tout pour réduire les risques.
Ces positions n’ont pas été vraiment contestées, bien que d’un point de vue économique, il faille prendre en compte le fait que la valeur d’un bien actuel est plus importante que la valeur du même bien s’il ne doit être touché que dans l’avenir ; le modèle le plus couramment utilisé, celui de l’actualisation exponentielle, pourrait rendre ces bénéfices futurs bien moins significatifs. Cependant, Jason Gaverick Matheny a affirmé que ce modèle n’est pas pertinent pour déterminer la valeur de la réduction de risques existentiels[155].
Certains économistes ont essayé d’estimer l’importance des risques de catastrophe planétaire (mais pas des risques existentiels). Martin Weitzman prétend que l’espérance (au sens statistique) du coût économique résultant de changements climatiques est importante en raison de situations auxquelles les modèles affectent une faible probabilité, mais qui provoqueraient des dommages catastrophiques[166]. Plus généralement, Richard Posner pense que nous faisons bien trop peu, le plus souvent, pour pallier les risques de catastrophes planétaires lorsque ceux-ci sont faibles et difficiles à estimer[4].
Outre les biais cognitifs analysés dans la section suivante, il y a aussi des raisons économiques expliquant pourquoi peu d’efforts sont faits pour réduire les risques existentiels, et même certains risques de catastrophe planétaire non irréparable : ces risques concernent un bien global, c´est-à-dire que même si une grande puissance les réduit, elle ne profitera que d’une petite partie du bénéfice correspondant ; de plus la majorité de ces bénéfices seront perçus par les générations futures, lesquelles n’ont évidemment aucun moyen de payer une assurance contre ces risques aux générations actuelles[8].
Perception des risques
Selon Eliezer Yudkowsky, de nombreux biais cognitifs peuvent influencer la façon dont les individus et les groupes estiment l’importance des risques de catastrophe globale, biais parmi lesquels figurent l’insensibilité à l’étendue, l’heuristique de disponibilité, l'erreur de conjonction, l’heuristique d’affect, et l’effet d’excès de confiance[91]. Ainsi, l’insensibilité à l’étendue amène les gens à être souvent plus concernés par les menaces individuelles qu’à celles s’adressant à des groupes plus vastes[91] (c’est pourquoi leurs dons pour des causes altruistes ne sont pas proportionnels à l’ampleur du problème[167]) ; cela fait qu’ils ne considèrent pas l’extinction de l’humanité comme un problème aussi grave qu’il devrait l’être. De même, l'erreur de conjonction les amène à minimiser les catastrophes qui n’ont que peu de rapport avec celles dont ils ont eu connaissance, et à supposer que les dommages qu’elles causeront ne seront pas beaucoup plus graves[91].
Il a été souvent remarqué[168] que la majorité des risques anthropogéniques mentionnés précédemment correspondent à des mythes souvent très anciens, ceux de Prométhée, de Pandore et, plus récemment, celui de l’apprenti sorcier étant les plus représentatifs. La symbolique des quatre Cavaliers de l’Apocalypse, les trois derniers représentant la Guerre, la Famine et la Peste, se trouve déjà dans l’Ancien Testament sous la forme du choix inconfortable offert par Dieu au roi David[169]. Les divers risques de révolte des machines apparaissent dans le mythe du Golem, et, combinés aux biotechnologies, dans l’histoire du monstre de Frankenstein. D’autre part, il a été suggéré que les récits de catastrophes de diverses traditions religieuses (où elles sont le plus souvent liées au courroux des divinités) correspondraient à des souvenirs de catastrophes réelles (par exemple le Déluge serait lié à la reconnexion de la mer de Marmara avec la mer Noire) ; sous le nom de catastrophisme cohérent (coherent catastrophism)[157], Victor Clube et Bill Napier ont développé l’hypothèse selon laquelle des pluies de météorites cataclysmiques auraient donné naissance à de nombreux mythes cosmogoniques, allant de l’histoire de la destruction de Sodome et Gomorrhe (thèse défendue également par Marie-Agnès Courty) aux descriptions de l’Apocalypse[23] ; leurs idées sont cependant mal acceptées par la communauté scientifique[170].
L’existence de ces interprétations « mythiques », ainsi que de nombreuses prophéties de fin du monde[n 18], facilite un phénomène de refus partiel ou total de prise en compte de ces risques de catastrophe, connu sous le nom de syndrome de Cassandre[n 19],[172] : tandis que les risques anthropogéniques sont minimisés en les attribuant à des peurs irrationnelles, les catastrophes décrites dans les mythes sont jugées exagérées par l’ignorance et la déformation des souvenirs[n 20],[173].
L’analyse des risques causés par l’Homme souffre d’ailleurs de deux biais opposés : les lanceurs d’alerte tendent à exagérer le risque pour se faire entendre[n 21], voire à dénoncer des risques imaginaires au nom du principe de précaution[174] ; de puissants intérêts économiques essaient à l’inverse de minimiser les risques liés à leurs activités, comme le montre par exemple l’affaire de l’institut Heartland[175], et plus généralement l’analyse des stratégies de désinformation exposée dans Les Marchands de doute[n 22].
Donnant une interprétation rationnelle au mythe de l’âge d’or[n 23], Jared Diamond fait enfin remarquer que certaines catastrophes, les « écroulements » (crunches) de Nick Bostrom, peuvent passer inaperçues des sociétés qui les subissent, faute d’une mémoire historique suffisante[n 24] ; c’est par exemple ainsi qu’il explique le désastre écologique subi par les habitants de l’île de Pâques[177].
Organisations d'évaluation des risques
Le Bulletin of the Atomic Scientists est un des plus vieux organismes se préoccupant de risques globaux ; il fut fondé en 1945 après que le bombardement d’Hiroshima a fait prendre conscience par le grand public des dangers de l’arme atomique. Il étudie les risques associés aux technologies et aux armes nucléaires, et est célèbre pour sa gestion de l’Horloge de la fin du monde depuis 1947.
En 1972, les travaux du Club de Rome ont donné lieu à un célèbre rapport, Halte à la croissance ?, mettant en garde contre les risques d’épuisement des ressources naturelles et de catastrophes écologiques avant la fin du XXIe siècle. Paru en plein milieu des Trente Glorieuses, le rapport est fortement contesté dès sa parution pour son pessimisme[n 19],[178], mais ses hypothèses sont plutôt considérées comme optimistes quarante ans après sa parution par le Club : l'épuisement arriverait en fait avant la moitié du XXIe siècle[179].
Depuis le début des années 2000, un nombre croissant de scientifiques, de philosophes et de milliardaires des nouvelles technologies ont créé des organisations indépendantes ou liées aux milieux académiques, consacrées à l’analyse des risques de catastrophe planétaire[180].
Enfin, d’autres groupes d’évaluation des risques appartiennent à des organisations gouvernementales. Ainsi, l’Organisation mondiale de la santé (OMS) possède un département appelé Alerte et Réponse Globale (GAR) chargé de la coordination entre États membres en cas de pandémie[189],[190] ; l'Agence des États-Unis pour le développement international (USAID) possède un programme analogue[191]. Le Laboratoire national Lawrence Livermore a une division, le Global Security Principal Directorate (Directoire principal de la sécurité globale) chargé d’étudier pour le compte du gouvernement des questions telles que la bio-sécurité, le contre-terrorisme, etc[192].
Précautions et prévention
La notion de gouvernance globale respectant les limites planétaires a été proposée comme une approche de prévention des risques de catastrophe écologique. En particulier, le domaine de la géo-ingénierie envisage de manipuler l’environnement à l’échelle du globe pour combattre les changements anthropogéniques de la composition atmosphérique. Des techniques globales de stockage et de conservation des aliments ont été envisagées, mais leur coût serait élevé, et de plus elles pourraient aggraver les conséquences de la malnutrition. David Denkenberger et Joshua Pearce ont suggéré d'utiliser diverses nourritures alternatives pour diminuer les risques de famine liés à des catastrophes planétaires telles qu’un hiver nucléaire ou un changement climatique soudain[193], par exemple de convertir la biomasse (les arbres et le bois) en produits comestibles[194] ; cependant, il faudra beaucoup d’avancées dans ce domaine pour que ces méthodes permettent à une fraction importante de la population de survivre[195]. D’autres suggestions de diminution des risques, telles que les stratégies de déviation des astéroïdes pour parer aux risques d’impact, ou le désarmement nucléaire, s’avèrent économiquement ou politiquement difficiles à mettre en œuvre. Enfin, la colonisation de l’espace est une autre proposition faite pour augmenter les chances de survie face à un risque existentiel[196], mais des solutions de ce type, inaccessibles actuellement, demanderont sans doute entre autres le recours à l’ingénierie à grande échelle.
Parmi les précautions effectivement prises individuellement ou collectivement, on peut citer :
La constitution de réserves de nourriture (prévues pour plusieurs années) et d’autres ressources faites par des survivalistes dans le cadre, par exemple, de construction d’abris antiatomiques.
La Réserve mondiale de semences du Svalbard, une chambre forte souterraine sur l’île norvégienne du Spitzberg destinée à conserver dans un lieu sécurisé des graines de toutes les cultures vivrières de la planète et ainsi de préserver la diversité génétique ; certaines de ces semences devraient se conserver plusieurs milliers d’années[197]. En , la chambre forte a été inondée, le pergélisol ayant fondu sous l’effet du réchauffement climatique, sans pour autant endommager les réserves de graines[198],[199].
La construction de la Grande muraille verte, un exemple de coopération internationale de lutte contre le changement climatique et la désertification ; ce projet de l'Union africaine devrait occuper un couloir de 15 km de large s'étendant sur 7 800 km au sud du Sahara[200]. Cependant, un rapport commandé par la Convention des Nations unies sur la lutte contre la désertification et publié le constate que seuls quatre millions d'hectares sur un objectif de cent ont été plantés en quinze ans, et que seuls le Sénégal et l'Éthiopie ont vraiment donné de l'importance au projet[201].
Analyses et critiques
L'importance des risques détaillés dans les sections précédentes est rarement niée, même si les risques dus à l’homme sont souvent minimisés[n 22] ; cependant, les analyses de Nick Bostrom et d'autres auteurs transhumanistes ont été critiquées de plusieurs points de vue distincts.
Critiques techniques
Plusieurs des risques mentionnés par Nick Bostrom dans ses ouvrages sont jugés exagérés (voire imaginaires), ou correspondent à des échelles de temps si vastes qu’il semble un peu absurde de les regrouper avec des menaces presque immédiates[202],[n 26]. D’ailleurs, les calculs de probabilité, d’espérance ou d’utilité sont difficiles ou mal définis pour ce genre de situation, comme le montrent par exemple des paradoxes tels que l’argument de l’Apocalypse, et comme Nick Bostrom le reconnaît lui-même[203],[202]. En particulier, il a développé un argument éthique affirmant que le nombre exorbitant de nos descendants voués au néant par une catastrophe existentielle justifie qu’on emploie tous les moyens imaginables pour diminuer, si peu que ce soit, la probabilité de cet accident[10] ; cependant, les calculs sur lesquels il s’appuie ont été contestés et cet argument pourrait bien n’être qu’un sophisme[155].
Nick Bostrom et Max Tegmark ont publié en 2005 une analyse d’un risque d’instabilité de l’univers entier[204]. Indépendamment de la validité de leurs calculs (tendant à montrer que le risque est très faible), on peut se demander s'il y a réellement un sens à parler d’une catastrophe dont nul ne serait averti, et qui ne laisserait aucun observateur ; lors d’une discussion analogue sur le risque d’une réaction en chaîne embrasant toute l’atmosphère, un ami avait répondu aux angoisses de Richard Hamming par « Ne t’inquiète pas, Hamming, il ne restera personne pour te blâmer »[116].
Positions philosophiques
Les analyses de Nick Bostrom s’appuient sur le transhumanisme, une idéologie prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains ; il considère ainsi que tout ce qui pourrait empêcher l’humanité de développer pleinement son potentiel est un risque existentiel[6] ; estimant par exemple que seule la conquête de l'espace interstellaire peut mettre l'humanité à l'abri des dangers cosmiques prévisibles à l'échelle des centaines de millions d'années, il met parmi les risques existentiels la disparition du potentiel technologique nécessaire à cette colonisation[205].
Cette position a été sévèrement critiquée, entre autres parce qu’elle amène à nier des valeurs auxquelles l’humanité actuelle est attachée, au nom de valeurs futures hypothétiques[7]. Steve Fuller remarque en particulier que si une catastrophe planétaire ne détruit pas toute l’humanité, les survivants pourront légitimement estimer dans certains cas que leur situation s’est améliorée[206].
Des scénarios de catastrophe planétaire sont en germe dans les plus anciens mythes répertoriés : déluge engloutissant tous les êtres vivants dans l’Épopée de Gilgamesh, destruction par la glace, l’eau ou le feu dans le mythe nordique du Ragnarök, liste des dix plaies d'Égypte, etc.[207]. Mais aucun de ces récits, ni de ceux proposés par la science-fiction jusque vers 1950, ne se soucie de vraisemblance scientifique ou sociologique ; les descriptions de dystopies (correspondant aux « hurlements » (shrieks) de Nick Bostrom), à l’exception notable de 1984, se préoccupent également fort peu de la cohérence et de la viabilité des systèmes qu'elles proposent en repoussoir.
Après Hiroshima, une abondante littérature post-apocalyptique se développe, comportant d’ailleurs des œuvres non rangées dans le champ de la science-fiction, comme Malevil, mais la plupart de ces romans se concentrent sur la question de la survie, et non sur les causes de la catastrophe (presque toujours nucléaire)[n 14] ; en 1985, Jacques Goimard expliquera la popularité de ces récits par le « désir d’effondrement »[208].
Au début des années 1970 apparaissent des descriptions de catastrophes environnementales visant au réalisme. Ainsi, John Brunner publie Tous à Zanzibar (1968) et Le Troupeau aveugle (1972), dénonçant respectivement les dangers de la surpopulation et de la pollution, et se voulant scientifiquement irréprochables ; il s’appuie sur une documentation très à jour, reflétant les analyses des premiers mouvements écologistes, et s’avère même étonnamment précis dans ses prédictions[209].
Des romans décrivant des catastrophes dues aux nouvelles technologies (intelligence artificielle, biotechnologies, nanotechnologies, etc.) n’apparaissent pas avant 1990, et restent marginaux ; bien plus nombreux sont ceux se préoccupant, comme dans les romans de Iain Banks sur la Culture, de la façon dont les humains pourraient s’adapter à ces technologies, dans des univers inspirés des idées transhumanistes.
Les catastrophes ont constitué un sujet de choix depuis les débuts de l’histoire du cinéma (avec par exemple en 1927 Metropolis, considéré comme le premier film dystopique), mais la difficulté de la réalisation d'effets spéciaux convaincants fait que les réalisateurs se sont plutôt attachés à la description d’un monde dévasté, comme dans la série des Mad Max.
Plus récemment encore, d’autres types de catastrophes planétaires, en particulier les pandémies, ont fait l’objet de films demandant moins d'effets spéciaux et au demeurant plus réalistes, le film le plus célèbre de ce type étant Contagion.
↑Plus précisément, dans un article pour le Journal of Evolution and Technology, il définit un risque existentiel comme « un évènement qui annihilerait la vie intelligente sur Terre ou réduirait son potentiel de façon drastique et permanente »[6] ; cette approche s'appuyant sur les valeurs du transhumanisme est largement contestée par d'autres courants de pensée, comme par exemple par Francis Fukuyama[7].
↑Des définitions plus quantitatives ont été données par la suite ; ainsi, la Global Challenges Foundation définit un tel risque comme « provoquant la mort d'au moins un dixième de l'humanité »[9].
↑En négligeant les évènements de très faible probabilité, comme les impacts cosmiques par des objets de plus de 3 km de diamètre, au demeurant minimisés par les théories de l'époque concernant les grandes extinctions, attribuées à des causes graduelles.
↑Le risque d'une extinction complète est évidemment diminué par l'effectif même de l'humanité (plus de 8 milliards d'individus), et l'existence de groupes développant des stratégies de survie à la plupart des catastrophes envisageables.
↑Même pour des risques indépendants des actions humaines (impacts cosmiques, volcanisme, etc.) et s'étant déjà produit fréquemment (à l'échelle géologique), la notion de probabilité n'est pas toujours bien définie : dans l’ignorance des mécanismes exacts causant la catastrophe, la loi d’apparition de l’aléa étudié reste incertaine. Benoît Mandelbrot a ainsi montré que de nombreux phénomènes (allant des intermittences sur les lignes téléphoniques aux crues des fleuves, ou aux prix des matières premières) ont une structure temporelle fractale[22] ; lorsque c'est le cas, la probabilité d’apparition du phénomène varie selon l’échelle de temps choisie. Ainsi, le risque d’impact cosmique (qu’on peut a priori estimer à un impact destructeur par million d’années) change beaucoup si l’on est en fait en train de traverser un essaim météoritique[23].
↑L’agence nationale de santé publique estime en 2016 que la pollution de l’air est responsable de 48 000 morts par an en France[48] ; l’Organisation mondiale de la santé l’estimait responsable en 2012 de près de sept millions de morts prématurées par an, surtout dans les pays à revenus faibles et intermédiaires, en particulier en Asie[49].
↑Ce que montrent, par exemple, les mesures prises à la suite du grand smog de Londres ; en revanche, éliminer le nuage brun d'Asie demanderait des mesures coercitives internationales difficiles à mettre en œuvre[51].
↑Ils évoquent par exemple la chute d’une météorite de 50 m de diamètre (ce qui a lieu tous les 1000 ans en moyenne[81]) qui, si elle se produisait sur le territoire américain, pourrait être prise pour une attaque nucléaire surprise, déclenchant une contre-attaque automatique[23].
↑Il s’agit là d’un des biais cognitifs qui rendent difficile l’appréciation exacte des risques de catastrophe planétaire[91].
↑Ce type d'erreur est particulièrement difficile à gérer lorsque l'IA ne peut justifier ses raisonnements, et que les humains risquent de suivre aveuglément des conseils s'avérant désastreux[92].
↑ a et bDes catastrophes « réalistes » provenant de l’apparition d’une nouvelle technologie ont été parfois envisagées par des auteurs de science-fiction dès les années 1950 ; un célèbre exemple étant l’invention de la glace-neuf dans le roman de Kurt Vonnegut, Le Berceau du chat.
↑Cependant, un important changement climatique, peut-être global, se serait produit en quelques décennies à la fin du Dryas récent, il y a 12 000 ans[133].
↑Un tel passage, perturbant le nuage de Oort, pourrait beaucoup augmenter le risque d'impact cosmique ; en 2016, il a été montré que ce serait en particulier le cas de Gliese 710 dans 1,35 million d'années[151].
↑Ces prophéties n'entrent pas directement dans le cadre de la prédiction de risques de catastrophe planétaire, faute de donner des détails sur les mécanismes mis en jeu ; elles jouent cependant un rôle certain dans le scepticisme souvent affiché face aux analyses alarmistes des experts[171]. L’analyse des mécanismes par lesquels les groupes s’adaptent à la dissonance cognitive provenant de prédictions erronées est le sujet du livre de Leon Festinger, L'Échec d'une prophétie ; ils amènent les observateurs ne faisant pas partie du groupe à se montrer plus sceptiques face à de nouvelles prophéties.
↑Apparaissant dans de nombreux mythes indo-européens (grecs et romains, mais aussi hindous), ces récits d’un état passé idéal dont l’humanité a été chassée peuvent être également vus comme des variantes du thème du paradis perdu ; Claude Lévi-Strauss les rattache à un « mythème » plus général expliquant les institutions sociales (et aussi la maladie, le vieillissement et la mort) par la perte, à la suite d’une transgression, d’un état antérieur plus favorable[176].
↑Manquant de traditions écrites, par exemple, ils ignorent que, dans le passé, leurs conditions de vie étaient meilleures, et répètent les actions nuisibles de leurs prédécesseurs, parce qu’ils n’ont pas conscience de leurs conséquences.
↑Huw Price explique « qu’il semble raisonnable de penser que tôt ou tard l’intelligence échappera aux contraintes biologiques et que nous ne serons alors plus ce qu’il y a de plus malin, et risquerons d’être à la merci de machines ne prenant pas nos intérêts en compte[187]. »
↑Ainsi, il parait peu vraisemblable que l’humanité soit un jour capable d’empêcher l’expansion du Soleil, et seule la colonisation de systèmes extra-solaires peut l’en protéger. Cependant, ce type de colonisation (dans l’état actuel de nos connaissances) repose sur des capacités technologiques et sociales extrêmement éloignées de nos possibilités actuelles (typiquement, maintenir dans d’immenses vaisseaux spatiaux des civilisations stables de futurs colons, pendant plusieurs dizaines de milliers d’années) ; une analyse sérieuse de rapport coûts-bénéfices dans ce cas semble à plusieurs critiques totalement illusoire.
↑Par exemple, faire exploser un astéroïde comme dans Armageddon ne protégerait probablement pas la Terre de l’impact ; le changement climatique décrit dans Le Jour d’après, outre qu’il ne risque guère de provoquer une nouvelle ère glaciaire à court terme, ne saurait en aucun cas geler instantanément les gens restés dehors.
Références
↑Céline Grislain-Letrémy, Reza Lahidji et Philippe Mongin, Les risques majeurs et l'action publique : Rapport du Conseil d'analyse économique no 105, La Documentation française, .
↑Helga-Jane Scarwell et Richard Laganier, Risque d'inondation et aménagement durable du territoire, Villeneuve-d'Ascq, Presses universitaires du Septentrion, , 242 p. (ISBN2-85939-870-8, lire en ligne), p. 51.
↑ abcd et e(en) Nick Bostrom, « Existential Risk Prevention as Global Priority » [« La prévention des risques existentielles, une priorité globale »], Global Policy, , p. 15–31 (DOI10.1111/1758-5899.12002, lire en ligne, consulté le ).
↑ ab et c(en) Nick Bostrom, « Astronomical Waste: The opportunity cost of delayed technological development » [« Gâchis astronomique : le coût d'un délai du développement technologique »], Utilitas, vol. 15, no 3, , p. 308–314 (DOI10.1017/s0953820800004076, lire en ligne).
↑Tomasz Wyluda, Omega risk: Analysis of events with low probability and catastrophic impact on the global economy, Katowice, XVIII International Scientific Conference Analysis of International Relations 2024 - University of Economics in Katowice. Methods and Models of Regional Development, , 73-84 p. (lire en ligne [PDF])
↑ a et b(en) Niall Firth, « Human race 'will be extinct within 100 years', claims leading scientist », Daily Mail, (lire en ligne, consulté le )
↑(en) « 'Terminator center' to open at Cambridge University » [« Un "centre Terminator" va s'ouvrir à l'université de Cambridge »], Fox News, (lire en ligne).
↑Julien Cattiaux, Fabrice Chauvin, Hervé Douville et Aurélien Ribes, « Des bulletins météo extrêmes à prévoir », La Recherche, no 517, (résumé).
↑ a et b(en) Isaac M. Held et Brian J. Soden, « Water Vapor Feedback and Global Warming » [« Réchauffement global et rétroaction de la vapeur d’eau »], Annu. Rev. Energy Environ 2000, , p. 449 et suivantes (résumé).
↑(en) James Hansen, « Climate sensitivity, sea level and atmospheric carbon dioxide » [« Sensibilité au climat, niveau de la mer et gaz carbonique de l’atmosphère »], Royal Society Publishing, vol. 371, no 2001, , p. 20120294 (DOI10.1098/rsta.2012.0294, lire en ligne).
↑(en) Fricke, H. C., Williams, C. et Yavitt, J. B., « Polar methane production, hothouse climates, and climate change » [« Production de méthane polaire, climats de serre et changements climatiques »], American Geophysical Union, vol. Fall Meeting, (Bibcode2009AGUFMPP44A..02F).
↑(en) Ambrose Evans-Pritchard, « Einstein was right - honey bee collapse threatens global food security » [« Einstein avait raison - l’effondrement des abeilles menace la sécurité alimentaire »], The Daily Telegraph, Londres, (lire en ligne).
↑Meadows 1974, p. 129 et suiv. de l’édition anglaise.
↑(en)[PDF]Nations unies, Département des Affaires économiques et sociales, World Population Prospects - The 2012 Revision - Key Findings and Advance Tables, (lire en ligne).
↑ ab et c(en) The Oil Drum: Europe, « Agriculture Meets Peak Oil » [« L’agriculture rencontre le pic pétrolier »], Europe.theoildrum.com (consulté le ).
↑(en) « Eating Fossil Fuels » [« Manger des carburants fossiles »], EnergyBulletin.net, (consulté le ).
↑« Environnement : l'avertissement de 15 000 scientifiques face à la dégradation de la planète - France 24 », France 24, (lire en ligne, consulté le )
↑« Alerte de 15 000 scientifiques : leurs 9 indicateurs de dégradation de la planète analysés », France Culture, (lire en ligne, consulté le )
↑Pierre Le Hir, « Biodiversité : une espèce sur huit, animale et végétale, risque de disparaître à brève échéance », Le Monde, (lire en ligne, consulté le ).
↑(en) Avner Cohen et Steven Lee, Nuclear Weapons and the Future of Humanity : The Fundamental Questions [« Armes nucléaires et avenir de l’humanité : les questions fondamentales »] (lire en ligne), p. 237.
↑(en) Marion Lloyd, « Soviets close to using A-bomb in 1962 crisis, forum is told », The Boston Globe, (lire en ligne, consulté le ).
↑ a et b(en) Federation of American Scientists, « Status of World Nuclear Forces » [« État des forces nucléaires dans le monde »], sur Federation of American Scientists, (consulté en ).
↑(en) Brian Martin, « Critique of nuclear extinction » [« Critique du concept d'extinction nucléaire »], Journal of Peace Research, vol. 19, no 4, , p. 287–300 (DOI10.1177/002234338201900401, lire en ligne, consulté le ).
↑Richard Turco, Owen Toon, Thomas Ackerman, James Pollack et Carl Sagan, « L'hiver nucléaire », La paix surarmée, Belin, .
traduction en français de (en) « Nuclear Winter: Global Consequences of Multiples Nuclear Explosions », Science, vol. 222, no 4630, , p. 1283-1292.
↑(en) C. Bardeen, L. Oman, A. Robock, G. L. Stenchikov, O. B. Toon et R. P. Turco, « Atmospheric effects and societal consequences of regional scale nuclear conflicts and acts of individual nuclear terrorism » [« Effets atmosphériques et conséquences sociales de conflits nucléaires régionaux »], Atmospheric Chemistry and Physics, (lire en ligne, consulté le ).
↑(en) Herman Kahn, On Thermonuclear War [« Sur la guerre thermonucléaire »], Princeton, NJ, USA, Princeton University Press,, .
↑(en) Christian Enemark, « Biological attacks and the non-state actor: A threat assessment » [« Attaques biologiques par un acteur non-étatique : évaluation des menaces »], Intelligence and National Security, (lire en ligne).
↑(en) Eric H. Cline, 1177 B.C.: The Year Civilization Collapsed (2014), Princeton University Press, (ISBN978-0-691-14089-6), publié en français sous le titre 1177 avant J.-C. : Le jour où la civilisation s'est effondrée (traduction par Philippe Pignard), La Découverte (2016), (ISBN978-2-7071-9061-1).
↑ a et b(en) John Markoff, « Scientists Worry Machines May Outsmart Man » [« L’inquiétude des savants sur les machines devenant plus malignes que l’homme »], The New York Times, (lire en ligne).
↑(en) Mariëtte Le Roux, « Rise of the Machines: Keep an eye on AI, experts warn » [« L’éveil des machines : gardez un œil sur l’IA, avertissent les experts »], Phys.org, (lire en ligne, consulté le ).
↑(en) Laurent Orseau et Stuart Armstrong, « Safely Interruptible Agents » [« Programmes qu'on peut arrêter sans danger »], sur intelligence.org, (consulté le ). .
↑(en) Tim Adams, « Artificial intelligence: ‘We’re like children playing with a bomb’ » [« IA : Nous sommes comme des enfants jouant avec une bombe »], The Observer, (lire en ligne, consulté le ).
↑(en) Ronald J. Jackson, Alistair J. Ramsay, Carina D. Christensen, Sandra Beaton, Diana F. Hall et Ian A. Ramshaw, « Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox », Journal of Virology, vol. 75, no 3, , p. 1205–1210 (DOI10.1128/jvi.75.3.1205-1210.2001, lire en ligne, consulté le ).
↑(en) Lawrence E. Joseph, Apocalypse 2012 : A Scientific Investigation Into Civilization's End, New York, Broadway, , 261 p. (ISBN978-0-7679-2448-1), p. 6.
↑(en) Paul Rincon, « Nanotech guru turns back on 'goo' » [« Le gourou des nanotechnologies ne croit plus à la « gelée » »], BBC News, (lire en ligne, consulté le ).
↑(en) Fred Hapgood, « Nanotechnology: Molecular Machines that Mimic Life » [« Nanotechnologies : des machines moléculaires imitant la vie »], Omni, (lire en ligne, consulté le ).
↑(en) Emil Konopinski, C. Marvin et Edward Teller, « Ignition of the Atmosphere with Nuclear Bombs », Los Alamos National Laboratory, no LA–602, (lire en ligne [PDF], consulté le ).
↑(en) « Crossing the Line: Selection and Evolution of Virulence Traits » [« Franchir la ligne : sélection et évolution de la virulence »], PLoS Pathogens, vol. 2, no 5, , e42 (DOI10.1371/journal.ppat.0020042).
↑(en) « Challenging the trade-off model for the evolution of virulence: is virulence management feasible? », Trends Microbiol., vol. 11, no 1, , p. 15–20 (DOI10.1016/S0966-842X(02)00003-3).
↑(en) « Virulence evolution in emerging infectious diseases », Evolution, vol. 59, no 7, , p. 1406–12 (DOI10.1554/05-111).
↑(en) Platts-Mills TA, Erwin E, Heymann P et Woodfolk J, « Is the hygiene hypothesis still a viable explanation for the increased prevalence of asthma? », Allergy. 60 Suppl 79: 25–31., (PMID15842230, DOI10.1111/j.1398-9995.2005.00854.x).
↑(en) Stanley H. Ambrose, « Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans » [« Goulots d’étranglement des populations humaines de la fin du Pléistocène et hiver volcanique »], Journal of Human Evolution, vol. 34, no 6, , p. 623–651 (DOI10.1006/jhev.1998.0219, lire en ligne).
↑ a et b(en) Greg Breining, Super Volcano : The Ticking Time Bomb Beneath Yellowstone National Park [« Supervolcan : la bombe à retardement sous Yellowstone »], St. Paul, MN., Voyageur Press, , 256 p. (ISBN978-0-7603-2925-2), « Distant Death », p. 256.
↑(en) D.J. Asher, M.E. Bailey, V. Emel'yanenko et W.M. Napier, « Earth in the cosmic shooting gallery », The Observatory, vol. 125, , p. 319–322 (Bibcode2005Obs...125..319A, lire en ligne [PDF]).
↑(en) Brian Ventrudo, « So Where Is ET, Anyway? » [« Où est ET, alors ? »], Universe Today, (lire en ligne, consulté le ) : « Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars ».
↑(en) Derek Parfit, Reasons and Persons [« Causes et gens »], Oxford University Press, , 453–454 p..
↑(en) Damian Harrington, « Date set for desert Earth » [« Une date pour une Terre déserte »], BBC News Online, (lire en ligne).
↑(en) Martin Weitzman, « On modeling and interpreting the economics of catastrophic climate change » [« Modélisation et interprétation des conséquences économiques de catastrophes climatiques »], The Review of Economics and Statistics, vol. 91, no 1, , p. 1–19 (DOI10.1162/rest.91.1.1, lire en ligne).
↑(en) J.A. Hausman (dit.), W.H. Desvousges, F.R. Johnson, R.W. Dunford, K.J. Boyle, S.P. Hudson et N. Wilson, Contingent Valuation : A Critical Assessment [« Évaluation contingente: analyse critique »], Amsterdam, North Holland, , « Measuring natural resource damages with contingent valuation: tests of validity and reliability », p. 91−159.
↑ a et bNick Bostrom, « Are You Living In a Computer Simulation? » [« Vivez-vous dans une simulation informatique ? »], Philosophical Quarterly, vol. 53, , p. 243-255 (lire en ligne).
↑(en) Steve Fuller, « Why Superintelligence May Not Help Us Think about Existential Risks—or Transhumanism », Social Epistemology Review and Reply Collective, vol. 3, no 10, , p. 47-49 (lire en ligne).
↑Jacques Goimard, Histoires de catastrophes : La Grande anthologie de la science-fiction, Paris, Le Livre de poche, coll. « Le Livre de poche » (no 3818), , 2e éd., 443 p. (ISBN9782253036289) (préface).
Donella Meadows, Halte à la croissance ? : Rapport sur les limites de la croissance, (ISBN0-87663-165-0, lire en ligne [PDF]) (Le texte intégral est en ligne sur le site du Donella Meadows Institute.)
Joseph Tainter (trad. de l'anglais par Jean-François Goulon), L’Effondrement des sociétés complexes [« The Collapse of Complex Societies »], Aube/Paris, Le Retour aux sources, (1re éd. 1990, Cambridge University Press), 299 p. (ISBN978-2-35512-051-0).
(en) Corey S. Powell, « Twenty ways the world could end suddenly » [« Vingt façons dont le monde pourrait finir brusquement »], Discover, (lire en ligne).
(en) Nick Bostrom, « Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards » [« Risques existentiels : analyses de scénarios d’extinction de l’humanité »], Journal of Evolution and Technology, vol. 9, no 1, (lire en ligne).
Le numéro 22 de la revue Le Portique (lire en ligne) est entièrement consacré à divers aspects de la notion de catastrophe ; les relations avec les mythes et la science-fiction y sont analysées dans :
Sébastien Jeanvrin, « Catastrophe, sacré et figures du mal dans la science-fiction : une fonction cathartique », Le Portique, no 22, (lire en ligne).
(en) Michael H. Huesemann et Joyce A. Huesemann, Techno-fix : Why Technology Won’t Save Us or the Environment [« Techno-fix : pourquoi la technologie ne nous sauvera pas, ni ne sauvera l’environnement »], Douglas & McIntyre, , 464 p. (ISBN978-0-86571-704-6 et 0-86571-704-4, présentation en ligne), chap. 6 (« Sustainability or Collapse »).
(en) Paul R. Ehrlich et Anne H. Ehrlich, « Can a collapse of global civilization be avoided ? » [« Un effondrement de la civilisation globale peut-il être évité ? »], Proc. R. Soc. B, vol. 280, no 1754, (lire en ligne).
(en) Owen Cotton-Barratt, Sebastian Farquhar, John Halstead, Stefan Schubert et Andrew Snyder-Beattie, Global Catastrophic Risks 2016, Global Challenges Foundation, (lire en ligne [PDF]) (Rapport 2016 de la Global Challenges Foundation).
Jean-Paul Engélibert, Fabuler la fin du monde, Paris, La Découverte, .
La version du 15 février 2017 de cet article a été reconnue comme « bon article », c'est-à-dire qu'elle répond à des critères de qualité concernant le style, la clarté, la pertinence, la citation des sources et l'illustration.