FYI.

This story is over 5 years old.

Tech

L’extinction de l’espèce humaine expliquée

« Comment se fait-il que la probabilité de vivre l'apocalypse soit plus importante que celle de mourir dans un accident de la route? »

On est nombreux à boucler notre ceinture de sécurité quand on prend le volant. Non seulement on évite les contraventions, mais surtout on réduit le risque de décès ou de blessures graves de moitié en cas d'accident de la route. Bref, c'est sage. Mais le risque de mourir dans un accident de voiture est 9,5 fois plus faible que de mourir en raison d'une extinction de l'humanité.

Si ça semble incroyable, c'est que notre cerveau est sujet aux biais cognitifs, qui déforment notre compréhension de la réalité. Réfléchissez à ceci : on court un plus grand risque de mourir frappé par une météorite que par la foudre, et on court un risque quatre fois plus grand de mourir frappé par la foudre que dans un attentat terroriste. On devrait donc s'inquiéter beaucoup plus des météorites que du groupe armé État islamique ou d'Al-Qaïda (du moins, pour le moment).

Publicité

Ces données proviennent d'un rapport très influent préparé pour le gouvernement britannique, The Stern Review: The Economics of Climate Change. Pour montrer que les changements climatiques devraient être notre priorité, The Stern Review affirme que la probabilité annuelle de l'extinction de l'humanité est de 0,1 pour cent.

Ce risque peut paraître a priori minuscule. Mais, à l'échelle d'un siècle, on arrive à une probabilité de l'éradication de notre espèce de 9,5 pour cent. Et cette estimation est prudente par rapport à celle d'autres sources. En 2008, une enquête d'experts a conclu que la probabilité d'une extinction de l'espèce humaine au cours de ce siècle est de 19 pour cent. Et le cofondateur du Centre for the Study of Existential Risk, Sir Martin Rees, pense quant à lui que la civilisation humaine a une chance sur deux d'atteindre le 22e siècle. Pile ou face, en quelque sorte.

Comment se fait-il que la probabilité de vivre l'apocalypse soit plus importante que celle de mourir dans un accident de la route?

Comment en sommes-nous arrivés là? Évidemment, ces estimations pourraient se révéler fausses. Si certains risques d'extinction, comme les impacts d'astéroïdes et les éruptions de supervolcans, peuvent être estimés avec une bonne précision à partir de données historiques objectives, les risques relatifs aux futures technologies, eux, exigent une bonne dose de spéculation. Tout de même, nous en savons assez sur les tendances technologiques actuelles et les phénomènes naturels pour produire au moins quelques hypothèses raisonnables sur les chances de survie de l'humanité.

Publicité

Il y a trois grandes catégories de risques existentiels, ou scénarios susceptibles de provoquer soit une extinction de masse, soit un retour irréversible à l'âge de pierre. La première comprend les risques naturels, tels que les impacts d'astéroïdes et de comètes, les éruptions volcaniques, les pandémies et même les supernovæ. Ce sont nos risques cosmiques, qui sont assez faciles à estimer.

Comme on l'a appris à l'école, un tueur venu d'ailleurs, probablement une comète, s'est écrasé sur la péninsule du Yucatan il y a 66 millions d'années, provoquant la disparition de presque tous les dinosaures. Il y a 75 000 ans, un supervolcan indonésien a provoqué la catastrophe de Toba, qui selon certains scientifiques a considérablement décimé la population humaine. Peu de gens le savent, mais on a vraiment frôlé l'extinction au Paléolithique.

Même si la menace des pandémies est moindre que celle des guerres et des attaques terroristes, elles ont provoqué des épisodes parmi les plus sombres de notre histoire. Notamment, la grippe espagnole a exterminé pas moins de 3 % de l'humanité en 1918 (le double selon certaines estimations) et infecté un tiers de la population mondiale dans les deux années suivantes. Ce sont 33 millions de morts de plus que tous ceux tombés sous balles et les bombes durant la Première Guerre mondiale. Et au 14e siècle, selon les estimations du CDC, la peste bubonique aurait fait autant de morts que la Première et la Seconde Guerre mondiale, les croisades, les conquêtes mongoles, la guerre civile russe et la guerre de Trente Ans réunis. (Notez, opposants à la vaccination.)

Publicité

Patients d'un hôpital de l'Iowa durant l'épisode de grippe espagnole de 1918. Source : Office of the Public Health Service Historian

La seconde catégorie de risques existentiels, ce sont les technologies de pointe, qui pourraient provoquer des dommages sans précédent. La première menace d'extinction anthropique a été créée en 1945 quand une bombe atomique a explosé dans le désert du Nouveau-Mexique. Depuis, l'humanité vit avec la possibilité d'un holocauste nucléaire général, ce qui a inspiré à quelques physiciens l'Horloge de la fin du monde, une représentation métaphorique de la proximité d'une catastrophe.

Quand les tensions géopolitiques étaient à leur comble durant la Guerre froide, le président John F. Kennedy a estimé que la probabilité d'une guerre nucléaire était « d'une chance sur trois ou sur deux ». La situation s'est fortement améliorée après la chute du mur de Berlin. Mais les relations entre les États-Unis et la Russie se sont de nouveau détériorées récemment, conduisant le premier ministre Dmitry Medvedev à laisser entendre qu'on entre dans une « nouvelle Guerre froide ». Au moment de la rédaction de cet article, l'Horloge de la fin du monde indiquait trois minutes avant minuit — c'est-à-dire de la fin du monde. Elle n'a été plus proche de minuit qu'une seule fois depuis sa création en 1947.

Bien que les armes nucléaires constituent le plus grand risque pour la survie de l'humanité aujourd'hui, elles pourraient être le moindre de nos soucis avant la fin du siècle. Pourquoi? À cause des risques associés à des disciplines émergentes comme les biotechnologies, la biologie synthétique et les nanotechnologies. Elles gagnent en puissance de manière exponentielle et, surtout, deviennent de plus en plus accessibles, autant pour les groupes que pour les individus.

Publicité

Par exemple, il est de plus en plus possible pour un non-expert d'assembler un laboratoire de fortune dans le but de procéder à des manipulations génétiques. Les mouvements en faveur de la science participative ont largement démocratisé les sciences biologiques, et les amateurs peuvent désormais se procurer du matériel moins coûteux et automatisé. Par exemple, on peut désormais commander de l'ADN auprès d'un fournisseur : en 2006, des journalistes du Guardian ont réussi à se procurer une partie du génome de la variole par l'intermédiaire de la vente par correspondance. Même que quiconque possède une connexion internet a accès à des bases de données contenant des séquences génétiques de pathogènes, comme le virus Ebola. Nous sommes encore loin de pouvoir programmer un génotype comme nous programmons un logiciel, mais, si les progrès en la matière se poursuivent à cette cadence, des terroristes et autres individus mal intentionnés pourraient dans l'avenir être en mesure de provoquer des pandémies, peut-être les plus dévastatrices jamais connues.

Quant aux nanotechnologies, les risques les mieux connus ont pour origine la « gelée grise », un scénario hypothétique dans lequel des machines ou nanorobots seraient programmés pour déconstruire la matière avec laquelle ils entrent en contact et réassembler les atomes pour créer des répliques d'eux-mêmes. Les clones nanorobotiques, hors de contrôle, se mettraient à leur tour à convertir tous les éléments composant leur environnement en copies d'eux-mêmes. À cause du taux de réplication exponentiel, la biosphère entière pourrait être transformée en un amas de nanorobots en relativement peu de temps.

Publicité

Un terroriste pourrait aussi concevoir ce type de nanorobot capable de détruire de façon sélective des organismes qui possède une signature génétique spécifique. Un écoterroriste qui aurait le projet de rayer l'espèce humaine de la carte sans endommager le reste de la biodiversité n'aurait qu'à concevoir des nanorobots qui cibleraient uniquement l'homo sapiens.

Enfin, peut-être la plus grande menace à long terme : l'intelligence artificielle. Instiller à une machine superintelligente des valeurs favorables au bien-être de l'humanité pourrait être étonnamment difficile. Une superintelligence dont le but serait par exemple d'éliminer toute forme de malheur dans le monde pourrait tout bonnement exterminer l'ensemble des humains, car ce qui n'existe pas ne peut être malheureux. Si elle devait résoudre la crise énergétique, elle pourrait accidentellement nous exterminer en recouvrant toute la surface de la planète de panneaux solaires. C'est qu'il y a un monde entre « fais ce que je te dis » et « fais en sorte d'arriver au résultat que j'espère », et il n'est pas aisé de programmer une machine de façon à ce qu'elle s'en tienne au deuxième principe.

Feu de forêt au Florida Panther National Wildlife Refuge. Photo : Josh O'Connor, USFWS

Tout ceci nous amène à la troisième et dernière grande catégorie de risques, qui comprend les catastrophes comme les changements climatiques et la perte de la biodiversité. Bien que ces phénomènes n'entraînent pas l'extinction directe de notre espèce, ils sont de puissants multiplicateurs de conflits, qui ont le potentiel de pousser nos sociétés à leur limite et, ce faisant, de nous forcés à utiliser des technologies à mauvais escient.

Publicité

La guerre nucléaire est-elle plus probable dans un monde où se multiplient les phénomènes météorologiques extrêmes, les migrations de masse et les bouleversements politiques? Une attaque écoterroriste au moyen de nanotechnologies est-elle probable dans un monde où l'environnement se dégrade à vitesse grand V? Une attaque terroriste de fanatiques de l'apocalypse est-elle plus probable dans un monde où les guerres et les catastrophes naturelles semblent avoir été prophétisées?

Les changements climatiques et la perte de la biodiversité vont très certainement exacerber les tensions géopolitiques actuelles et générer de nouveaux conflits entre les États et autres groupes. Ce n'est pas alarmant en soi, mais avec l'avènement de nouvelles technologies, c'est potentiellement catastrophique.

Ce sont les perspectives énumérées précédemment qui ont conduit les experts interrogés, dont Rees, à ne pas sembler particulièrement optimistes. Il n'y a jamais eu une telle variété de menaces pour notre espèce. Et il y a de nombreuses raisons de croire que le risque d'attentats terroristes augmentera considérablement dans les prochaines décennies à cause de l'instabilité qu'entraînera la dégradation de l'environnement, la démocratisation des technologies et la croissance de l'extrémisme religieux dans le monde.

Mais ce n'est pas la fin de l'histoire. Il y a de nombreuses raisons de rester optimistes.

Aucun des risques présentés précédemment n'est insoluble. L'humanité est capable de surmonter les obstacles sur son chemin. La technologie peut servir à mitiger les effets des bouleversements naturels. Un astéroïde kamikaze pourrait être pulvérisé par une bombe nucléaire à l'approche de l'atmosphère terrestre. La construction d'habitats souterrains ou la colonisation de l'espace pourraient sauver l'humanité d'une catastrophe de grande envergure, comme un impact d'astéroïde ou l'éruption d'un supervolcan. Quant aux pandémies, les scientifiques ont montré que la collaboration internationale pouvait venir à bout des plus dangereux pathogènes.

Les changements climatiques et la perte de la biodiversité pourraient être atténués en réduisant la croissance démographique, en se tournant vers des énergies renouvelables et en préservant les habitats naturels.

Restent les risques de nature technologique, que la société pourrait neutraliser en mettant en place des politiques pour empêcher notamment la prolifération des armes nucléaires. Mais on ne sait pas, cependant, quelle sera l'efficacité réelle de ces stratégies. C'est pourquoi des organisations comme le X-Risks Institute, le Future of Life Institute, Future of Humanity Institute et le Centre for the Study of Existential Risks travaillent sur ces questions : pour s'assurer que les scénarios catastrophiques pour notre espèce ne deviennent jamais réalité.

L'univers est une sorte de vaste course à obstacles mortels. Même si les succès phénoménaux de notre espèce jusqu'ici nous ont permis d'améliorer nos conditions, ils ont aussi entraîné de nouveaux risques existentiels jamais rencontrés auparavant — donc contre lesquels nous ne pouvons nous baser sur l'expérience pour survivre. Néanmoins, il y a des gestes concrets que l'humanité peut poser pour repousser les menaces et diminuer le risque de son extinction. Comme l'ont confirmé de nombreux experts, l'avenir est rempli d'espoir, mais pour concrétiser cet espoir, nous devons prendre conscience des dangers on ne peut plus réels autour de nous.

Phil Torres est auteur, collaborateur au Future of Life Institute et directeur fondateur du X-Risks Institute. Son ouvrage le plus récent s'intitule The End : What Science and Religion Tell Us About the Apocalypse. Suivez-le sur Twitter.

Peter Boghossian est professeur de philosophie à l'Université de Portland. Il est auteur de A Manual for Creating Atheists et concepteur de l'application Atheos. Suivez-le sur Twitter.