Petit guide de l’extinction de l’espèce humaine

L'humanité verra-t-elle un jour l'aube du 22e siècle ? Nous avons toutes les raisons d'en douter.
17 août 2016, 2:23pm

Pour la plupart des gens, conduire avec une ceinture de sécurité est une habitude plutôt saine, qui va de soi. L'oublier peut vous exposer à quelques ennuis avec les forces de l'ordre, mais surtout, votre ceinture « réduit le risque de mortalité et de blessures graves de moitié lors qu'un accident de la route. » À cause de cela, nous ne rechignons pas trop à nous comporter comme des figurants modèles dans un spot de pub de la sécurité routière. Et pourtant, derrière cette routine plus ou moins intégrée au comportement des individus, se cache une réalité que nous avons parfaitement éludée : nous avons 9,5 fois plus de chances de mourir dans une extinction de masse que dans un accident de voiture.

Cela semble incroyable, et de fait, ça l'est. Il faut dire que l'esprit humain fait tout pour tordre la réalité à son avantage, et que lorsque nous y sommes confrontés de plein fouet, il y a de quoi grincer des dents. Nous avons donc enterré dans un coin de notre cerveau, derrière une bonne couche de biais cognitifs, l'idée selon laquelle Homo sapiens pouvait disparaître en deux coups de cuillère à pot. Comme un gros naze.

D'ailleurs, nous avons plus de chances de mourir suite à une chute de météorite que d'être frappé par la foudre, un événement lui-même quatre fois plus probable que de mourir dans une attaque terroriste. En d'autres termes, il est plus rationnel de se méfier des météorites que de Daesh. Pourtant, on parle assez peu des météorites au journal de 20h.

Ces calculs proviennent tous d'un rapport commandé par le gouvernement britannique, le très influent « Stern Review on the Economics of Climate Change, » qui décrit le changement climatique comme « la plus grande catastrophe issue de la loi du marché de toute l'histoire humaine. » En cela, le rapport précise que lutter contre le changement climatique devrait être la première priorité, à l'échelle mondiale, et que chaque année la probabilité que l'humanité s'éteigne augmente de 0,1%.

Ce chiffre peut paraître minuscule au premier abord. Pourtant, à l'échelle d'un siècle, cela porte à 9,5% la probabilité d'une extinction de notre espèce. Et cette estimation est encore extrêmement basse par rapport à celles effectuées par d'autres sources. En 2008, un comité d'experts a évalué la probabilité d'une extinction de l'espèce humaine au cours de ce siècle à 19%. Le co-fondateur du Centre d'étude des risques existentiels, Sir Martin Rees, pense quant à lui que la civilisation a uniquement 50% de chances de voir l'aube du 22e siècle. C'est jouer le sort de l'humanité à pile ou face, en quelque sorte.

« Comment se fait-il que la probabilité de vivre l'apocalypse soit plus importante que celle de mourir dans un accident de la route ? »

Comment cela est-il possible ? Comment se fait-il que la probabilité de vivre l'apocalypse soit plus importante que celle de mourir dans un accident de la route ? Évidemment, ces estimations sont peut-être fausses. Si certains risques dits « existentiels, » comme les impacts d'astéroïdes et les super-éruptions volcaniques, peuvent donner lieu à des estimations précises reposant sur des données historiques objectives, les risques liés aux technologies, eux, sont assis sur de la pure spéculation. Nous en savons suffisamment sur les tendances technologiques et les phénomènes naturels, cependant, pour produire des hypothèses raisonnables sur l'évolution de la situation de l'humanité dans le futur.

Il y a trois grandes catégories de « risques existentiels, » et autres scénarios susceptibles de provoquer soit une extinction de masse, soit un retour à l'âge de pierre un peu brutal. La première comprend les risques naturels, tels que les impacts d'astéroïdes et de comètes, les éruptions volcaniques, les pandémies, et même les supernovæ. Il s'agit là de notre risque cosmique, qui, comme nous venons de le voir, est assez facile à estimer.

On vous l'a appris dès l'école primaire : un assassin venu d'ailleurs, probablement une comète, s'est écrasé sur la péninsule du Yucatan il y a 66 millions d'années, provoquant la disparition de la majeure partie des espèces de dinosaures. Il y a 75 000 ans, un super-volcan indonésien aurait quant à lui provoqué la catastrophe de Toba, qui selon certains scientifiques aurait considérablement réduit la taille de la population humaine. Cette hypothèse reste controversée. Il n'en est pas moins que nous avons frôlé l'extinction pure et simple durant le Paléolithique, et que cet événement pourrait parfaitement se reproduire aujourd'hui.

Même si la menace des pandémies est moindre que celle des guerres et des attaques terroristes, elles ont provoqué des épisodes de décès de mort et de désolation dont le souvenir fait encore frissonner aujourd'hui. La grippe espagnole a exterminé pas moins de 3% de l'humanité en 1918 (jusqu'à 6% même, selon certaines estimations), et infecté un tiers de la population globale entre 1978 et 1920. En valeur absolue, cela fait 33 millions de morts de plus que ceux qui sont tombés sous les baïonnettes, les balles et les bombes durant la Première guerre mondiale. Selon les estimations du CDC, la peste bubonique du 14e siècle aurait quant à elle fait autant de morts que la Première et la Seconde guerre mondiale, les croisades, les conquêtes mongoles, la guerre civile russe et la guerre de Trente ans réunis (notez ça, les opposants à la vaccination).

Patients d'un hôpital de l'Iowa durant l'épisode de grippe espagnole de 1918. Image: Office of the Public Health Service Historian

La seconde catégorie des risques existentiels concerne les technologies de pointe, qui pourraient provoquer des dommages sans précédent sous le régime du fameux système « erreur ou terreur. » Historiquement parlant, l'humanité a créé son premier risque anthropogénique en 1945, toute seule, comme une grande, quand la bombe atomique a explosé pour la première fois dans le désert du Nouveau Mexique. Depuis cet événement malheureux, l'humanité a vécu dans l'ombre d'un holocauste nucléaire, inspirant à quelques physiciens la création de l'Horloge de la Fin du monde, qui représente de manière métaphorique notre proximité avec le désastre.

Quand les tensions géopolitiques étaient à leur comble durant la Guerre Froide, le président Kennedy a estimé que la probabilité d'une guerre nucléaire était « d'une chance sur trois au minimum. » La situation s'est fortement améliorée après la chute du mur. Hélas, les relations entre les Etats-Unis et la Russie se sont de nouveau détériorées récemment, conduisant le premier ministre Dmitry Medvedev à annoncer publiquement qu'une « nouvelle Guerre Froide » était sous le point de naitre. À l'heure où nous écrivons ces lignes, l'Horloge de la fin du monde pointe minuit moins trois ; elle n'avait pas été aussi proche de minuit depuis sa création en 1947.

Bien que les armes nucléaires constituent le plus grand risque pour la survie de l'humanité aujourd'hui, elles devraient pourtant être le moindre de nos soucis. Pourquoi ? En vertu des risques associés à des disciplines émergentes comme les biotechnologies, la biologie synthétique et les nanotechnologies. Ces champs de recherche se développent en effet de manière exponentielle, mais surtout, ils sont de plus en plus accessibles au tout venant.

Par exemple, il est de plus en plus facile, pour un non-expert, de bricoler un laboratoire de fortune afin de s'adonner à l'édition génétique. Les mouvements de sciences participatives ont largement démocratisé les sciences biologiques, et les amateurs peuvent désormais se fournir en matériel peu coûteux, automatisé et aisément accessible. De même, on peut désormais commander de l'ADN auprès d'un fournisseur ; en 2006, des journalistes du Guardian ont même réussi à se procurer « une partie du génome de la variole par l'intermédiaire de la vente par correspondance. » Enfin, quiconque possède une connexion Internet a accès à des bases de données génétiques contenant des séquences génétiques de pathogènes, comme le virus Ebola. Nous sommes encore loin de pouvoir programmer un génotype comme nous programmons un logiciel. Cependant, si les progrès en la matière se poursuivent à cette cadence, des terroristes et autres individus mal intentionnés pourraient, dans le futur, être en mesure de provoquer des pandémies de grande ampleur. Voire d'annihiler notre espèce, purement et simplement.

Quant aux nanotechnologies, elles posent des risques plus abstraits, un peu moins réalistes et plus difficiles à mesurer. Le plus fréquemment évoqué est le Grey Goo, un scénario théorique où des machines autorépliquantes, ou nanorobots, seraient programmées pour « déconstruire » la matière avec laquelle elles entrent en contact, avant de la réorganiser à leur image au niveau atomique. Les clones nanorobotiques, hors de contrôle, se mettraient alors à convertir tous les éléments composant leur environnement en copies d'eux-mêmes, avant de détruire l'ensemble de la biosphère. En théorie du moins, un terroriste pourrait concevoir un nanorobot capable de détruire des organismes possédant une signature spécifique. Un écoterroriste, plus particulièrement, pourrait ainsi rayer l'espèce humaine de la carte sans endommager le reste de la planète.

Enfin, il y a la menace de l'intelligence artificielle. Comme nous l'écrivions récemment, instiller des valeurs à une machine est extrêmement difficile, même lorsque le but est d'améliorer le bien-être humain. Une superintelligence dont le but est « d'éliminer toute forme de tristesse » dans le monde pourra tout aussi bien exterminer l'ensemble des humains, qui ne cesseront jamais d'être tristes quel que soit leur niveau de vie. Celle qui devra « résoudre la crise énergétique » pourrait accidentellement pourra recouvrir la surface de la planète de panneaux solaires, provoquant notre perte. Le problème est qu'en matière de programmation d'IA, il existe un gouffre entre « fais ce que je te dis » et « fais ce que j'espère que tu feras » ; pour le moment, nous ne savons pas comment le réduire, ni même s'il est possible de le réduire.

Feu de forêt à Florida Panther NWR. Image: Josh O'Connor/USFWS

Tout ceci nous mène à la dernière catégorie de risques, qui comprend les catastrophes anthropiques comme le changement climatique et la perte de la biodiversité. Bien que ces phénomènes ne soient pas susceptibles d'entraîner l'extinction de notre espèce de manière directe, ils demeurent des « facteurs aggravants » extrêmement puissants capables de décupler les problèmes qui égrainent nos sociétés, augmentant la probabilité que les technologies de pointe soient utilisées de manière inadéquate et abusive.

Pour résumer, demandez-vous toujours : la guerre nucléaire est-elle probable dans un monde aux phénomènes météorologiques extrêmes, aux sécheresses, aux migrations de masse, en passant par l'instabilité sociale et politique? Une attaque éco-terroriste impliquant les nanotechnologies est-elle probable dans un monde où l'environnement se dégrade à vitesse grand V ? Une attaque terroriste impliquant des fanatiques de l'apocalypse est-elle probable dans un monde de guerres et de catastrophes naturelles qui semblent avoir été prophétisées dans les textes anciens ?

« Ce n'est pas encore la fin de l'histoire. Il y a encore de nombreuses raisons de rester optimistes. »

Le changement climatique et la perte de la biodiversité vont très certainement exacerber les tensions géopolitiques préexistantes et générer des nouveaux conflits entre les acteurs étatiques et non étatiques. Ce n'est pas particulièrement alarmant en soi, jusqu'à ce les technologies s'en mêlent.

C'est de ce genre de considérations que les experts interrogés ci-dessus, dont Rees, se préoccupent. Et c'est aussi ce genre de considérations qui les rend si pessimistes. Il n'y a jamais eu une telle diversité de menaces pour notre espèce, et les estimations les plus optimistes suggèrent qu'il est plus probable de succomber à l'un de ces fameux « risques existentiels » qu'à un accident de la route. Plus encore, il existe de nombreuses raisons de penser que la menace terroriste augmentera de manière non-triviale dans les prochaines décennies suite à la dégradation de l'environnement, à la démocratisation des technologies et l'essor de l'extrémisme religieux.

Cependant, ce n'est pas encore la fin de l'histoire. Il y a encore de nombreuses raisons de rester optimistes. Aucun des risques présentés précédemment n'est insoluble, et les technologies de pointe peuvent également être utilisées pour éviter ou modérer les effets des catastrophes naturelles. Un astéroïde kamikaze à l'approche de l'atmosphère terrestre pourrait être pulvérisé par une bombe nucléaire. La colonisation de l'espace et la construction d'habitats souterrains pourraient sauver l'humanité d'une catastrophe de grande envergure, comme un impact d'astéroïde ou une super-éruption volcanique. Quant aux pandémies, les scientifiques ont montré que la collaboration internationale pouvait venir à bout des plus dangereux pathogènes, comme le virus Ebola ou le coronavirus.

Enfin, le changement climatique et la perte de la biodiversité pourrait être atténués en réduisant la croissance démographique, en se tournant vers des énergies renouvelables, et en préservant les habitats naturels.

Cela nous laisse les risques de nature technologique, que la société pourrait neutraliser en mettant en œuvre des politiques et des lois visant à empêcher la prolifération des armes et outils dangereux. On ne sait pas, cependant, quelle pourrait être l'efficacité réelle de ces stratégies ; c'est en partie pour cette raison que les experts associent les technologies de pointe à la pire menace à laquelle doit faire face l'humanité : nous avons du mal à discerner à quoi devrait ressembler notre filet de sécurité, et nous ne savons pas s'il sera efficace le moment venu. Des organisations comme le X-Risks Institute, le Future of Life Institute, Future of Humanity Institute, et le Centre for the Study of Existential Risks travaillent sur ces questions, mais de manière encore très abstraite.

Le cosmos est une sorte de vaste course d'obstacles dans lesquels on peut, à tout moment, se prendre les pieds. Même si notre espèce s'est plutôt bien débrouillée jusque-là et a considérablement amélioré sa condition, elle prend de plus en plus de risques. Aucune espèce n'a jamais eu à survivre à une apocalypse nucléaire jusque-là. Pour raviver l'espoir et regarder l'avenir avec un peu plus de sérénité, il faudra examiner notre situation de manière lucide, raisonnée, et en tirer les conséquences.

Phil Torres est auteur, contributeur au Future of Life Institute, et fondateur du X-Risks Institute. Son ouvrage le plus récent est intitulé The End: What Science and Religion Tell Us About the Apocalypse_. Suivez-le surTwitter:_ @xriskology.

Peter Boghossian est professeur de philosophie à l'Université de Portland. Il est auteur de A Manual for Creating Atheists et créateur de l'application Atheos_. Suivez-le sur Twitter: @peterboghossian_