FYI.

This story is over 5 years old.

Tech

Humains et IA vont partager la même planète, et nous devons nous y préparer

Bienvenue dans l'ère du Machinocène.
Le robot Octavia lors de l’exposition du Bureau de Recherche Naval américain (ONR). Image: John F. Williams/US Navy

L'intelligence de type humaine est, par définition, le seul type d'intelligence qui nous soit vraiment familier. D'ailleurs, vous l'utilisez en ce moment même pour lire cet article.

Tandis que la science et la technologie semblent converger pour être liées de plus en plus étroitement, l'hypothèse d'une forme d'intelligence non-biologique puisse émerger est de plus en plus plausible. Difficile de prédire quand cela arrivera, mais de nombreux experts d'IA estiment qu'un système non-biologique pourrait posséder une intelligence comparable à la nôtre d'ici la fin du siècle.

Publicité

Libérés des contraintes biologiques, débarrassés d'un cerveau qui doit se frayer un chemin à travers les voies génitales femelles lors de la naissance et dont la taille est donc limitée, les systèmes non-biologiques pourraient non seulement prospérer, mais surtout, devenir plus intelligents que nous. Quelles en seraient les conséquences ? Le chercheur en IA Stuart Russell suggère qu'il s'agirait de « l'événement le plus important de l'histoire humaine. » Selon lui, les choix que nous ferons au cours de ce siècle-ci auront des conséquences à long terme, non seulement pour notre planète, mais pour la galaxie en général, comme le fait remarquer l'astronome Martin Rees. Le futur de l'intelligence dans l'espace pourrait dépendre de ce que nous faisons ici et maintenant.

Devrait-on se préoccuper de ce genre de spéculations ? Cela fait des décennies que les experts et non-experts fantasment sur l'IA. Y-a-t-il vraiment du nouveau ?

Deux choses ont changé récemment. Pour commencer, notre compréhension théorique, pratique et technologique de l'intelligence biologique et non-biologique est bien meilleure qu'elle ne l'était il y a cinquante ans. D'autre part, l'IA est désormais utilisée pour de nombreuses tâches très différentes, et est désormais indispensable à nos sociétés. Pour cette raison, sa valeur commerciale est énorme, et elle suscite des investissements de plus en plus importants. Cette tendance semble destinée à se poursuivre.

Publicité

D'une manière ou d'une autre, nous allons devoir partager notre planète avec des formes d'intelligence non-biologiques, et nous devrions songer dès maintenant à ce que cela signifie pour le futur de notre espèce. Il serait dommage d'aboutir à un effondrement civilisationnel à cause d'un petit manque de recul. La technologie n'est pas bonne ou mauvaise par définition, mais elle doit être bien utilisée.

Sur le sujet de l'incertitude liée à l'IA, la prise de conscience est nette. Des milliers de chercheurs ont déjà signé une lettre ouverte appelant à approfondir les recherches sur la sécurité de l'IA et ses bénéfices pour l'humain. Récemment, Google, Amazon, Facebook, IBM et Microsoft ont signé un Partenariat sur l'IA visant à rendre celle-ci utile pour la société.

Pour le moment, l'important est de s'assurer que le développement d'une IA sera sans danger, et que ses impacts négatifs à court terme (sur l'emploi par exemple) seront contrôlés. À long terme, l'incertitude est d'autant plus importante. J'emprunterai la métaphore de Jaan Tallinn, l'ingénieur qui a eu un rôle déterminant dans le développement de Skype. Imaginez que nous envoyions l'humanité dans l'espace sur une flotte de vaisseaux géants. Il faudra d'abord s'assurer que ces vaisseaux sont sans danger et parfaitement contrôlés, et que leur équipage disposera d'un couchage convenable, de nourriture et de soins. Cependant, ces précautions élémentaires ne seront pas suffisantes. L'important sera de déterminer la destination du voyage, et la probabilité que celle-ci sera atteinte : il y a peut-être des mondes paradisiaques cachés dans les recoins de l'univers, mais essentiellement, il y a du vide. Froid, sombre, infini.

Publicité

Dans le cas du futur de l'IA, c'est un peu la même chose. Nous avons de nombreuses raisons d'être optimistes, dans la mesure où elle nous aidera à résoudre des problèmes pratiques devant lequel le cerveau humain demeure impuissant. Mais quand il s'agit de prédire et cartographier le paysage du futur, pour le meilleur ou pour le pire, nous ne savons vraiment pas à quoi nous en tenir. Nous sommes en terra incognita. Dans ces conditions, adopter la philosophie du « on verra bien » semble particulièrement hasardeux.

Parmi les auteurs qui ont prédit cette situation d'incertitude extrême, on trouve le grand Alan Turing. « Il semble probable qu'une fois la pensée machinique mise au point, il ne sera pas longtemps avant que celle-ci outrepasse nos capacités, » écrit-il à la fin d'un texte de conférence donnée en 1951. Dans son article de 1650 sur le Test de Turing, conçu pour évaluer notre capacité à attribuer des traits intelligents à une machine, Turing écrit :

« Nous n'en sommes encore qu'aux balbutiements de l'intelligence des machines, il y a encore beaucoup de travail à abattre. » Depuis, nous avons depuis abattu le travail en question ; mais ce progrès ne résout rien, et les questions que nous nous posons sont toujours aussi pressantes.

Si nous sommes effectivement capables de développer des machines qui peuvent penser, le fait de s'assurer qu'elles nous seront bénéfiques constitue l'un des plus grands défis du siècle. Or, nous devons y faire face ensemble. L'enjeu est trop important pour le remettre entre les mains d'une unique nation, entreprise ou institution. Nos petits-enfants et nos arrière-petits-enfants vivront dans un monde qui sera probablement très différent du nôtre. Peut-être même qu'il sera plus proche du Machinocène que de l'Anthropocène. Notre tâche sera d'effectuer cette transition de la manière la plus douce et la plus réfléchie possible. Pour que l'intelligence artificielle puisse émerger, toute l'intelligence humaine sera nécessaire.


Stuart Russell et Martin Rees sont affiliés au Centre Leverhulme pour le Futur de l'Intelligence à l'Université de Cambridge.

Cet article a été publié dans Aeon sous Creative Commons, et reproduit avec l'aimable autorisation des auteurs.

Aeon counter – do not remove