En 1942, au moment d’écrire sa nouvelle Cercle Vicieux, Isaac Asimov n’était pas encore le saint patron de l’éthique robotique que le succès phénoménal du cycle des Robots allait bientôt canoniser. Pourtant, c’est bien dans cette nouvelle que s’encapsule le trésor le plus précieux légué à l’humanité par le romancier américano-russe : les Trois lois de la robotique, qui tentent d’ériger, en quelques mots, les barrières délimitant la liberté de décision des machines conscientes à venir. Une fois énoncé, ce triptyque moral deviendra la colonne vertébrale de l’œuvre d’Asimov, qui s’échinera à bâtir des paradoxes concrets pour en tester la solidité face aux situations quotidiennes d’un futur où IA et homo sapiens cohabitent plus ou moins pacifiquement. Ces trois lois, les voici, telles qu’elles devraient être implantées dans chaque embryon d’intelligence artificielle – et il y a fort à parier qu’elles le sont, tant Asimov fait l’objet d’un culte dans la communauté robotique :
1. «Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.»
Videos by VICE
2. «Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.»
3. «Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.»
En résumé, un solide garde-fou pour empêcher les machines d’échapper à notre contrôle et se transformer en golems génocidaires. Si, pendant longtemps, le coffre-fort moral d’Asimov restait accessible aux professionnels de la cybernétique, aux cercles de philosophie et aux fans de SF, la question de la régulation du progrès technologique se pose avec une insistance grandissante dans l’agora publique et médiatique. Quand ce n’est pas Elon Musk, Stephen Hawking et d’autres figures de la technologie qui signent une lettre ouverte pour appeler à plus de vigilance vis-à-vis de l’IA, c’est Google qui s’associe avec un labo d’Harvard pour développer une sorte de gros bouton d’arrêt d’urgence au cas où ses réseaux neuronaux développeraient soudainement une fascination mimétique pour la saga Terminator. Et puis, loin de ces élites technologiques, il y a le prototype de l’artiste roboticien Alexander Reben, de Stochastic Labs : une boîte de métal noir, un bras mécanique, une zone faite pour recevoir le doigt d’un être humain. Sitôt qu’on pose le doigt sur la zone, le robot le détecte, détend son bras équipé d’un dard mécanique et ouvre la chair innocente jusqu’au sang. Une piqûre, pas plus, mais purement gratuite. Suffisant pour avoir envie de démembrer dans l’instant la maudite construction. Et rendre soudainement plus concrète l’importance des lois d’Asimov. Mieux, le robot ne frappe pas systématiquement, mais choisit de frapper ou non de manière parfaitement aléatoire. Même en philosophie, rien ne vaut l’expérience empirique. Et une petite dose de sadisme.
L’idée d’une machine enfreignant sciemment la première des lois d’Asimov est venue à Reben après avoir constaté l’existence d’une peur des robots bien installée dans son entourage, soit parce que ces derniers présentent une menace théorique importante, soit parce que le paradigme technologique actuel n’est qu’une incessante variation sur le thème « bientôt, les robots nous foutront tous à la rue ». D’où l’urgence, pour Reben, de mettre au point un dispositif qui place les questionnements philosophiques liés à la robotique, pour le moment distants et abstraits, dans une réalité aussi triviale que de voir son index ouvert par une machine. Rien de mieux que la réaction instinctive. « Une fois que quelque chose comme ça existe réellement, il faut nécessairement s’y confronter », explique l’artiste. « On ne peut plus se contenter d’ergoter dessus. » Asimov peut être fier : si lui se creusait l’esprit pour découvrir les frontières théoriques de sa philosophie, Reben choisit le chemin de la concrétude pour sensibiliser l’opinion aux questions éthiques qui dessineront probablement la société de demain.
Le jour où les IA seront lâchées dans la nature, il faudra bien qu’elles aient quelques valeurs morales dans le crâne.
Si Fast Company et Reben présentent volontiers la machine comme une première historique, ce n’est pourtant pas tout à fait vrai : en 2010, une équipe de chercheurs lituaniens avait emprunté un robot d’assemblage de chez Epson pour le transformer en machine à distribuer 18 coups d’intensités variables sur le bras de volontaires. En variant la douleur, de la pichenette à la mornifle de forain, les chercheurs tentaient de dresser une échelle de la douleur infligée par une machine à l’homme via une méthode empirique. Pour mieux savoir à combien limiter la puissance de ce bras mécanique et éviter les accidents sévères ou mortels. Partout, dans les différentes expériences menées sur la relation complexe entre robotique et sciences cognitives, le but recherché est la prévention des risques liés à l’émergence de robots autonomes. Et, probablement, d’améliorer la solidité du triptyque asimovien, écrit à une époque où l’ordinateur n’était encore qu’une machine à décoder géante bricolée par Alan Turing dans un hangar. Alors que l’IA progresse chaque jour (et de manière exponentielle, rappelons-le) et nous met des branlées dans un ensemble grandissant de savoirs et techniques, il est sans doute temps de se pencher sur la meilleure façon de garder le contrôle sur cette vertigineuse création, dont l’enjeu n’est rien moins que la pérennité de notre hégémonie en tant qu’espèce. Le jour où les IA seront lâchées dans la nature, il faudra bien qu’elles aient quelques valeurs morales dans le crâne. Et s’il faut qu’un robot plante bêtement les doigts des penseurs contemporains pour les motiver à y réfléchir, ce ne sera qu’un moindre mal. Dans Robots, pour répondre à ses propres paradoxes, Asimov avait fini par rajouter de lui-même la loi Zéro, qui permettait à une machine de blesser ou tuer un être humain dans le cas où celui-ci menacerait l’Humanité, et en solution de dernier recours. Il en reste forcément d’autres à inventer.