FYI.

This story is over 5 years old.

techno

L’armée crée Terminator, craint un éminent expert en intelligence artificielle

« Vu les technologies avec lesquelles jouent les armées en ce moment, je suis très inquiet. »

On a l'impression que le Toby Walsh n'a jamais été un professeur d'université ordinaire. Bien qu'il soit l'un des plus éminents chercheurs dans le domaine de l'intelligence artificielle, il parle publiquement des dangers de l'intelligence artificielle et critique l'absence de contrôle dans son développement. Par ailleurs, regardez la photo de son profil sur le site de l'Université de Nouvelle-Galles-du-Sud.

Publicité

Mais ce sont ses critiques sur la façon dont l'intelligence artificielle s'est introduite dans l'armée qui ont poussé le chercheur sous les feux des projecteurs internationaux. En 2015, il a rédigé une lettre ouverte dans laquelle il proposait « d'interdire les armes offensives autonomes, que l'on appelle communément les "robots tueurs" ». Signée par 1000 chercheurs, spécialistes et personnalités publiques, dont Stephen Hawking, Elon Musk, Noam Chomsky et Steve Wozniak, sa lettre l'a conduit à l'Organisation des Nations unies, où il a tenté de convaincre les chefs d'État de la planète qu'ils devraient eux aussi s'inquiéter à propos de l'intelligence artificielle.

Deux ans après cette lettre, nous avons contacté Toby Walsh pour lui demander notamment si les pays ont tenu compte de ses recommandations, quelles sont les dernières avancées dans le domaine des armes artificiellement intelligentes et si la création du monde de Terminator est inévitable.

VICE : Pourquoi avez-vous voulu rédiger cette lettre?
Toby Walsh : Je dois admettre que je suis devenu militant par accident. Je n'avais pas vraiment imaginé à quel point quelque chose comme ça deviendrait politique. Mes collègues et moi, nous parlions de cette question [l'intelligence artificielle dans l'armée] et de la façon dont l'armée commence à développer ces technologies. Nous voyions très bien à quoi cela allait aboutir. Nous avons donc voulu lancer une mise en garde.

Publicité

Beaucoup de personnalités publiques reconnues ont signé votre lettre.
Je pense que ce qui est intéressant, ce n'est pas que des personnes connues, comme Stephen Hawking, l'aient signée, mais que beaucoup de mes collègues l'aient fait. Je ne pense pas que beaucoup de gens se rendent compte que la communauté de l'intelligence artificielle n'est pas si grande, et la lettre compte maintenant plus de 20 000 signatures. C'est une bonne proportion des personnes qui travaillent dans ce domaine et qui étaient très heureuses de la signer.

De quoi s'inquiète tant la communauté? Il me semble que l'armée a toujours joué un grand rôle dans le développement de nouvelles technologies.
Beaucoup de mes collègues ont dit : « Nous ne voulons pas que tout le bien de cette technologie soit entaché par les armées qui s'en serviront pour faire le mal. » Comme toute technologie, l'intelligence artificielle n'est ni bonne ni mauvaise. Ce choix nous revient. Ce serait certainement un très mauvais choix aujourd'hui, les technologies que l'armée développe feront beaucoup d'erreurs. Dans l'avenir, avec les perfectionnements, elle révolutionnera la guerre par la vitesse et l'efficacité qu'elle permet de combattre.

Donc vous pensez que l'intelligence artificielle changera fondamentalement le déroulement des guerres?
On l'appelle la troisième révolution des conflits armés. La première a été l'invention de la poudre à canon par les Chinois, la deuxième est la bombe atomique et la prochaine étape sera l'intelligence artificielle. Elle déstabilisera la planète, qui est déjà plutôt déstabilisée… Comme dans les marchés financiers, où les algorithmes causent des krachs éclair, nous pourrions créer des conflits à cause de machines qui sont entrées dans une boucle de réactions à une si grande vitesse que nous ne pourrons pas intervenir.

Publicité

Est-ce que votre lettre a eu des répercussions? On sait qu'elles peuvent susciter un intérêt dans les médias et ensuite tomber dans l'oubli.
J'ai été invité à prendre la parole trois fois à l'ONU. Il y a encore beaucoup d'obstacles possibles. La première fois, il était évident que les Chinois étaient le problème. Maintenant, ce sont en grande partie les Russes.

J'ai l'impression d'avoir déjà entendu ça…
La Russie se comporte d'une façon beaucoup plus agressive, en ce qui a trait à la politique et aux Nations unies. En fait, c'est le pays qui n'était presque pas d'accord avec la décision d'en parler de façon plus officielle [de l'intelligence artificielle dans l'armée]. Je pense qu'à la dernière minute ils ont accepté de s'abstenir, alors que la plupart des autres pays étaient d'accord.

Les médias ont une vision à la Terminator de ce que pourrait être la guerre autonome. Est-ce que c'est ce à quoi ressemble le pire scénario catastrophe pour vous aussi?
Hollywood réussit en fait assez bien à prédire l'avenir. Si l'on ne fait rien, dans 50 ou 100 ans, ce sera assez proche de Terminator. Ce ne serait pas si différent des scénarios d'Hollywood. Mais il y a beaucoup de risques bien avant. Des armées ont déjà des prototypes de beaucoup de ces technologies, qu'elles vont envoyer sur le terrain dans les prochaines années si nous ne faisons rien. Ce ne sera pas de l'intelligence artificielle, mais de la stupidité artificielle.

Publicité

Qu'est-ce que vous entendez par stupidité artificielle?
Pour commencer, ce sera simplement de l'incompétence, sans la malveillance qu'on voit dans Terminator. Mais, éventuellement, la technologie deviendra meilleure. Et je dois vous dire, vu les technologies avec lesquelles jouent les armées en ce moment, je suis très inquiet. En particulier dans les zones de guerre, qui est un endroit très confus. En novembre dernier, des drones qu'utilisaient les Américains ont tué une autre personne que celle qui était ciblée neuf fois sur dix.

Il est important de rappeler que c'est l'armée américaine qui a le plus financer l'intelligence artificielle. On voit, de leur perspective, le grand avantage militaire de pouvoir automatiser certaines des choses qu'ils font. Rien ne justifie que qui que ce soit perde un membre ou la vie pour déminer un terrain. C'est un travail parfait pour un robot. Si ça tourne mal, le robot explose, tout le monde s'en fout. Pour envoyer des vivres dans une région instable, on ne devrait pas risquer la vie de qui que ce soit non plus. Donc, il y a plein de choses positives qu'ils peuvent faire grâce à l'intelligence artificielle pour éviter de risquer la vie des gens. Mais, vous savez, donner le droit aux machines de décider de la vie ou de la mort… Il y a plein de raisons techniques pour lesquelles je dirais que c'est une mauvaise idée, avant même de parler de réserve d'ordre moral et éthique.

Publicité

J'imagine aussi qu'un nombre vertigineux d'emplois seront perdus à cause de l'automation et de l'intelligence artificielle.
Il y a beaucoup d'incertitude à propos de ce que réserve l'avenir. Des emplois disparaîtront évidemment, nous en sommes certains. En septembre, Uber a commencé ses essais de véhicules autonomes dans les rues de San Francisco. Si vous êtes un conducteur pour Uber, vous devriez savoir que votre emploi sera de courte durée. C'est ironique, car c'est l'un des plus nouveaux emplois dans le monde et ce sera l'un des premiers à disparaître.

Quel est le bon côté? Je me demande parfois si l'on veut vraiment des robots.
C'est difficile d'imaginer les autres bénéfices. Mais, par exemple, 1000 personnes meurent sur les routes chaque année en Australie, et ce nombre chuterait jusqu'à zéro. Ça transformera nos villes. Il n'y aura plus autant de bouchons de circulation. Nous ne perdrons plus tout ce temps dans nos voitures, des heures au potentiel très réduit. Pour la plupart d'entre nous, il y aura de nombreux bénéfices.

Est-ce que mon emploi sera en jeu?
Il y a encore des choses auxquelles les machines sont mauvaises, et j'ai bien l'impression qu'elles resteront mauvaises longtemps. Elles ne sont pas aussi créatives que nous. Donc, tous les emplois créatifs continueront d'exister pendant encore un bon moment.

Il y a des robots qui écrivent des scénarios.
Oui, il y en a. Mais les machines ont une faible intelligence émotionnelle. Tout ce qui est humain devrait être conservé. J'ajouterais que l'un des emplois les plus sûrs est l'un des plus vieux métiers du monde.

La prostitution?
La menuiserie. Nous allons donner de plus en plus de valeur aux choses faites par l'homme. Les choses qui sont produites en série, leur coût va chuter parce qu'elles sont faites par des machines qui peuvent fonctionner jour et nuit. À l'inverse, les choses rares, celles faites de nos mains humaines coûteuses, auront le plus de valeur. On le voit déjà dans l'industrie de la musique. Le numérique n'a pas détruit l'industrie comme certains le craignaient. Ironiquement, on est revenus à une industrie comme dans le temps où c'étaient les concerts qui permettaient de gagner de l'argent. Il y a aussi un retour vers ce qui est plus analogue que numérique. Donc, je vois beaucoup d'opportunités.

Vous êtes en fin de compte en faveur des robots, mais pas des robots soldats tueurs?
On a parfois l'impression qu'un avenir est inévitable, mais ce n'est pas le cas. L'avenir sera fait de choix que nous faisons aujourd'hui. Si nous ne faisons rien, je crains que l'avenir soit plutôt sombre. Les riches s'enrichiront et les autres s'appauvriront. Il y a un grand nombre de chômeurs, qui vivent dans la pauvreté et avec le mépris de la société. Nous devons nous assurer que chacun de nous bénéficiera de la prospérité et de la richesse que les machines vont créer. Pour cela, nous devons faire des choix. Nous avons aussi besoin de politiciens courageux et ambitieux, et je n'en vois pas beaucoup.

Suivez Maddison Connaughton sur Twitter.