FYI.

This story is over 5 years old.

Cette IA abat les joueurs de Doom à la chaîne

Deux développeurs ont conçu une IA extrêmement efficace pour exterminer son prochain. Que se passerait-il si elle était utilisée dans le monde réel ?

D'habitude dans les jeux de tir, que ce soit dans Call of Duty, Battlefield ou Titanfall, les ennemis contrôlés par l'ordinateur ne parviennent à gagner que parce qu'ils trichent tout le temps. Ils voient à travers les murs, changent d'arme instantanément, et arrivent à glisser un tir parfait dans une porte entrouverte de deux centimètres. Mais ils sont incapables d'apprendre quoi que ce soit ou de réfléchir.

Publicité

Deux étudiants à Carnegie Mellon, Guillaume Lample et Devendra Singh Chaplot, ont créé une intelligence artificielle prénommée Arnold, qui, elle, progresse à un rythme terrifiant ; ses créateurs l'ont lâchée dans Doom dans les mêmes conditions qu'un joueur humain, et elle est non seulement devenue meilleure qu'un bot, mais aussi meilleure qu'un joueur de chair et de sang.

Si la prouesse est impressionnante en termes de programmation, les deux informaticiens sont aujourd'hui sous le feu de la critique : ils ont entraîné leur IA pour en faire une machine à tuer la plus efficace possible.

Pour développer Arnold, il a fallu relever un grand défi. Dans les jeux de société classiques tels que les échecs ou le go, le plateau est toujours entièrement visible. Les intelligences artificielles peuvent prévoir leurs coups à l'avance et analyser les modèles, jusqu'à dominer les grands maîtres humains. Mais dans un FPS, la vision du monde du jeu est limitée et les actions des adversaires peuvent être irrationnelles. Cela exige, comme l'écrivent Lample et Chaplot dans leur article, « un champ de compétences très large, telles que l'orientation à l'aide d'une carte, la collecte d'objets, l'identification et le combat contre les ennemis. » L'expérience repose sur DeepMind, le framework de machine learning de Google, qui a déjà permis de maîtriser plusieurs jeux sur Atari. Les développeurs ont ensuite séparé le processus d'apprentissage d'Arnold en deux tâches : le combat et le déplacement dans un univers en 3D.

Publicité

APPRENDRE À TUER

Au début, l'intelligence artificielle restait sur place, en regardant autour d'elle, pour apprendre à identifier les marines ennemis, puis à leur tirer dessus. Dans la phase suivante, elle a exploré la carte du jeu pour ramasser des armes, des munitions et des medikits.

Pour y parvenir, les deux étudiants ont misé sur le reinforcement learning, l'apprentissage par renforcement. L'IA ne se contente pas de copier les joueurs humains ou d'apprendre des tactiques toutes faites, mais elle prend ses propres décisions pour évaluer leurs conséquences, ainsi que les avantages et inconvénients de ses actions. Pour chaque tir et chaque arme ramassée, elle obtient un feedback. Lors de l'un de ses premiers essais, Arnold tirait quelque part au pistolet en espérant qu'un ennemi allait passer dans sa ligne de mire. Une tactique qu'il a fallu abandonner.

En affrontant des bots et des adversaires humains à la chaine, Arnold a appris et progressé continuellement. Aujourd'hui, comme le montre cette vidéo, l'IA est devenue incroyablement rapide, efficace, précise, impossible à toucher au BFG ou au super shotgun. Et tout ça, sans tricher.

« Nous montrons que l'architecture présentée et les agents IA intégrés surclassent substantiellement les joueurs humains dans un scénario de match à mort », écrivent doctement Lample et Chaplot à propos de leurs résultats, peu flatteurs pour les joueurs humains. En clair : leur intelligence artificielle n'est rien de moins qu'une machine à tuer méchamment efficace - même si elle est cantonnée à un jeu vidéo. Mais rien ne dit qu'elle le restera ! Des critiques évoquent désormais des images sombres de robots tueurs à la Terminator.

Publicité

« Le danger n'est pas qu'une IA tue des personnages quelconques dans un FPS vieux de 23 ans », s'inquiète Scott Eric Kaufman chez Salon. « Mais le fait qu'elle ait été conçue pour s'orienter dans le monde comme un humain. Cela faciliterait son portage. » Heureusement, ce n'est pas au programme pour le moment.

On pourrait certes placer Arnold dans un corps robotique tel que le TALON de Foster-Miller ou Atlas de Boston Robotics, y monter une mitrailleuse et apprendre à l'intelligence artificielle à placer dans son viseur de vraies personnes au lieu d'amas de pixels. Cela justifierait le nom donné à cette IA en donnant naissance à des robots comme le T-800 ou aux vigiles électroniques du film Chappie.

Dans les films dystopiques comme Chappie de Neil Blomkamp, les vigiles et les policiers pilotés par des IA sont déjà une réalité. Ils n'ont pas d'éthique, ils blessent et tuent des gens. Image: Columbia Pictures.

Cette petite expérience d'IA dans un jeu de tir pose finalement des questions d'une profondeur inattendue. Il ne s'agit pas seulement de savoir ce qu'une IA peut et ne peut pas faire, mais de se demander quelles normes éthiques doivent encadrer le travail de ses créateurs.

« Nous lui avons seulement appris à jouer à un jeu », se justifie Devendra Singh Chaplot lorsqu'il donne son avis sur la controverse. Mais pour une IA, se trouver dans un monde réel ou virtuel n'a guère d'importance. Personne réelle ou PNJ, elle se moque également de ce sur quoi elle tire.

Depuis longtemps, les géant de la tech ont identifié l'urgence à fixer des barrières éthiques au développement des intelligences artificielles, et à débattre sur la moralité des IA. Des collaborations telles que Partnership on AI, fondé par Google, IBM, Facebook et Amazon, ou OpenAI, créé par Elon Musk, fondateur de Tesla, peuvent représenter une première étape importante. Elles promettent de s'opposer au « développement et à l'utilisation de technologies d'IA qui contreviendraient aux conventions internationales et aux droits humains. » C'est aussi une nécessité. Car placer un vrai fusil entre les mains d'un système comme Arnold serait sans doute une erreur mortelle.