Publicité
Motherboard

L'entreprise qui a commercialisé l'AK-47 fabrique maintenant des robots tueurs

Le groupe russe Kalashnikov a décidé de développer des IA tueuses. Faut-il paniquer tout de suite ?

par David Axe
19 Juillet 2017, 6:58am

La série des Kalashnikov PK montées sur des robots de combat. Image: Kalashnikov

Le groupe Kalashnikov, l'entreprise russe à l'origine du célèbre fusil d'assaut AK-47, affirme avoir mis au point une intelligence artificielle capable d'identifier des cibles sur le champ de bataille et de prendre des décisions offensives sans l'aide d'un opérateur humain.

Vous avez bien entendu. On parle ici d'une IA de combat à qui on donnerait le pouvoir de décider si un ennemi doit, ou non, être attaqué. Une promesse assez étonnante, étant donné les controverses éthiques épineuses sur l'usage militaire des drones de combat autonomes et le peu de fiabilité des IA dans de nombreux domaines à l'heure actuelle.

Rassurez-vous néanmoins : il y a de bonnes raisons de douter que l'IA en question - à supposer qu'elle existe bel et bien et qu'il ne s'agisse pas d'un coup marketing - soit vraiment utile au combat.

"Dans un futur proche, le Groupe va dévoiler une nouvelle gamme de produits basée sur des réseaux de neurones", a expliqué la porte-parole de Kalashnikov, Sofiya Ivanova, à l'agence de presse russe TASS le 5 juillet.

Ivanova explique que l'entreprise s'apprête à prendre un tournant technologique par l'intermédiaire "de modules de combat entièrement automatisés" exposés à l'occasion de l'édition 2017 du salon militaire de l'Armée russe.

Kalashnikov développe également des véhicules de combat robotiques qui pourraient, en théorie, embarquer sa nouvelle IA.

Le fait que l'un des plus gros fabricants d'armes au monde envisage de produire des robots de guerre intelligents et autonomes est certes un peu alarmante. En réalité, la technologie dont il est question ici est tout sauf nouvelle, et la planète n'est pas près d'être couverte par des robots tueurs à la Terminator.

"Les réseaux de neurones existent depuis belle lurette et ont été entraînés pour identifier différentes catégories de choses, dont des visages", nous explique Patrick Lin, roboticien à l'École polytechnique de l'Université de Californie, par email. "Les robots autonomes ne sont pas une nouveauté non plus, loin de là."

Les allégations de Kalashnikov sont extrêmement vagues, selon Lin, car employé seul, le concept de "réseau de neurones" ne désigne pas grand-chose. "Ils apprennent quoi les réseaux de neurones, ici ? Ils sont entrainés pour faire quoi ? Peut-être réalisent-ils une tâche très simple, comme identifier des cibles humaines, ou une tâche plus complexe, comme détecter un opposant portant une arme," ajoute Lin.

"C'est important de préciser ça," ajoute-t-il, "parce que la tâche affectée à l'IA conditionnera sa fiabilité et sa prévisibilité. Sans une bonne définition de cette tâche, on aura une perte de contrôle humain significative. Et sans contrôle humain, le système a peu de valeur, à moins que vous vouliez simplement tirer sur tout ce qui bouge, ce qui ne nécessite pas d'avoir une IA très performante."

Kalashnikov n'a pas souhaité répondre à nos questions.

Peter W. Singer, auteur de Wired for War, une monographie sur la robotique militaire, explique que Kalashnikov pourrait perdre gros en jouant avec la terminologie et les effets d'annonce. "L'IA a une définition extrêmement vague, qui varie en fonction des langues, des pays et des milieux scientifiques", explique-t-il à Motherboard par email. "Kalashnikov travaille-t-il sur des systèmes plus autonomes ? Sans aucun doute. Ces systèmes seront-ils totalement autonomes ? Certainement pas."

Dans le domaine de l'armement, l'autonomie complète d'un appareil ou d'une arme est un handicap plus qu'un avantage. Depuis des années, l'armée américaine construit des systèmes autonomes de détection de cible mouvante à haute précision. Or, ces systèmes nécessitent toujours l'intervention d'un opérateur humain pour contrôler les résultats des machines et les autoriser à ouvrir le feu. Sans cette opération de vérification, c'est le désastre assuré.

C'est une des raisons pour lesquelles le drone Reaper de l'Air Force, par exemple, nécessite deux opérateurs humains afin d'éviter tout jet de missile incongru. "Il y aura toujours besoin de caler un type dans la boucle", a déclaré un opérateur de drone de l'Air Force à Foreign Policy. "Il faudra toujours charger des humains de prendre des décisions, et heureusement."

D'une manière générale, rester sceptique les annonces de "technologies militaires révolutionnaires" est indispensable. Surtout quand on sait que, parmi les principales puissances militaires du monde, la Russie possède les systèmes autonomes les plus lents et les plus poussifs.

L'armée de l'air américaine fait voler des drones Predator depuis le milieu des années 1990, et les a armés en 2001. Quant aux Russes, ils exploitent bien quelques drones sans pilote, mais ne les ont toujours pas dotés d'armes efficaces.