FYI.

This story is over 5 years old.

Crime

Le gratin des experts en technologies explique pourquoi il a peur des futurs « robots tueurs »

Elon Musk, le physicien de renom Stephen Hawking et le co-fondateur d’Apple Steve Wozniak ont prévenu que l’intelligence artificielle et la robotique pourraient alimenter une course aux armements meurtrière et inquiétante.
Photo via Pixabay

Certains experts parmi les plus grands scientifiques du monde craignent que l'humanité ne soit sur le point de débloquer un potentiel inquiétant de l'intelligence artificielle, et ont lancé un appel pour bannir les systèmes d'armes autonomes et les « robots tueurs » qui peuvent sélectionner et attaquer des cibles sans être dirigés par des humains.

Le co-fondateur d'Apple Steve Wozniak, le fondateur de Tesla et de SpaceX, Elon Musk, ainsi que le physicien renommé Stephen Hawking étaient parmi le groupe de plus de 1 000 scientifiques, chercheurs et ingénieurs distingués qui ont signé une lettre selon laquelle — dans la course pour développer de tels systèmes de défense — « les armes autonomes deviendront les Kalachnikov de demain. »

Publicité

La lettre a été présentée ce lundi à l'ouverture de la Conférence internationale sur l'intelligence artificielle à Buenos Aires, en Argentine.

« Le futur est effrayant, et très mauvais pour les gens. »

La lettre reconnaît que les armes robotiques pourraient potentiellement réduire les victimes humaines dans les conflits, mais estime que les inconvénients finiront par dépasser les avantages.

« La technologie d'intelligence artificielle a atteint un point où le déploiement [des armes autonomes] est — de manière pratique et même légale — envisageable d'ici quelques années, et non des décennies, alors que les enjeux sont énormes : les armes autonomes ont été décrites comme la troisième révolution dans le monde de la guerre, après la poudre et les armes nucléaires, » peut-on lire dans la lettre.

Mais à l'inverse des armes nucléaires, dont les composants sont traçables et relativement faciles à surveiller, les « armes autonomes » peuvent se répandre facilement et modifier de manière fondamentale la nature des conflits.

« Elles ne requièrent pas de matériaux coûteux ou difficiles à obtenir, et vont donc se répandre tout en étant peu coûteuses à produire en masse pour toutes les grandes puissances militaires, » déclare la lettre.

La lettre appelle également à des lignes directrices plus claires entre ce qui relève de la recherche académique sur l'intelligence artificielle (IA) et la recherche militaire.

Publicité

« Tout comme le fait que la plupart des chimistes et des biologistes n'ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs qui travaillent sur l'IA n'ont aucun intérêt à construire des armes autonomes — et ne veulent pas que d'autres viennent ternir leur champs de recherche ce faisant, attirant potentiellement des critiques majeures de la part de l'opinion publique."

Ce n'est pas la première fois que des scientifiques de premier plan tirent la sonnette d'alarme vis-à-vis de l'intelligence artificielle. En aout dernier, Elon Musk a averti sur le fait que l'intelligence artificielle pouvait "potentiellement être plus dangereuse que les têtes nucléaires." Stephen Hawking lui a mis en garde l'année dernière contre "Le développement d'une intelligence artificielle complète qui pourrait signifier la fin de la race humaine." Il a signé en janvier dernier une lettre similaire, qui militait pour une régulation de l'intelligence artificielle soumise aux commandes des hommes.

Plus tôt cette année, le fondateur de Microsoft, Bill Gates, a fait écho à ces craintes, lors d'une session de questions-réponses sur Reddit.

"Je suis dans le camp de ceux qui sont inquiets à propos de l'intelligence artificielle," répondait-il, interrogé sur les dangers que représenterait une intelligence artificielle sophistiquée. "Tout d'abord, les machines feront des travaux pour nous, et ne seront pas très intelligentes. Cela pourra avoir un effet positif si nous parvenons à nous en occuper correctement. Quelques décennies plus tard, l'intelligence sera suffisamment solide pour devenir un problème. Je suis d'accord avec Elon Musk et d'autres sur ce point, et je ne comprends pas pourquoi d'autres personnes ne sont pas inquiètes."

Publicité

Au mois de mars, Steve Wozniak a expliqué au journal Australien Financial Review que "si nous construisons ces machines pour qu'elles s'occupent de tout à notre place, elles finiront par penser plus vite que nous, et elles se débarrasseront des lents humains, pour diriger des entreprises avec plus d'efficacité."

"Le futur fait peur, et il n'est pas bon pour les gens," a-t-il ajouté.

Tout le monde ne partage pas cette vision apocalyptique pour autant. John Markoff, un journaliste des pages technologie du New York Times, récompensé par un prix Pulitzer, a dit au magazine scientifique en ligne Edge, plus tôt ce mois-ci, qu'il pensait que cette vision était exagérée.

"Gates, Musk, et Hawking, ont tous dit qu'il s'agissait d'une menace existentielle pour l'humanité. Je ne vois pas ça comme ça," dit-il.

"À mon avis, après avoir travaillé deux ou trois ans sur ce sujet, la situation est bien plus nuancée que ce que les alarmistes pensent," dit Markoff. "Il y a deux choses à prendre en compte. La première, c'est que le rythme n'est pas aussi rapide. Déployer ce genre de technologies prend plus de temps que ce que les gens pensent. Deuxièmement, la structure de la force de travail pourrait changer dans un sens qui aille vers plus de robots que ce que l'on pensait."

"2045 ressemblera d'avantage à aujourd'hui que ce que vous pensez," a-t-il ajouté.

Photo via Pixabay