FYI.

This story is over 5 years old.

Ne craignons pas l'intelligence des machines, mais leur incompétence

Oubliez les IA super intelligentes, les IA stupides seront notre perte.

Les chercheurs en IA vivent des temps difficiles. Les pauvres scientifiques qui s'adonnaient tranquillement à leurs activités (comme papouiller des réseaux de neurones, bâtir des modèles prédictifs de l'usage des emojis) ont vu les médias leur tomber sur le coin du nez il y a deux ou trois ans. Ces derniers affirmaient que lesdits chercheurs seraient, à terme, responsables du soulèvement des machines qui condamnera prochainement l'humanité. Les grands industriels du secteur tech, les philosophes et quelques grandes figures scientifiques se sont ajoutées au brouhaha, pointant du doigt nos humbles ingénieurs comme s'ils étaient de vulgaires tueurs d'enfants. Pourtant, à l'heure actuelle, le risque que l'IA échappe à notre contrôle est totalement insensé.

Publicité

Pourtant, les chercheurs en informatique nous avaient mis en garde contre les fantasmes sur l'IA, et nous avaient avertis que nous risquions de vivre une cruelle déconvenue le jour où il apparaîtrait qu'aucune machine super-intelligente n'est près de sortir des tiroirs. Le problème, c'est que « L'Intelligence Artificielle, c'est compliqué » ne fait pas un bon titre d'article. Ce n'est pas non plus une annonce très valorisante pour le chercheur souhaitant intervenir en conférence, ou trouver un job d'expert dans l'industrie. Pourtant, il faut bien se rendre à l'évidence : l'IA, c'est compliqué

Ce mois-ci, c'est au tour d'Alan Bundy, professeur de raisonnement automatisé à l'Université d'Édimbourg de faire une annonce fracassante. Dans un article publié dans Communications of the ACM, il affirme qu'il existe vraiment une menace liée à l'IA, mais qu'elle n'est en aucun cas liée à une quelconque super-intelligence machinique analogue à l'intelligence humaine. Bien au contraire, il estime que ce sont les IA nulles, incompétentes, chaotiques, qui posent un vrai danger.

Bundy note que la plupart des "grands succès" rencontrés en IA ces dernières années sont cantonnés à des types de performances certes spectaculaires, mais superficiels et peu variés. Oui, nous avons des machines qui peuvent jouer au Go ou à Jeopardy—au prix de coûts de développement démentiels—mais aucune de nos IA ne s'approche de près ou de loin de ce que l'on appelle "l'intelligence générale."

Publicité

"L'imminence de la singularité (c'est-à-dire le moment où l'intelligence des machines dépassera la nôtre, NDLR) est fondée sur un modèle linéaire d'intelligence, comme le QI, dans lequel on peut ranger toutes les espèces animales. Selon ce modèle linéaire, l'IA progresse, c'est vrai," écrit Bundy. "Cependant, l'intelligence générale est beaucoup plus complexe que cela, comme l'a montré Aaron Sloman avec succès. L'intelligence doit être modélisée au sein d'un espace multidimensionnel où différents types d'intelligence sont représentés. On verrait alors l'IA progresser, lentement, dans plusieurs directions."

Le grand public ne parvient pas à saisir cette idée, pour la simple et bonne raison que personne ne prend réellement le temps de l'expliquer convenablement. Nous, humains, possédons cette intelligence générale multi-facettes. Aussi, lorsque nous voyons un simulacre d'intelligence à la TV ou sur notre écran d'ordinateur, nous avons tendance à déduire qu'il s'agit également d'une entité possédant une intelligence générale. Pourtant, l'ordinateur joueur de Go ne sera jamais davantage qu'un ordinateur joueur de Go. "Les humains tendent à attribuer une intelligence élevée à des IA dont les performances s'exercent dans un domaine extrêmement étroit," explique Bundy.

Nos machines ne sont pas intelligentes. Au mieux, elles effectuent correctement la tâche qu'on leur a assignée, au pire, elles sont totalement incompétentes. Bundy a une position un peu marginale sur ce sujet : au début des années 1980, il a fait partie d'un collectif d'informaticiens britanniques s'étant opposé à Ronald Reagan et Edward Teller, et plus précisément à leur lnitiative de défense stratégique qui aurait dû emprunter la forme d'une IA en boucle fermée (c'est-à-dire, autonome). Cette IA était destinée à détecter les missiles balistiques intercontinentaux (ICBM) soviétiques afin de pouvoir les réduire en morceaux à l'aide de lasers avant qu'ils puissent rentrer dans l'atmosphère terrestre.

Publicité

À l'époque les décideurs étaient persuadés qu'il s'agissait d'une idée extrêmement brillante. De fait, ils n'imaginaient pas que la réalité scientifique et technique de l'IA était encore très en-deça du niveau de sophistication dont cette IA aurait eu besoin pour fonctionner correctement.  À l'époque, les systèmes de détection de missiles précoces produisaient de nombreux faux-positifs ; ils confondant les missiles avec des oiseaux ou avec la lune montante, par exemple. Hors, dans ce contexte, un faux-positif aurait immédiatement déclenché la guerre nucléaire.

"Fort heureusement à l'époque, un humain avait pour tâche de contrôler les résultats de l'IA et d'interrompre toute contre-attaque faisant suite à la détection d'un faux missile", explique Bundy. "Des chercheurs d'Édimbourg faisant partie de notre équipe ont demandé à rencontrer des scientifiques du ministère de la Défense du Royaume-Uni ; ces derniers ont finalement admis qu'ils étaient d'accord avec nos conclusions. Le projet a ensuite été abandonné discrètement, et transformé en un projet de recherche plus pacifiques. On a là un cas emblématique de non-scientifiques surestimant les capacités de bêtes machines."

Les chercheurs devraient "rendre publics tous les échecs de l'IA connus, afin de s'assurer que le public en comprend parfaitement les tenants et les aboutissants", ajoute Bundy.

Il estime que l'AI se développera de manière très compartimentée pendant de nombreuses années encore. Peut-être même qu'elle ne sortira jamais de ces compartiments hyper-spécialisés dans lesquels à chaque machine est assignée une tâche spécifique. Les machines continueront d'accroître leurs performances de manière spectaculaire au sein du compartiment auquel elles appartiennent, épouvantant les âmes impressionnables. On peut imaginer qu'une IA devienne imbattable à tous les jeux du monde, par exemple. Pourtant, les machines demeureront incapables d'effectuer une autre tâche que celle pour laquelle on les a programmées. Les machines sont stupides.

Aujourd'hui, le risques liés à une surestimation des capacités de l'IA sont les mêmes que dans les années 80. Lorsque les décideurs se convainquent que les performances de la machine équivalent au produit de la cognition humaine, ils leur attribuent des tâches sensibles, complexes, qu'elles ne peuvent pas effectuer correctement. Il faudra alors en assumer les conséquences.