Publicité
Motherboard

Pourquoi une IA a favorisé les femmes blanches lors d’un concours de beauté

Ce n'est pas la première fois que quelque chose de ce genre arrive, et c'est problématique.

par Jordan Pearson
15 Septembre 2016, 5:00am

Image: Flickr/Veronica Jauriqui

Les concours de beauté ont toujours été quelque chose de politique. Après tout, les traits physiques, que nous qualifions de beaux ou de laids, sont ce qui témoigne le plus de notre perception des autres. Il aura fallu attendre 1984 pour que le concours de Miss Amérique désigne une femme noire comme étant la plus belle femme du pays.

Qu'en est-il si l'on remplace les juges par des machines ? Un robot, contrairement à un être humain, ne devrait pas avoir de préjugés raciaux. D'ailleurs, un ordinateur est-il même capable de différencier la couleur de peau et de regarder, potentiellement, d'autres marqueurs plus universels d'attractivité ? Ou même d'apprécier un peu de mélanine ? Il s'avère que non, pas vraiment.

Le groupe Youth Laboratories, basé en Russie et à Hong Kong et pris en charge par Microsoft et Nvidia, a lancé Beauty.AI, un concours de beauté d'un nouveau genre. 600 000 participants du monde entier – Inde, Chine, Afrique et États-Unis – ont soumis leur portrait. Un ensemble de trois algorithmes était chargé d'évaluer la symétrie de leur visage, leurs rides, et de comparer l'âge réel à l'âge perçu. La couleur de peau n'entrait donc pas en compte.

Les résultats, publiés en août, ont été un véritable choc : sur les 44 gagnants, tous étaient caucasiens, à l'exception de six Asiatiques et d'une seule personne à la peau sombre.

Comment est-ce arrivé ?

Image: Beauty.ai

La première chose à savoir est que les trois algorithmes ont utilisé un type d'apprentissage automatique appelée « deep learning » ("apprentissage profond"). Un algorithme est « enrichi » grâce à des modèles de données, de sorte que lorsqu'on lui présente une nouvelle image, il peut prédire avec un degré de certitude ce qu'il voit. Dans le cas de Beauty.AI, tous les algorithmes ont été entraînés sur des bases de données d'apprentissage automatique enrichies en open source par les chercheurs.

Le deep learning est la plus puissante forme d'intelligence artificielle et est utilisé par des grosses sociétés comme Alphabet et Facebook. Cependant, des travaux récents ont démontré que ces systèmes pouvaient présenter toutes sortes de préjugés inattendus (et très humains). Par exemple, un algorithme de traitement de langage a récemment jugé les noms de Blancs comme étant plus « plaisants » que les noms de Noirs.

"Il s'avère que la couleur compte dans la vision par ordinateur"

Le problème est qu'il y a manifestement eu un biais dans l'alimentation de l'algorithme par les humains.

« Nous avons un problème avec notre base de données », a déclaré Konstantin Kiselev, directeur de la technologie de Youth Laboratories, lors d'une interview. « Notre base de données comportait beaucoup plus de personnes blanches que de personnes indiennes, par exemple. À cause de cela, il est possible que notre algorithme ait été biaisé. »

« Il s'avère que la couleur compte dans la vision par ordinateur », m'a expliqué Alex Zhavoronkov, directeur de la science chez Beauty.AI. « Et pour certains groupes de population, les ensembles de données manquent d'échantillons. »

L'autre problème avec le contenu de Beauty.AI en particulier, selon Kiselev, est que la grande majorité (75 pour cent) des participants au concours étaient européens et blancs. Sept pour cent venaient d'Inde, et un pour cent venait du continent africain. C'est donc 40 000 Indiens et 9 000 personnes d'Afrique qui, selon les algorithmes, ne collaient pas à l'idée de beauté qu'ils étaient entraînés à reconnaître.

« Il est possible que peu de personnes aient entendu parler du concours dans ces endroits, déclare Kiselev. Les relations publiques ont posé problème, et nous voulons faire plus de sensibilisation dans d'autres pays. »

Beauty.AI organisera un autre concours de beauté en octobre,et aura donc une autre chance de tenir ses promesses pour ce qui est de faire un meilleur travail de recrutement des participants en provenance de pays hors de l'Europe.

La question de savoir comment effacer les préjugés dans les bases de données est plus épineuse, en revanche, et rappelle de précédents développements. Le film photographique a été originalement conçu pour être mieux adapté aux peaux blanches, par exemple, ce qui veut dire que, jusqu'à ce que l'industrie décide de corriger le problème, chaque appareil démontrait un préjugé raciste, et ce, même entre les mains d'un photographe non-raciste.

Et de fait, Zhavoronkov m'a dit que les algorithmes de Beauty.AI ont parfois rejeté les selfies de personnes à la peau bronzée si la luminosité était trop faible.

Le deep learning souffre d'un problème comparable : les chercheurs partagent des bases de données d'entraînement et dispositifs standards, souvent sans les adapter, ce qui signifie que ces préjugés sont reproduits par des algorithmes universels, même si les scientifiques eux-mêmes sont pleins de bonnes intentions.

« L'industrie a besoin d'un vaste répertoire centralisé contenant des photos de haute qualité de différents visages, ainsi que d'images annotées représentant les divers groupes ethniques, et que ce répertoire soit ouvert au public et aux start-up de manière à minimiser les préjugés raciaux », explique Zhavoronkov.

« Le problème fondamental, c'est que quand un petit groupe de programmeurs développe une application utilisant la vision par ordinateur, poursuit-il, ils ont tendance à se moquer éperdument des éventuels préjugés raciaux. Tout ce qu'ils veulent, c'est être sur le marché le plus rapidement possible. »