Des chercheurs catholiques utilisent l’intelligence artificielle pour censurer les photos de femmes nues

Alors que certains utilisent l’IA afin de dénuder des femmes, des chercheurs s'en servent pour les rhabiller.
23.7.18
Photo via Pixabay

L’intelligence artificielle est probablement une des technologies les plus innovatrices depuis l’invention de l’électricité. Grâce à elle, on peut sauver des vies, créer de la musique, gérer nos finances et optimiser la navigation sur le web. L’internet, une autre grande invention, est composé à 30 % d’images de personnes nues. Si la plupart des gens n’y voient absolument aucun problème, il semble que certains catholiques en voient un.

C’est pourquoi des chercheurs de l’Université pontificale catholique de Rio Grande do Sul, au Brésil, ont mis à profit l’intelligence artificielle pour contrer le fléau de la nudité en ligne. En apprenant à un système neuronal à reconnaître des images de femmes nues, ils ont aussi pu lui apprendre à les censurer en mettant un bikini aux femmes.

En utilisant plus de 2000 photos, les chercheurs ont en premier lieu nourri le système de photos de femmes en bikini, afin de lui apprendre à les reconnaître. Par la suite, le système neuronal a analysé plusieurs images de femmes nues. En utilisant ses connaissances nouvellement acquises, il a pu savoir (à peu près) où superposer les maillots de bain sur le corps des femmes. Comme le rapporte The Register, le système agit un peu comme un « traducteur d’image à image ».

Pour plus d'articles comme celui-ci, inscrivez-vous à notre infolettre.

« Lorsque nous entraînons le réseau, il tente d’apprendre comment mettre en correspondance les données d’un domaine – les images de femmes nues – à un autre – les images de femmes en maillot », explique Rodrigo Barros, coauteur de l’étude. « La distribution des images des deux domaines est très différente. »

Pour l’instant, le système neuronal inventé par les chercheurs réussit avec un succès très modéré. Sur la plupart des images, les bikinis sont mal placés et ne couvrent pas assez des régions que le système devrait censurer, alors que pour d’autres images, ça n’a pas fonctionné du tout. Sur les quelques photos où l’invention des chercheurs a bien fait son travail, on peut tout de même deviner qu’il ne s’agit pas de l’image d’origine.

Photos générées par le système des chercheurs. Capture d'écran de l'étude.

Le professeur Baros dit que son équipe et lui continueront de travailler sur ce système afin de le perfectionner et de le rendre plus fiable avant de le rendre accessible. Si le but premier des chercheurs avec ce projet était d’aider à contrer la vengeance porno, ils concèdent que la technologie pourrait être manipulée afin de produire l’effet contraire. Ils affirment toutefois que ce genre de fonction ne sera pas incluse dans la version définitive du logiciel, ce qui est rassurant, parce qu’on a déjà assez de problèmes avec les deepfakes.

Billy Eff est sur internet ici et .