Tech

D'où vient cette nana flippante qui hante les images générées par une IA ?

« Loab » est un creepypasta créée par une intelligence artificielle mais personne ne sait vraiment d'où elle sort.
Janus Rose
New York, US
MC
traduit par Myriam Chouder
Images générées par l'IA représentant une femme aux cheveux bruns et aux joues roses.
Images générées par Supercomposite.

Les générateurs d'images créées par une IA tels que DALL-E et Midjourney sont devenus un sujet particulièrement brûlant ces derniers temps, et on comprend facilement pourquoi. Grâce à des modèles d’apprentissage automatiques basés sur des milliards d'images, ces systèmes sont en mesure de créer des œuvres à la fois insolites et étrangement familières.

Naturellement, ce phénomène constitue un terrain fertile pour toutes sortes de légendes urbaines, puisque personne ne peut vraiment expliquer comment les réseaux neuronaux complexes décident des images qu'ils créent. Le dernier exemple en date est celui d'un artiste de l'IA nommé Supercomposite, qui a publié les images inquiétantes et grotesques d'une femme qui semble se manifester en réponse à différentes requêtes.

Publicité

La femme, que l'artiste appelle « Loab », a été découverte grâce à une technique appelée « signal de poids négatif » : un utilisateur demande au système d'intelligence artificielle de générer le contraire de ce qu'il tape dans le moteur de recherche.

Dans ce cas, l'utilisation du signal de poids négatif sur le mot « Brando » a donné l'image d'un logo représentant la ligne d'horizon d'une ville et les mots « DIGITA PNTICS ». Lorsque Supercomposite a utilisé la technique de signal de poids négatif sur les mots du logo, Loab est apparu.

« Puisque Loab a été découverte à l'aide de poids négatifs, sa forme est faite d'une collection de traits très éloignés de quelque chose », a expliqué Supercomposite dans un fil de discussion sur Twitter. « Mais ses traits combinés constituent toujours un concept cohésif pour l'IA, et presque toutes les images dérivées contiennent une Loab parfaitement identifiable. »

« Par une sorte d'accident statistique, quelque chose associe cette femme à une imagerie extrêmement gore et macabre dans la distribution de la connaissance du monde de l'IA. »

Les images ont rapidement fait le buzz sur les réseaux sociaux, ce qui a donné lieu à toutes sortes de spéculations sur les origines de ce phénomène. Le plus troublant est que Supercomposite affirme que les images générées à partir de l'image originale de Loab s'orientent presque universellement vers le domaine de l'horreur, de la violence graphique et du gore. Mais peu importe le nombre de variations, les images représentent toutes la même femme assez flippante.

Publicité

« Par une sorte d'accident statistique, quelque chose associe cette femme à une imagerie extrêmement gore et macabre dans la distribution de la connaissance du monde de l'IA », écrit Supercomposite.

On ne sait pas exactement quels outils d'IA ont été utilisés pour générer ces images, et Supercomposite refuse de s'étendre sur le sujet lorsqu'il est contacté par DM sur Twitter.

« Je ne peux confirmer ou infirmer de quel modèle il s'agit pour diverses raisons malheureusement ! Mais ce que je peux vous dire, c’est que Loab existe dans plusieurs modèles d'IA de génération d'images », a déclaré Supercomposite à VICE.

Loab serait-elle une sorte de présence hantant le système, des murmures émanant des ensembles de données de l'IA qui auraient pris forme humaine ? Ou s’agit-il simplement du désir humain de voir des schémas dans ce qui est au delà de notre compréhension ?

Malheureusement, il est pratiquement impossible de savoir exactement à quoi on a affaire. Les systèmes d'IA générant des images utilisent des modèles qui ont été exercés sur des milliards d'images, et ils sont bien trop complexes pour comprendre pourquoi et comment ils arrivent à certains résultats.

Paradoxalement, c'est précisément la raison pour laquelle les éthiciens de l'IA ont mis en garde contre l'utilisation de grands modèles de langage comme ceux utilisés par DALL-E : ces modèles sont tout simplement trop vastes, et leurs résultats trop imprévisibles, pour éviter efficacement les résultats néfastes. 

Publicité

Alors qu'OpenAI a mis en place des contrôles manuels pour DALL-E qui permettent de bloquer et de filtrer certains termes - pour éviter de générer de fausses images de célébrités, par exemple - d'autres modèles d'IA peuvent simplement être hébergés indépendamment. Cela a conduit certains amateurs à créer leur propre instance du logiciel et à l'utiliser pour générer toutes sortes de contenus pornographiques bizarres, ainsi que d'autres types de contenus auxquels les créateurs pourraient être opposés.

Il n'est peut-être pas possible de comprendre comment les modèles d'IA génèrent des anomalies perturbantes comme Loab, mais cela fait partie de leur mystère. Plus récemment, un autre groupe d'artistes de l'IA a prétendu avoir découvert un « langage caché » dans DALL-E, mais les tentatives pour reproduire ces résultats se sont révélées infructueuses. 

Pour l'instant, ces phénomènes sont comme un genre de creepypasta de l'ère de l'IA : à la fois fascinants et terrifiants, ils se situent au-delà des limites de notre compréhension.

VICE France est sur TikTok, Twitter, Insta, Facebook et Flipboard.
VICE Belgique est sur Instagram et Facebook.