Tech by VICE

Un réseau de neurones sème la confusion en reconstituant Blade Runner

Plus de trente ans après la sortie de Blade Runner, un logiciel réalise nos pires cauchemars en reconstituant le film et en dupant Warner Bros.

par Marie Simon
03 Juin 2016, 7:00am

Les outils de création et d'édition numériques étant de plus en plus puissants, il est devenu extrêmement difficile de déterminer ce qui fonde l'authenticité d'un document, d'un contenu ou d'une œuvre.

Il est déjà loin le temps où manuscrits et enregistrements audio pouvaient constituer des preuves irréfutables devant un juge. Aujourd'hui, modifier sa feuille d'impôts, faire un montage photo ou créer des effets spéciaux crédibles sur un film amateur est à la portée de tous. Longtemps, le format vidéo est resté le support par excellence de l'authenticité, puisqu'il est difficile de répliquer la spontanéité et la subtilité des expressions d'un visage en images de synthèse. Pourtant, les experts savent maintenant animer en temps réel le visage de personnalités apparaissant sur YouTube, comme s'il s'agissait de vulgaires marionnettes. Une aubaine pour les théoriciens du complot, qui pourront maintenant imaginer que les expressions faciales de Vladimir Poutine sont contrôlées à distance par une bande de reptiliens farceurs.

Reconstitution d'expressions faciales sur des vidéos RGB à l'aide d'un acteur source. Un exploit réalisé par des chercheurs en informatique de l'Université d'Erlangen-Nuremberg, de l'Institut d'informatique Max Planck et de l'Université Stanford.

Pourtant, l'ère de la confusion et du doute ne fait que commencer. Surtout lorsque l'on prend connaissance de la mésaventure qui a tourmenté la Warner la semaine dernière.

La titanesque société de production Warner Bros. en connaît un rayon sur le sujet de l'authenticité des œuvres, et plus précisément, sur le concept « d'œuvre originale protégée par Copyright. » Forcément, une partie de son activité consiste à fliquer les utilisateurs uploadant de manière illégale tout ou partie de ses films sur des plateformes de streaming.

Or, Vox rapporte que la société a récemment demandé à Vimeo de retirer une vidéo dans laquelle apparaîtraient des scènes du film Blade Runner. Jusque-là, rien d'étonnant. Pourtant, une anomalie de taille s'était glissée dans cette affaire : les scènes en question n'étaient en aucun cas tirées du film, mais avaient été créées par un réseau de neurones artificiels. Autrement dit, par un logiciel (autoencoder) ayant appris de manière autonome à simuler les décors, personnages et les actions visibles dans Blade Runner. Le fait que la Warner soit incapable d'identifier ses propres films est déjà alarmant en soi. Mais surtout, la situation est extrêmement ironique : le propos de Blade Runner est d'illustrer l'aspect changeant de la réalité et la difficulté à se fier aux êtres animés qui peuvent être des humains ou des machines, indifféremment. Ici, on est en plein dedans.

Une machine a imité un film qui parle de machines qui imitent. Et à partir du moment où les machines se mettent à reproduire des œuvres de SF, on peut raisonnablement dire que la confusion a atteint un effet de seuil. C'est ça, le futur. Un grand théâtre d'ombres à peine éclairé par quelques LEDs.

Le film Blade Runner (1982) reconstruit image par image en utilisant un type de réseau de neurones artificiels appelé auto-encodeur. Les 15 premières minutes du film sont comparées de manière synchrone avec leur reconstitution auto-encodée.

La vidéo qui a réussi à duper la Warner a été réalisée par Terence Broad, étudiant de master en informatique appliquée aux arts. Celui-ci a appris à un réseau de neurones à décoder/encoder une vidéo image par image sans s'appuyer sur des paramètres définis par un humain.

Tout d'abord, il a entrainé son autoencoder à regarder Blade Runner jusqu'à ce que celui-ci soit capable de le distinguer des autres films, c'est-à-dire jusqu'à ce qu'il ait intégré la distribution des images du film, séquence par séquence. Il a ensuite encodé ces images en une représentation plus simple (200 digit), puis les a reconstituées pour qu'elles ressemblent à l'image d'origine ; cela exige une forme de « créativité » puisque le réseau de neurones ne disposait pas de toutes les données nécessaires à la restitution exacte de la séquence. Il a donc extrapolé, afin qu'elle soit « cohérente » à l'œil. Comme on peut l'observer dans la vidéo, l'autoencoder a tellement bien réussi son coup que l'identité visuelle du film a été restituée de bout en bout, même lorsque le logiciel peinait à rendre compte des contours et des mouvements rapides. Terence Broad a répété le processus avec le film A Scanner Darkly de Richard Linklater, l'adaptation de Substance mort de Philip K. Dick. L'expérience est elle aussi un succès.

Broad confie à Vox : « En quelque sorte, vous regardez le film à travers les yeux du réseau de neurones. La reconstitution correspond à l'interprétation que celui fait du film, à partir de ses capacités, qui sont limitées mais suffisantes pour lui permettre de 'comprendre' comment le film est fait. »

Quand les réseaux de neurones auront épuisé tout le répertoire SF de Netflix, peut-être en sauront-ils assez sur les caractéristiques de la science-fiction pour nous proposer des oeuvres inédites qui ne soient pas seulement des collages ou des extrapolations rudimentaires à partir de supports existants. Et à ce moment là, nous vivrons vraiment dans cet univers cyberpunk en demi-teinte dont tout le monde semble, inexplicablement, être nostalgique.