I porno-fake ricreati con l'Intelligenza Artificiale ci fotteranno tutti

Il finto porno della nuova 'Wonder Woman', Gal Gadot, creato grazie a un algoritmo ha implicazioni terrificanti.
12.12.17
Immagine: Screenshot da SendVids

Su internet gira un video di Gal Gadot che fa sesso con il suo fratellastro. Ma quello che si vede non è esattamente il corpo di Gadot e neanche il suo volto. Si tratta di un'approssimazione digitale, ricreata grazie alla tecnica dello face-swap per fare sembrare che l'attrice si stia esibendo in un autentico video porno a tema incesto.

Il video è stato realizzato con un algoritmo di machine learning, utilizzando delle immagini facilmente accessibili e del codice open-source che chiunque con una conoscenza base degli algoritmi di deep learning può gestire.

Un clip dal video completo caricato su SendVids che mostra il volto di Gal Gadot sul corpo di una attrice porno.

Osservandolo con attenzione, è chiaro che il video è un falso. In certi momenti, il volto non risulta tracciato correttamente e c'è un effetto da uncanny valley ma, a colpo d'occhio, risulta credibile. È sorprendente, considerando che molto probabilmente è il frutto del lavoro di una sola persona — un Redditor noto come 'deepfakes' — non di un grande studio di effetti speciali che può ricreare digitalmente una giovane principessa Leia in Rogue One utilizzando la CGI. Al contrario, deepfakes utilizza strumenti di machine learning open-source come TensorFlow, messo a disposizione gratuitamente da Google per ricercatori, studenti e chiunque si interessi di machine learning.

Proprio come il tool Adobe che può far dire di tutto alle persone e l'algoritmo Face2Face che può sovrapporre ad un video registrato in precedenza dei movimenti del volto di un'altra persona rilevati in tempo reale, questo nuovo genere di fake porn dimostra come stiamo per vivere in un mondo in cui è estremamente facile produrre dei video credibili di persone che fanno e dicono cose che non hanno mai fatto. Persino fare sesso.

Finora, deepfakes ha pubblicato su Reddit video porno con i volti di Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza e Gal Gadot. Ho contattato chi cura le immagini pubbliche di ognuna di queste attrici informandoli dei video falsi e riporterò le loro eventuali risposte.

Il fake celebrity porn, basato su immagini photoshoppate per fare sembrare che personaggi famosi stiano posando nudi, è un genere di porno che esiste da diversi anni con una nutrita fan base. Le persone che commentano e votano nel subreddit dove deepfakes posta i video sono grandi fan del suo lavoro. Si tratta dello stato dell'arte del genere.

“Non ci vuole una laurea.”

Secondo deepfakes — che si è rifiutato di rivelarmi la sua identità per evitare ripercussioni pubbliche — il software è basato su diverse librerie open-source, come Keras con TensorFlow in backend. Il redditor mi ha spiegato di avere usato le immagini disponibili su Google, foto stock e i video di YouTube per i volti delle celebrità da sovrapporre. Il deep learning consiste in reti di nodi interconnessi che eseguono autonomamente dei calcoli su una serie di dati forniti in input. In questo caso, lui ha messo alla prova i loro algoritmi con un video porno e il volto di Gal Gadot. Dopo che hanno eseguito per un po' questo "training", i nodi si organizzano per completare un compito particolare, come manipolare dei video in tempo reale in modo convincente.

Il ricercatore di intelligenza artificiale Alex Champandard mi ha spiegato via mail che una scheda grafica decente può elaborare questo effetto nel giro di qualche ora, ma anche una CPU può funzionare altrettanto bene, solo più lentamente, nel corso di giorni.

"Non ci vuole una laurea," ha spiegato Champandard.

La facilità con cui chiunque può eseguire questa operazione è spaventosa. A parte i dettagli tecnici, servono solo un numero sufficiente di immagini del volto di qualcuno. Molti di noi stanno già creando dei database estesi dei propri volti: persone da tutto il mondo hanno caricato 24 miliardi di selfie su Google Photos nel 2015-2016. Non è difficile immaginare un programmatore che crea il proprio algoritmo per creare un sex tape di qualcuno che vuole molestare.

Deepfakes mi ha detto che non è un ricercatore professionista, ma solo un programmatore appassionato di machine learning.

"Ho semplicemente scoperto un modo intelligente per eseguire il face-swap," ha detto, riferendosi al suo algoritmo. "Avendo a disposizione centinaia di immagini, posso generare facilmente milioni di immagini 'distorte' per addestrare la rete," ha detto. "Dopodiché, se fornisco in input il volto di qualcun altro, la rete penserà che sia solo un'altra immagine distorta e cercherò di farla sembrare il volto su cui si è già 'allenata'."

In un commento sul thread di Reddit in cui posta, deepfakes ha dichiarato di stare usando un algoritmo simile a quello sviluppato dai ricercatori di Nvidia che, per esempio, sfrutta il deep learning per trasformare istantaneamente un video di una scena estiva in una scena invernale. I ricercatori di Nvidia che hanno sviluppato l'algoritmo non hanno commentato questa possibile applicazione del loro prodotto.

In quasi tutti gli esempi postati da deepfakes, il risultato non è perfetto. Nel video di Gadot, in certi momenti, appare un box intorno al suo volto quando quello originale non è ben visibile, oppure la sua bocca e i suoi occhi non sono perfettamente sincronizzati con le parole che sta dicendo l'attrice — ma socchiudendo un po' gli occhi e sospendendo momentaneamente il giudizio, potrebbe anche essere la Gadot; altri video postati da deppfakes sono ancora più convincenti di questo.

L'attrice porno Grace Evangeline mi ha raccontato tramite dei messaggi diretti su Twitter che le porno star sono abituate a ritrovare il loro lavoro diffuso liberamente senza il loro permesso su siti come SendVid, dove è stato caricato il fake di Gal Gadot. Ma questo caso è completamente diverso, ha aggiunto. Non aveva mai visto nulla di simile.

"La cosa più importante è che deve sempre esserci il consenso," ha spiegato Evangeline. "Consenso tanto nella vita privata quanto nei film. Creare scene di sesso falso con delle celebrità va contro il loro consenso. È sbagliato."

Anche per chi lavora davanti a una telecamera, la violazione dei confini personali è preoccupante. Ho mostrato il video della Gadot ad Alia Janine, una attrice porno che si è ritirata dopo aver fatto parte dell'industria per 15 anni. "È davvero inquietante," mi ha detto al telefono. "In qualche modo, dimostra come fondamentalmente certi uomini vedono le donne solo come oggetti che possono manipolare e costringere a fare tutto ciò che vogliono... È una completa mancanza di rispetto per gli interpreti del porno e anche per le celebrità."

Ho chiesto a deepfakes se ha riflettuto sulle implicazioni etiche di questa tecnologia. Ha pensato a temi come il consenso, il revenge porn e le blackmail durante lo sviluppo di questo algoritmo?

"Ogni tecnologia può essere utilizzata con scopi malevoli, è impossibile impedirlo," ha detto, paragonandola alla stessa tecnologia che ha ricreato la performance post-mortem di Paul Walker in Furious 7. "La differenza principale è capire quanto possa essere alla portata di tutti. Non credo che sia necessariamente un male se più persone si impegnano nella ricerca sull'apprendimento automatico."

"Le implicazioni etiche sono 'enormi'," ha detto Champandard. Spesso non è possibile evitare l'uso malevolo della tecnologia, ma questo può essere contrastato.

"Serve un dibattito pubblico deciso," ha aggiunto. Ognuno deve sapere quanto è facile creare video e immagini false, al punto che tra qualche mese non riusciremo più a distinguere da quelle vere. Naturalmente, è già possibile da molto tempo, ma ci sono voluti molte risorse e professionisti degli effetti visivi per farlo uscire fuori. Ora, un singolo programmatore che dispone di hardware recente può farlo."

Champandard ha spiegato che ora i ricercatori possono iniziare a sviluppare tecnologie per identificare i video falsi e contribuire a moderare ciò che è falso da ciò che non lo è. La stessa policy di internet può essere aggiornata per regolare cosa accade quando vengono pubblicati questo genere di falsi e di molestie.

"In qualche strano modo," è un avvenimento quasi positivo, ha spiegato Champandard. "Dobbiamo porre l'accento sulla trasformazione della società per riuscire ad affrontare questo problema."

Seguici su Facebook e Twitter