Motherboard

Questa spaventosa app trasformava qualsiasi foto di donna in nudi

L'applicazione DeepNude utilizzava le reti neurali per rimuovere l'abbigliamento dalle fotografie di donne, facendole apparire realisticamente nude.

di Samantha Cole
27 giugno 2019, 4:45pm

Aggiornamento del 28 giugno 2019: dopo l'ondata di critiche, il creatore di DeepNude ha ritirato l'app. Il titolo dell'articolo è stato modificato di conseguenza.

DeepNude ha un funzionamento piuttosto semplice, a parole: sfruttando le reti neurali, utilizza una foto di una persona vestita e crea una nuova immagine della stessa, nuda. È in grado di inserire al posto degli indumenti seni e vulva, e funziona solo su immagini di donne. Quando Motherboard ha provato a usare il software sull'immagine di un uomo, ha sostituito i suoi pantaloni con una vulva. Anche se DeepNude ha risultati variabili su immagini di donne completamente vestite, sembra funzionare al meglio su immagini in cui la persona sta già mostrando parecchia pelle scoperta. Abbiamo testato l'app su dozzine di foto e ottenuto i risultati più convincenti sulle immagini ad alta risoluzione dei numeri di Sports Illustrated Swimsuit.

Da quando Motherboard ha scoperto i deepfake alla fine del 2017, i media e i politici si sono concentrati sui pericoli che rappresentano come uno strumento di disinformazione. Ma l'uso più devastante dei deepfake è sempre stato quello contro le donne: sia che si tratti di sperimentare con la tecnologia usando immagini senza consenso, o diffondendo pornografia non consensuale su internet. DeepNude è un'evoluzione di quella tecnologia, più facile da usare e più veloce da creare rispetto ai deepfake—scansando anche l'idea che il tutto possa essere utilizzato per qualcosa di diverso.

"È davvero terrificante," ha dichiarato a Motherboard Katelyn Bowden, fondatrice e amministratrice delegata dell'organizzazione contro il revenge porn Badass. "Ora chiunque potrebbe ritrovarsi vittima di revenge porn, senza aver mai scattato una foto di nudo. Questa tecnologia non dovrebbe essere disponibile al pubblico."

Per Danielle Citron, docente presso l'Università del Maryland Carey School of Law, che ha recentemente testimoniato al Congresso circa la grave minaccia dei deepfake, si tratta di una "invasione della privacy sessuale." "Sì, non sei veramente tu, ma... la gente pensa di sì," ha aggiunto. "Come mi ha detto una vittima dei deepfake, sembrava che migliaia l'avessero vista nuda, sentiva che il suo corpo non era più suo."

DeepNude è stata pubblicata il 23 giugno con un sito Web che mostra il funzionamento del software e con l'applicazione scaricabile per Windows e Linux.

Motherboard ha scaricato l'applicazione e l'ha provata su un computer Windows. È stata installata e lanciata normalmente e non ha richiesto competenze tecniche per essere utilizzata. Nella versione gratuita, le immagini di output sono parzialmente coperte da un watermark di grandi dimensioni. In una versione a pagamento, che costa 50 dollari, il watermark viene rimosso, ma nell'angolo in alto a sinistra viene inserito un timbro con scritto "FAKE". (Tagliare via il timbro o rimuoverlo con Photoshop è comunque molto semplice).

Motherboard ha testato il software su più di una decina di immagini di donne e uomini, con diversi tipi di vestiti—da completamente vestiti a solo bikini a perizoma—e una varietà di tonalità della pelle. I risultati variano, ma quando si fornisce un'immagine ben illuminata e ad alta risoluzione di una donna in bikini rivolta verso la fotocamera, le immagini finte di nudo sono realistiche. L'algoritmo riempie con precisione i dettagli delle parti del corpo in cui prima c’erano gli indumenti, gli angoli del seno sotto l'abbigliamento, i capezzoli e le ombre.

Ma non è perfetta. DeepNude ha fallito completamente con fotografie che presentavano strane angolazioni, luci o vestiti che sembrano ingannare la rete neurale che usa il software. Quando abbiamo utilizzato un'immagine del personaggio dei cartoni animati, Jessica Rabbit, ha del tutto distorto e distrutto l'immagine, lanciando capezzoli vaganti in un’immagine che è diventata una massa informe.

In una e-mail, il creatore di DeepNude, che ha richiesto di farsi chiamare Alberto, ha detto a Motherboard che il software è basato su pix2pix, un algoritmo open source sviluppato dai ricercatori dell'Università della California, Berkeley nel 2017. Pix2pix utilizza reti generative avversarie (GAN), che funzionano addestrando un algoritmo su un enorme insieme di immagini—nel caso di DeepNude, più di 10.000 foto di donne nude, ha detto il programmatore—e poi cercando di migliorare l’algoritmo contro se stesso. Questo algoritmo è simile a quello usato nei video deepfake e quello che le auto a guida autonoma usano per "immaginare" gli scenari stradali.

L'algoritmo funziona solo con le donne, ha detto Alberto, perché le immagini di donne nude sono più facili da trovare online—ma spera anche di creare una versione maschile.

"Le reti sono molteplici, perché ognuna ha un compito diverso: individuare gli abiti, mascherare i vestiti, speculare le posizioni anatomiche, renderizzarle,” ha spiegato. "Tutto ciò rende l'elaborazione lenta (30 secondi in un normale computer), ma in futuro può essere migliorata e accelerata."

I video di Deepfake, a confronto, impiegano ore o giorni per un video credibile. Anche per un editor esperto, l'utilizzo manuale di Photoshop per trasformare realisticamente un ritratto richiederebbe diversi minuti.

Ma perché è stato creato DeepNude?

Alberto ha detto di essere stato ispirato dagli annunci per gadget come gli occhiali a raggi X sulle riviste degli anni Sessanta e Settanta a cui aveva accesso durante la sua infanzia. Il logo di DeepNude, un uomo con gli occhiali a spirale, è un tributo a quegli annunci.

"Come tutti, ero affascinato dall'idea che potessero esistere davvero, e questo ricordo è rimasto," ha detto. "Circa due anni fa ho scoperto il potenziale dell'intelligenza artificiale e ho iniziato a studiarne le basi. Quando ho scoperto che le reti GAN erano in grado di trasformare una foto diurna in una notturna, ho capito che sarebbe stato possibile trasformare una foto vestita in una di nudo. Eureka. Gli occhiali a raggi X erano possibili! Guidato dal divertimento e dall'entusiasmo per quella scoperta, ho fatto i miei primi test, ottenendo risultati interessanti."

Alberto ha detto che ha continuato a sperimentare per "divertimento" e curiosità.

"Non sono un voyeur, sono un appassionato di tecnologia," ha detto. "Voglio continuare a migliorare l'algoritmo. Recentemente, anche a causa di precedenti fallimenti (altre startup) e problemi economici, mi sono chiesto se potevo avere un ritorno da questo algoritmo, ecco perché ho creato DeepNude."

Non sollecitato, ha detto che si è sempre chiesto se il programma avrebbe dovuto essere mai realizzato: "È giusto? Può ferire qualcuno?"

"Penso che ciò che puoi fare con DeepNude, puoi farlo molto bene con Photoshop (dopo alcune ore di tutorial)," ha aggiunto, sottolineando che DeepNude non trasmette le immagini da solo, le crea solo e consente all'utente di fare ciò che vuole con i risultati. "Ho anche detto a me stesso: la tecnologia è alla portata di tutti. Se qualcuno ha cattive intenzioni, avere DeepNude non cambia molto ... Se non lo faccio io, lo farà qualcun altro tra un anno."

Meglio e molto peggio dei deepfake

Nell'anno e mezzo da quando Motherboard ha scoperto i deepfake su Reddit, la tecnologia di apprendimento automatico impiegata si è evoluta a una velocità vertiginosa. I cambi immagine algoritmici sono passati dal richiedere centinaia di immagini e giorni di tempo di elaborazione a fine 2017, a richiedere solo una manciata di immagini, o anche solo input di testo, e poche ore di tempo, negli ultimi mesi.

Motherboard ha mostrato l'applicazione DeepNude a Hany Farid, docente di informatica alla UC Berkeley e studioso ampiamente citato sulla forensica digitale dei deepfake. Farid è rimasto scioccato da questo sviluppo e dalla facilità con cui può essere raggiunto.

"Dovremo migliorare nella rilevazione dei deepfake, e accademici e ricercatori dovranno pensare in modo più critico a come salvaguardare meglio i loro progressi tecnologici in modo che non vengano utilizzati in modi non intenzionali e dannosi," ha detto. "Inoltre, le piattaforme social dovranno prestare più attenzione a come definire e far rispettare le regole che circondano questo contenuto; ai legislatori spetterà capire come regolamentare diligentemente questo spazio.”

I Deepfake sono diventati un fenomeno diffuso a livello internazionale, ma la moderazione delle piattaforme e la legislazione finora non sono riuscite a tenere il passo. Sebbene il più delle volte i deepfake siano stati utilizzati contro donne non consenzienti, la maggior parte dei titoli e la paura politica si sono concentrati sull’aspetto del loro potenziale relativo alle fake news. Anche le leggi come la DEEPFAKES Accountability Act

, introdotte all'inizio di questo mese negli Stati Uniti, non sono sufficienti per impedire a questa tecnologia di ferire le persone reali.

"È un vero e proprio vicolo cieco—i deepfake sfidano la maggior parte delle leggi sul revenge porn perché non viene raffigurata la nudità della vittima, ma anche le nostre leggi federali proteggono le compagnie e le piattaforme social dove questi contenuti proliferano,” ha detto a Motherboard l’avvocata Carrie Goldberg, il cui studio legale è specializzato nel revenge porn. "Spetta al pubblico evitare il consumo di ciò che noi chiamiamo humili-porn: che si tratti di revenge porn o deepfake, non cliccate o linkate o condividete o mettete mi piace! Ecco come questi siti fanno soldi. Gli utenti devono imparare a usare internet in modo etico e coscienzioso.”

DeepNude è più facile da usare e più facilmente accessibile rispetto ai deepfake. Mentre i deepfake richiedono molta esperienza, enormi set di dati e accesso a costose schede grafiche, DeepNude è un'app rivolta al consumatore, più facile da installare rispetto alla maggior parte dei videogiochi, e in grado di produrre un nudo credibile in 30 secondi.

Emanuel Maiberg ha contribuito all’articolo.

Nota: La versione originale di questo articolo includeva alcune immagini di persone famose e le relative manipolazioni con DeepNude. Anche se non mostravano nudità esplicita, dopo aver ascoltato il parere di lettori, esperti e colleghi, abbiamo compreso che le immagini avrebbero potuto danneggiare le persone al loro interno. È importante mostrare le conseguenze delle nuove tecnologie, ma anche evitare che le nostre pubblicazioni arrechino ulteriore danno. Per questo motivo, abbiamo rimosso le immagini e ci scusiamo per l'errore.