Attualità

La truffa online che usa la tua faccia per creare un porno deepfake

Questa nuova tipologia di phishing impiega videochiamate e deepfake.
Shamani Joshi
Mumbai, IN
Daniele Ferriero
traduzione di Daniele Ferriero
Milan, IT
truffa online deepfake
Foto di sam thomas / Getty.

In India è stata segnalata una nuova truffa online che ha tutte le caratteristiche dell’estorsione a sfondo sessuale. In sostanza, le persone vengono contattate su Instagram attraverso videochiamate finché non rispondono, e poi viene chiesto loro di pagare una considerevole somma di denaro per evitare che la propria faccia finisca in filmati porno creati tramite deepfake e poi inviati a parenti e amici.

Pubblicità

La polizia indiana ha ristretto il campo delle indagini su una presunta gang che opera tra alcuni stati: Uttar Pradesh, Haryana e Rajasthan. Inoltre, ritiene che questi attacchi siano diventati non solo sempre più comuni, ma segnino anche l’arrivo di una nuova tipologia di phishing.

Le indagini dell’unità della polizia indiana dedicata ai crimini informatici hanno oltretutto stabilito che nell’area all’incrocio tra i tre stati indiani è venuto a crearsi una sorta di “buco nero” per le reti della telefonia mobile. In pratica, considerando la presenza di molteplici torri per telecomunicazione, risulta molto complicato tracciare l’esatta ubicazione dei device interessati. Anche il denaro estorto viene fatto passare attraverso diversi sistemi, portafogli online e piattaforme per il pagamento, creando un labirinto di transazioni sempre più difficile da individuare e tracciare.

Non è la prima volta che in India avvengono truffe di questo tipo. In passato, i truffatori mandavano mail di phishing o link a falsi siti internet e portali dedicati allo shopping per rubare i dati della carta di credito. Oppure dichiaravano di aver hackerato la webcam delle persone mentre guardavano dei porno.

La polizia ha arrestato tre uomini sospettati di fare parte di una più ampia rete che sfrutta i deepfake, creando video porno falsi nei quali il volto di una persona viene sostituita da quello di un’altra grazie al machine learning e alle AI. 

Pubblicità

Rohan Bhasin, di 33 anni, è stato una delle vittime. Il 2 luglio una donna che non conosceva—ma con cui aveva qualche amico in comune—ha iniziato a seguirlo su Instagram. Pochi minuti dopo ha ricevuto un DM che gli chiedeva il numero su WhatsApp.

Bhasin ha evitato di condividerlo, ma in seguito la donna ha cominciato a effettuare videochiamate a ripetizione su Instagram. “All’inizio ho ignorato le chiamate, ma dopo averne ricevute sette od otto ho risposto,” ha raccontato a The Indian Express. “Mi sono trovato davanti una donna nuda che si stava esibendo in atti sessuali. Ho impiegato circa 15 secondi a capire quel che stava succedendo, e poi ho messo giù.”

Poco dopo, la donna ha cominciato a inviargli una sfilza di messaggi ricattatori, minacciando di diffondere video qualora non l’avesse pagata. Bhasin si è rifiutato e l’ha bloccata su Instagram, ma quindici minuto dopo ha cominciato a ricevere messaggi e chiamate dai suoi amici e dalla sua famiglia, che avevano ricevuto un video pornografico in cui appariva lo stesso Bhasin.

“I truffatori avevano preso la mia immagine dalla videochiamata e l’avevano sovrapposta al corpo di qualcun altro. Nel video condiviso, sembravo proprio io,” ha sottolineato. Bhasin ha denunciato subito dopo, e la polizia ritiene che i sospetti arrestati siano coinvolti nel caso.

La polizia conferma di ricevere centinaia di denunce simili, ma aggiunge di dover ancora unificare e consolidare i dati relativi a questi casi. Il portale nazionale dedicato al cyber informatico, creato dal Ministero degli Affari Interni indiano, ha registrato nel frattempo più di 317.000 segnalazioni di questo tipo tra l’agosto del 2019 e il marzo del 2021.

Segui Shamani su Instagram e Twitter.