Pubblicità
Tech by VICE

Un'azienda finanziata da Elon Musk ha creato un generatore di articoli-fake

OpenAI, ha creato GPT2, un sistema per generare automaticamente testi di articoli, ma non vuole diffonderlo perché ha paura che venga usato per scopi malevoli.

di Federico Martelli
15 febbraio 2019, 4:18pm

GPT2 è un nuovo modello di intelligenza artificiale capace di scrivere testi di news e opere di fiction con uno stile estremamente credibile, al punto che il suo soprannome è "deepfakes for text." È stato creato da OpenAI, una società che si occupa di ricerca sulle IA e che conta tra i suoi finanziatori anche Elon Musk — i cui dissapori con la stampa sono culminati l'anno scorso nella proposta del fondatore di Tesla di creare un “sito per votare la credibilità dei media.”

Ma, giovedì, i ricercatori di OpenAI hanno deciso di non rendere ancora pubblico l'ultimo prototipo di GPT2, il codice e i modelli su cui è basato, oltre al set di dati usato per il training del sistema. Il timore è che il generatore di testi possa essere usato in modo malevolo.

La decisione di OpenAI — una no-profit dichiaratamente votata alla ricerca open-access ma che, secondo quanto riportato nel suo sito, si riserva "la possibilità di creare processi formali per mantenere la riservatezza delle tecnologie in caso di problemi di sicurezza" — ha sollevato critiche sull' allarmismo che dichiarare di avere inventato un generatore di testi fake, senza fornire la possibilità di metterlo alla prova, può scatenare.

Alcuni utenti su Twitter hanno infatti sottolineato la posizione controversa di OpenAI, che rende difficilmente verificabili le sue dichiarazioni sui risultati raggiunti dal sistema, violando allo stesso tempo l'etica della ricerca open source e della riproducibilità degli esperimenti che è alla base della ricerca scientifica. Allo stesso tempo, l'eccezionalità della decisione la fa apparire sicuramente significativa, in particolare all'interno del dibattito sulle fake news degli ultimi anni. I ricercatori di OpenAI si ripropongono comunque di discutere ulteriormente la loro scelta e la loro policy nei prossimi sei mesi.

Stando a quanto dichiarato dai ricercatori e riportato dal Guardian, rispetto ai suoi predecessori, il sistema GPT2 produce testi di maggiore qualità — ovvero: la sintassi è raramente incasinata — ed è capace di adeguarsi a molti stili di scrittura diversi. L'input da dare in pasto al sistema può essere costituito da pagine intere di testo o anche da poche frasi. Una volta ricevuto, GPT2 genera un testo in base alle previsioni calcolate dai suoi modelli.

Ad esempio, il Guardian ha provato ad alimentare il sistema con le prime frasi estratte da 1984 di George Orwell. GPT2, in questo caso, ha identificato correttamente lo stile del testo e ha prodotto come risposta un racconto distopico ambientato nella Cina del futuro. Come ulteriore test, ha provato a fornire come input i primi paragrafi di un articolo sulla Brexit e l'output prodotto è stato un articolo scritto con lo stesso stile delle news, con tanto di citazioni delle dichiarazioni dei personaggi politici della Gran Bretagna, come Jeremy Corbyn o Theresa May.

Come hanno spiegato i suoi creatori al Guardian, GPT2 comprende diversi aspetti innovativi: i modelli che sfrutta, le dimensioni del database di testi su cui si è allenato — circa 10 milioni di articoli selezionati sui social — e la sua capacità di rilevare una struttura nei testi forniti in input in modo da eseguirci sopra diverse operazioni (come tradurre, operare sintesi e superare semplici test di comprensione del testo.)

Queste caratteristiche rendono GPT2 estremamente pericoloso: il sistema viene alimentato grazie a materiale reperito su internet e non dispone della capacità di discernere testi che promuovono odio, fake news e teorie del complotto. Inoltre, cosa può produrre uno strumento del genere in termini di messaggi spam ingannevoli e fake news? Per fare intuire il suo potenziale, i creatori hanno ideato una versione semplificata, che genera commenti positivi o negativi per vari prodotti disponibili in rete, di cui è disponibile anche il paper relativo.

Anche questo caso, in cui un compito eseguibile fino a poco tempo fa solo da esseri umani viene riprodotto fedelmente da algoritmi, mette di nuovo al centro del dibattito le implicazioni etiche degli usi della tecnologia, e l'importanza dell'etica nell'individuare eventuali bias nella fase di progettazione del sistema (come accennato, al momento, GPT2 non è capace di riconoscere le fake news, oppure di identificare contenuti che promuovono la discriminazione).

Sempre nelle dichiarazioni al Guardian i ricercatori di OpenAI, hanno definito la diffusione di queste tecnologie in assenza di forme di controllo come una possibile "scala mobile verso l'inferno." Da qui, la scelta di non rendere pubblici i dettagli della ricerca e di istruire il pubblico su quella che, secondo loro, nel giro di due anni potrebbe diventare una tecnologia mainstream. Hanno definito questa scelta come un esperimento di "diffusione responsabile delle tecnologie."

Proprio la diffusione delle fake news è stata inclusa quest'anno, per la prima volta, nel comunicato prodotto dal comitato dell'Orologio dell'Apocalisse, uno strumento retorico congegnato negli anni Quaranta per aiutarci a visualizzare quanto manca alla fine del mondo.

Segui Federico su Twitter: @spaghettikraut