FYI.

This story is over 5 years old.

Tecnologia

Abbiamo bisogno di storie migliori sul futuro dell’intelligenza artificiale

Non si può ridurre tutto a un semplice ‘uomo vs macchine’.

Le discussioni circa l'etica, la sicurezza e l'impatto sulla società dell'intelligenza artificiale sembrano toccare gli stessi 'tasti sensibili' che si ritrovano negli scenari che descrivono le storie più disastrose sul tema. Che si tratti di copertura stampa o di documenti provenienti da dibattiti legali, finiamo per parlare sempre delle stesse cose. Abbiamo bisogno di raccontare storie più realistiche sull'intelligenza artificiale se vogliamo capire come queste tecnologie si possono adattare alla nostra società — oggi e nel futuro.

Pubblicità

L'HAL 9000 di Kubrick, l'assistente che sbatte fuori dai propri sistemi Dave in 2001: Odissea nello Spazio. In Terminator, il sistema di difesa basato sull'intelligenza artificiale SkyNet diventa cosciente e avvia un olocausto nucleare per decimare la razza umana. In Ex Machina, il robot erotico assume consapevolezza di se stessa e supera un nuovo test di Turing per convincere gli umani a empatizzare con lei e aiutarla a scappare.

Queste famose storie raccontano di uno scontro tra uomo e macchina, facendo uso di uno dei più fondamentali esempi di scontro narrativo per portare avanti, appunto, la narrazione. Non sorprende che le storie che raccontiamo abbiano sempre questo tipo di svolgimenti — Ovvero che dobbiamo impersonarci nel protagonista e invece riconoscere la tecnologia IA come l'antagonista.

A un primo impatto anche Minority Report sembra una storia da uomo contro macchine, ma dopo una lettura più approfondita ci si rende conto di come il conflitto risieda, più che nella comprensione e nell'esposizione della tecnologia pre-cog, nello scontro e nel tentativo di fuggire a una società che implementa questo tipo di tecniche pre-giudiziarie. La tecnologia è il catalizzatore per l'azione, ma il vero scontro in Minority Report si consuma tra l'uomo e lo stato, tra l'uomo e la società.

Se continueremo ad affidarci a questi estremismi fantascientifici, finiremo per non notare la realtà concreta dell'attuale stato dell'intelligenza artificiali, distraendoci dalle problematiche reali.

Pubblicità

Ma all'interno dell'industria dell'intelligenza artificiale, l'iter narrativo segue un percorso diverso. Più che essere un conflitto tra l'uomo e le macchine, è uno scontro tra l'uomo e se stesso. I più noti benchmark di progresso nel campo dell'intelligenza artificiale si concentrano su come gli uomini (ovvero, gli ingegneri) abbiano costruito dei sistemi che sono capaci di sconfiggere gli umani nei compiti più complicati fino a quelli più semplici: da giochi di strategia come StarCraft e Go, fino ai giochi di parole e linguaggio di Jeopardy. Anche se la tecnologia gioca contro giocatori esperti, queste partite sono in realtà dei momenti in cui celebrare un traguardo ingegneristico tale da riuscire a superare l'uomo nei giochi che lui stesso ha inventato. Non stupisce che la comunità di ingegnerizzazione delle intelligenze artificiali non si presti volentieri a discussioni che partono ammiccando a Terminator o Minority Report. La comunità dell'intelligenza artificiale è più interessata alle proprie, eroiche, narrative in cui si insegue la missione impossibile di riprodurre un comportamento cognitivo intelligente.

Ma perché sono così importanti queste narrative, quindi? Queste storie sono la ragione per cui stiamo discutendo del tema dell'accountability, quando si parla di intelligenza artificiale, ma sono estremamente semplificate e spesso finiscono per cadere nella trappola di una narrativa fallace. Finiamo per usarle come scorciatoie ed euristiche per guidare la conversazione e l'iter decisionale, quando in realtà sono fortemente estreme e forse focalizzate sugli aspetti sbagliati del conflitto.

Pubblicità

La percezione pubblica creata da questo tipo di narrative hollywoodiane porta inevitabilmente a sforzi congiunti come la Partnership on Artificial Intelligence to Benefit People and Society. Una partnership tra Facebook, Google, Amazon, IBM e Microsoft per riuscire a riconoscere e superare queste associazioni mentali inarrestabili. Nella loro dichiarazione d'intenti scrivono, "Crediamo che sia importante che le operazioni con i sistemi IA siano comprensibile e interpretabili dalla popolazione, al fine di spiegare la tecnologia." Affermando che, "Con l'intelligenza artificiale stiamo evocando il demonio," Elon Musk ha fatto riferimento alla narrativa più primordiale di tutte: la lotta tra bene e male. E se invece stessimo sbagliando modo di raccontare questo fenomeno?

Se continueremo ad affidarci a questi estremismi fantascientifici, finiremo per non notare la realtà concreta dell'attuale stato dell'intelligenza artificiale, distraendoci dalle problematiche reali. Finiamo anche per sprecare un'opportunità di fornire al pubblico un contesto più pratico e utile per comprendere un futuro in cui vivremo fianco a fianco con questi sistemi intelligenti.

*

Cosa succederebbe se immaginassimo storie alternative sull'intelligenza artificiale per esplorare alcuni dei problemi più pressanti e reali con cui dovremmo avere a che fare, invece che spingere la discussione verso scenari post-apocalittici e distopici? Invece che tifare per un uomo contro macchina, potremmo considerare diverse versioni della storia per pensare a un uomo che lavora con una macchina, e quindi concentrarci su altri aspetti cruciali della narrativa, al fine di comprendere meglio questa nuova realtà.

Pubblicità

Per esempio, potremmo concentrarci sullo sviluppo di caratteri capaci di coadiuvare le esperienze utente con agenti IA. Come dovrebbero essere le loro personalità? Da cosa dovrebbero essere motivati, di cosa dovrebbero essere capaci, come empatizziamo con loro nella nostra vita di tutti i giorni? Come affermato dal creato di Wolfram Alpha, Stephen Wolfram, uno delle aree più importanti per l'avanzamento dell'intelligenza artificiale è da ritrovarsi nello sviluppo di un linguaggio e di una logica condivisa per comunicare e relazionarsi con questi personaggi intelligent. Al di là dei facchini e delle segretarie, quali sono i ruoli e le personalità in cui questi agenti si potrebbero calare?

Le voci e le personalità possono essere sviluppate attraverso storie raccontate con una narrativa in prima persona. Cosa significa raccontare una storia dal punto di vista di un'intelligenza artificiale? I sistemi di calcolo che si celano dietro un'intelligenza artificiale possono essere così complessi e ricchi di livelli che i loro output potrebbero non essere descrivibili attraverso un linguaggio umano, e questo problema potrebbe diventare così grave da impedire agli ingegneri di descrivere il loro lavoro. Esercitarci a scrivere in prima persona dal punto di vista di un di un sistema IA potrebbe avvicinarci a comprendere e valutare meglio la logica delle macchine e il loro processo cognitivo, specialmente in campi in cui l'accountability dei risultati e dei giudizi è importante.

Pubblicità

Finiremo per scontrarci costantemente con il problema dell'imperscrutabilità dell'IA, potremmo quindi aver bisogno di cercare forme di narrativa più sperimentale per articolare questa sensazione di sconosciuto e di costante scoperta ontologica. Si pensi a una narrativa non-lineare, o a uno storytelling postmoderno e impressionista. Gli output di Deep Dream mostrano come i pattern di riconoscimento dell'IA possano essere eccessivamente sensibili, a tal punto da vedere occhi o volti nelle cose anche quando non ce ne sono (si tratta di un fenomeno chiamato "pareidolia"), producendo così immagini inquietanti e surreali che, se da un lato non hanno particolare significato, dall'altro ci fanno capire come un il sistema "vede".

Un output di DeepDream a partire da del rumore bianco. Immagine: MartinThoma

La maggior parte di questi sforzi narrativi contribuirà ad avvicinarci a una qualche forma di trasparenza per ciò che riguarda i sistemi IA, ma forse questi strumenti narrativi possono alzare l'asticella per altre sfide nel campo dell'IA, come la comprensibilità, la riconoscibilità, l'intelligibilità e l'interpretabilità e dunque dare adito a discussioni più dinamiche e sensibili sull'accountability dell'iA, sia tra chi muove i fili di questo settore, sia tra il pubblico generale.

Nel corso dell'evolversi delle civiltà, lo storytelling è stato uno dei veicoli più importanti per esprimere sistemi etici e di valori e tramandarli. Ci rimettiamo alle favole, alle parabole, ai miti, al folklore che appartiene a un pezzo culturale molto più ampio di quello esclusivamente occidentale o hollywoodiano. Cosa succederebbe se pensassimo all'IA mentre raccontiamo il mito dell'Affascinante Re delle Scimmie? O se avessimo incontrato interfacce IA negli enigmi della Sfinge? Grazie a una serie di sessioni di incontri sull'IA, il Digital Asia Hub ha esplorato come tenere conto dei contesti e delle paure dovendo a fare a che fare con un'evoluzione tecnologica su scala globale.

Un taxi a Seoul. Image: Flickr/boyce.michael