No, quel computer non ha "superato" il test di Turing

Stando alla stampa questa settimana si è compiuto un passo fondamentale nella storia dell'intelligenza artificiale. Peccato che nella realtà, pur trattandosi di un risultato impressionante, non sia andata esattamente così.

|
10 giugno 2014, 8:23am

Stando alla stampa, questa settimana si è compiuto un passo fondamentale nella storia delle macchine. È partito tutto da qui: "Secondo gli esperti, un 'supercomputer' sarebbe riuscito a ingannare un gruppo di esseri umani facendogli credere di essere un ragazzo di 13 anni: si tratta della prima macchina a superare il test di Turing." Come spesso accade, molte testate hanno interpretato a modo loro il lancio di agenzia; il Daily Mail ad esempio l'ha un pochino ingigantito, definendo l'evento come prova inequivocabile del fatto che i computer "possono 'pensare'."

Ma cos'è che è successo, in realtà? Un programma di nome Eugene Goostman ha partecipato a una competizione organizzata dalla Royal Society di Londra in occasione del sessantesimo anniversario della morte di Alan Turing. Nel corso dell'evento cinque "supercomputer" hanno intrattenuto conversazioni via chat con alcuni giudici, con l'obiettivo di ingannarli e passare per esseri umani. Alla base della competizione c'è la celebre idea esposta da Alan Turing nel 1950, quella per cui se una macchina è in grado di intrattenere una conversazione di senso compiuto con un essere umano, allora potrebbe venir considerata un essere senziente—in grado cioè di "pensare", in un certo senso. 

Il programma Goostman, esprimendosi in un inglese un po' stentato, ha finto di essere un ragazzino ucraino e sarebbe riuscito a convincere un terzo dei giudici (ovvero, il 33 percento della giuria). Su questa base, l'organizzatore dell'evento, il professor Kevin Warwick, ha dichiarato che il programma aveva superato la "soglia del 30 percento" richiesta per "passare" il test, inaugurando così una nuova era nel campo dell'intelligenza artificiale. "Questa tappa verrà ricordata come una delle più importanti nel campo," ha aggiunto. 

Sembra importante, sì, ma c'è un piccolo problema: la macchina non ha superato davvero il test di Turing. Per farlo, un'intelligenza artificiale deve poter suscitare un errore nell'esaminatore con la stessa frequenza con cui l'esaminatore sbaglia nel distinguere tra uomo e donna. Come scritto da Turing nella formulazione originale del test: 

"Poniamoci questa domanda, 'Che cosa accade se nel gioco dell’imitazione una macchina prende il posto di A?' L’interrogante sbaglia altrettanto spesso di quando il gioco si svolge fra un uomo e una donna? Questi interrogativi possono sostituire la domanda originale, 'Le macchine sono in grado di pensare'?"

Le parole chiave sono "con sicurezza" e "spesso". Turing non si chiede se una macchina sia in grado, in una singola occasione, di convincere un essere umano del suo essere anch'essa umana; si chiede se una macchina sia in grado di farlo sempre. In questo caso, è stato ingannato il 33 percento—un risultato impressionante, certo, ma non esattamente il genere di evento prevedibile e ripetibile descritto nello scritto di Turing. 

Un altro problema è il modo in cui la giuria è stata ingannata. Sotto questo aspetto, l'approccio tenuto dagli sviluppatori di Eugene Goostman è molto brillante, un vero e proprio caso da manuale circa l'uso del pensiero laterale per sfruttare debolezze e ambiguità di un preciso contesto. 

Il programma in sé è roba abbastanza normale, un chatterbot che usa una combinazione di capacità di elaborazione linguistica, ricerca per parole chiave e un grande archivio testuale da cui attingere le riposte appropriate agli input di testo che riceve. I chatterbot sono in grado di fare un sacco di cose interessanti—ne è un esempio Siri della Apple—ma di solito non sono in grado di ingannare gli umani. 

Per assicurarsi la riuscita, gli sviluppatori di Goostman hanno aggiunto un ingrediente chiave. Piuttosto che cercare di vincere affrontando la competizione di petto, hanno ingannato la giuria presentando lo sfidante come un "13enne di Odessa, in Ucraina, il cui padre fa il ginecologo, e il cui animale domestico è un porcellino d'India." Così facendo, gli errori linguistici più ovvi, quelli che avrebbero posto fine alla partita in pochi secondi—come frasi senza senso o risposte inappropriate alle domande—potevano trovare spiegazione nella giovane età del "ragazzo" o nel suo inglese claudicante.

È una trovata intelligente; complimenti a loro. Ma dubito che fosse ciò che aveva in mente Alan Turing quando ha progettato il test, e in più mette in discussione le regole stesse del test. C'è un limite minimo d'età per i personaggi impersonati dalle intelligenze artificiali? Perché non impersonare un bambino di otto anni, o un bebè? O perché non qualcuno in grado di parlare inglese come un membro di una tribù brasiliana appena scoperta? Non voglio negare a Eugene i suoi meriti, ci mancherebbe, ma il punto è che non ha comprensione di ciò che dice. È un gran prodotto d'ingegneria, ma non è una macchina in grado di pensare. 

Tutto questo ci porta a chiederci quanto siano state davvero utili le versioni moderne del test di Turing nell'ambito della ricerca sull'intelligenza artificiale. I ricercatori che si occupano delle capacità di apprendimento delle macchine parlano spesso di "Intelligenza artificiale forte" e di "Intelligenza artificiale debole". L'Intelligenza artificiale forte è quella che vi immaginate: una macchina senziente, in termini di scopi e conoscenza. Pensate a Data di Star Trek o ad HAL di 2001: Odissea nello spazio, o The Machine di Person of Interest. L'Intelligenza artificiale debole, invece, è molto diversa: non ha una vera intelligenza o consapevolezza ma è basata su determinate tecniche utilizzate per risolvere determinati problemi—come Siri, o gli algoritmi di Google. 

Turing ha ideato il suo test avendo come modello l'Intelligenza artificiale forte. Credeva che, perché un computer fosse in grado di condurre una conversazione di senso compiuto con un essere umano, fosse necessaria l'integrazione delle informazioni in una sorta di mente "conscia", e che questa mente avrebbe dovuto essere connessa a qualcosa che le consentisse di fare esperienza del mondo—un corpo meccanico, forse: "Nel cercare di imitare una mente umana adulta, siamo costretti a pensare al processo che l'ha portata ad assumere lo stato in cui si trova ora." 

A dominare le versioni moderne di questo test è stata invece l'Intelligenza artificiale debole, e molti dei suoi avversari sono stati poco più che dei giochi, dei chatterbot progettati appositamente per cercare di superare una soglia relativamente bassa. Eugene Goostman è la macchina più forte ad avervi mai partecipato, una fantastica opera d'ingegneria, ma sono certo che i suoi sviluppatori sarebbero i primi ad ammettere che non ha lo stesso valore in termini di ricerca sull'Intelligenza artificiale forte, e che anche a livello commerciale è meno interessante di alcune applicazioni più specifiche, come Siri. 

I ricercatori hanno fatto molti più progressi inseguendo altri obiettivi. Il supercomputer Watson, sviluppato dalla IBM e noto per aver battuto avversari umani a Jeopardy, è anch'esso una forma di Intelligenza artificiale debole (anche se, con qualcosa come 80 teraFLOPS di capacità computazionale, è meglio non dirglielo in faccia). In fatto di abilità di integrazione delle informazioni e di estrazione del loro significato, uno dei parametri fondamentali per determinare cos'è un essere senziente, è anche molto meglio di qualsiasi macchina mai stata sottoposta al test di Turing. Watson non sarà in grado di parlare in modo fluente come Goostman, ma è in grado di comprendere molto più di lui. 

La cosa forse più importante che abbiamo imparato da tutto questo è che ottenere un punteggio del 33 percento nel test di Turing non è la grande impresa che credevamo che fosse, e non ci avvicina granché a un futuro in cui le macchine controllano gli esseri umani. Tra qualche decennio arriverà una macchina in grado di battere il test di Turing con regolarità, e quello sarà un giorno terribile. Al momento, però, non sono convinto che concorrenti come il professor Warwick—a cui interessa soprattutto vincere e farsi pubblicità—aiuteranno a rendere quel giorno più vicino. 
 

Segui Martin Robbins su Twitter.

Altro da VICE
Vice Channels