FYI.

This story is over 5 years old.

Tecnologia

Un'equazione per l'intelligenza

O secondo altri calcoli, la formula per l’infelicità. Abbiamo chiesto ad Alexander Wissner-Gross cosa c'è dietro alla sua teoria che unisce intelligenza, entropia e il resto dell'universo.
Immagine: ingeniarius'/Flickr

Intelligenza! Cosa significa? Nell'Ottocento eri intelligente se ricordavi molte cose a memoria, il secolo scorso eri intelligente se avevi più di 100 nei test QI, oggi non si sa bene. La corsa a una definizione adeguata ha portato alle teorie più folli anche il più attendibile degli scienziati. In termini semplici, intelligenza è l'abilità a risolvere problemi con risorse limitate. Ma possiamo misurarla seriamente?

Alexander Wissner-Gross, ricercatore di Harvard e al MIT, ha iniziato una rivoluzione in questo senso. Attraverso l'osservazione di fenomeni apparentemente molto distanti, dalla cosmologia al comportamento animale, fino alle più recenti teorie dei giochi, ha sottolineato un principio comune e inquietante: l'intelligenza nascerebbe dall'urgenza di un sistema di prendere controllo dei possibili scenari futuri.

Pubblicità

L'elaborata teoria che ne deriva fa capo al concetto di forza entropica e, in ultima analisi, alle radici più profonde della nostra realtà. Anche se l'impressione da mediocre terrestre è tutt'altra, sembra che nell'evoluzione dell'universo ci sia una spinta naturale verso l'intelligenza. Questa la formula e la sua spiegazione in video:

In sostanza: più opzioni, più libertà di scelta, maggiore possibilità di un risultato vantaggioso. Alexander ha tradotto la formula in un software, Entropica, e da quasi un anno sta testando la teoria. Siamo ancora ai primi passi, ma le applicazioni nel campo dell'intelligenza artificiale sono potenzialmente infinite.

Genio o megalomane? Wissner-Gross era già noto alla stampa per un fraintendimento con il Times, ma questa storia dell'intelligenza ha scatenato un polverone ancora più grosso, complice il controverso articolo del New Yorker che lo scredita senza mezzi termini. Anche se da entrambe le querelle Alexander è uscito a testa alta, la cosa che mi preoccupava di più è che questa teoria va nella direzione opposta di tutte le teorie (scientifiche) della felicità, condannando ogni essere intelligente a un destino d'insoddisfazione. Abbastanza eccitato da non capire più nulla, ho pensato che l'unica cosa intelligente da fare fosse chiedergli qualche spiegazione.

Motherboard: L'equazione che proponi è una delle tante definizioni d'intelligenza, oppure è superiore alle altre?
Alexander Wissner-Gross: L'equazione è stata proposta come una formula per l'intelligenza generale. Antropologi, scienziati e colleghi a Harvard e al MIT hanno teorizzato svariati tipi d'intelligenza: intelligenza emotiva, intelligenza visiva, intelligenza linguistico-verbale… la mia è una teoria generale. I vari tipi d'intelligenza vanno visti come un'applicazione ristretta di questa teoria generale, da cui le altre forme emergerebbero come effetti collaterali.

Pubblicità

Va in una direzione molto diversa dalle classiche teorie di I.A., vero?
L'I.A. può essere suddivisa in due rami: uno si occupa dell'apprendimento, l'altro invece è focalizzato sul controllo. Buona parte dell'attuale interesse per l'I.A. è orientato sull'apprendimento delle macchine. La mia teoria invece non riguarda l'apprendimento, ma il controllo: è una teoria del controllo ottimale per il comportamento di un'entità intelligente in un determinato contesto.

E qual è la relazione tra i due rami?
Credo che l'altro ramo, l'apprendimento, sia una conseguenza del controllo, e quindi discenda da questa teoria. C'è parecchia matematica nascosta sotto la superficie relativamente semplice della mia equazione. Noi assumiamo che qualunque forma d'intelligenza abbia un modello del proprio ambiente, e questo modello viene acquisito attraverso l'apprendimento. Quindi la formula si propone come un resoconto approfondito che include anche l'apprendimento.

Hai testato Entropica per ottenere risultati in questa direzione?
Una delle mie attuali ricerche esplora proprio le interazioni tra Entropica e l'apprendimento automatico. È ancora presto per parlarne, ma è uno degli argomenti più interessanti.

Secondo la tradizione fantascientifica, costruiremo computer super-intelligenti che si ribelleranno e cercheranno di prendere il controllo del mondo. Tu inverti questo paradigma: secondo la tua teoria, più funzioni di controllo porteranno a una nuova forma d'intelligenza artificiale. È una minaccia reale o solo un avvertimento?
Preferisco vederla come un'opportunità. Abbiamo estremo bisogno di costruire sistemi con intelligenza super-umana, perché è l'unico modo in cui l'economia può continuare a crescere in un futuro abbastanza lungo. Tra gli altri risultati importanti, il mio lavoro potrebbe rivelare una profonda connessione tra il benessere economico e l'abilità di controllare i risultati dei sistemi con l'intelligenza. È probabile che nei prossimi decenni la nostra economia diventerà strettamente dipendente dalla creazione di macchine super-intelligenti.

Pubblicità

Questa storia suona un po' pericolosa.
Ogni nuova tecnologia è potenzialmente pericolosa, tutto dipende da come viene applicata e come ne regoliamo l'utilizzo. Prendi la proliferazione nucleare: da un lato la possibilità di avere energia elettrica in grande quantità a prezzi bassissimi, dall'altro le difficoltà legate alla sicurezza degli impianti, la corsa agli armamenti, il terrorismo. Si è dovuto limitare l'uso del nucleare in base a principi morali di preservazione della civiltà. Immagino che si dovrà fare lo stesso con l'I.A. Più impariamo sulla natura dell'intelligenza e su cosa rappresenta in termini fisici, più avremo bisogno di agenzie, nazionali e internazionali, che regolino l'I.A. a livello governativo.

Possiamo già vedere qualcosa del genere?
Sì. Nel settore finanziario ci sono calcolatori le cui abilità di trading sono nettamente migliori di quelle umane. Questo rende il mercato molto più vulnerabile, e in un modo completamente nuovo. Infatti esistono normative che ne limitano l'utilizzo. L'intelligenza super-umana è già soggetta a regole, solo che non le riconosciamo come tali.

Sono sicuro che hai letto l'articolo del New Yorker. Cosa ne pensi?
Sì l'ho letto. A dire il vero, l'autore mi aveva intervistato ma poi non ha incluso le mie risposte. Se leggi i commenti sotto l'articolo, vedrai che è stato molto criticato, anche da scienziati conosciuti e stimati.

Ho visto.
L'impressione è che gli autori non abbiano la minima conoscenza dell'argomento. E se guardi le loro altre pubblicazioni, ti accorgerai che hanno sempre una posizione estremamente critica verso l'I.A. Da una prospettiva scientifica, la loro analisi non è minimamente fondata.

Pubblicità

Cosa pensi invece delle critiche mosse a partire dai teoremi d'incompletezza di Gödel e dal fallimento del positivismo logico, secondo cui l'intelligenza non può essere ridotta a un processo meccanico di logica matematica?
Non c'è alcuna relazione tra il mio studio e queste osservazioni. Gödel parla dell'impossibilità di certi formalismi matematici di descrivere se stessi come veri o falsi. La mia è una descrizione di come un sistema, dato un modello di universo, si comporterà. È quella che si definisce una teoria dei controlli.

Insomma quando i tuoi oppositori dicono che la tua formula non tiene conto di Gödel, della coscienza, della consapevolezza…
Penso sia importante essere molto rigorosi invece di chiamare in causa questo o quel nome e dire "non funziona per questo o quel motivo di cui ho sentito parlare". Il mio sforzo è teso a portare un vero rigore matematico nello studio dell'intelligenza, non si può liquidarlo con "questa teoria quantitativa entra in conflitto con quest'altra teoria qualitativa".

Il problema nasce, immagino, dal fatto che quando parli d'intelligenza ognuno gli dà un significato personale, arbitrario. "Intelligenza" è una parola ambigua.
Penso che questo sia uno dei motivi per cui l'articolo ha attratto così tanta attenzione, perché in molti pensano di avere un'idea chiara su cosa significa intelligenza. È un argomento che sembra accessibile a chiunque, ma solo in superficie.

Pubblicità

E tu eri consapevole che avrebbe fatto scalpore.
Ovviamente.

Quali sono gli sviluppi futuri? Per esempio, accennavi al rapporto tra controllo e apprendimento.
Una delle esplorazioni più interessanti sarà capire come il desiderio di apprendere emerga spontaneamente dalla teoria. Abbiamo raccolto abbastanza prove del fatto che una macchina motivata a massimizzare la sua entropia causale, quindi la propria libertà d'azione futura, è anche motivata ad apprendere.

Da cosa si capisce?
Ti faccio un esempio: immagina un ente intelligente che può scegliere tra apprendere di più sul proprio ambiente oppure restare ignorante. Se ha un modello del proprio ambiente, avrà una maggiore libertà d'azione. Se il modello è buono, non farà scelte stupide. Un ente che non ha un buon modello, al contrario, non riuscirà a massimizzare la propria libertà d'azione futura. Ne consegue che per poter massimizzare hai bisogno di un buon modello, e quindi sarai portato ad apprendere il più possibile sul tuo universo.

Immagine: Saad Faruque/Flickr

Diresti che l'intelligenza è un processo puramente computazionale?
Assolutamente sì. Soprattutto nel senso che puoi calcolare le variazioni di entropia causale a seconda del sistema. È abbastanza computazionale da poter essere tradotta in dieci quindici righe di algoritmo.

E cose come l'intuizione? Come rientrano nell'algoritmo?
A seconda di cosa intendi per intuizione. Se intendi un metodo per fare buone scelte senza ragionamenti profondi, allora l'intuizione può essere vista come un'approssimazione della formula per massimizzare la libertà d'azione futura. È una sorta di modello ristretto basato sull'esperienza, senza dover esplorare per intero tutte le possibilità. Non ti dice qual è la prossima mossa migliore, ma te ne dà una abbastanza buona.

Pubblicità

Qual è stata la tua intuizione per arrivare a questa formula?
Nel TED Talks ho evidenziato una serie di influenze. Osservando diversi campi scientifici, mi sono accorto che i loro sviluppi erano interconnessi a un livello molto profondo. Credo di essere il primo ad aver sottolineato questa unione di fondo tra la cosmologia, il comportamento animale, la robotica, la teoria dell'informazione e la teoria dei giochi. Tra l'altro, con una formula molto pulita ed elegante.

Ogni teoria che si rispetti deve essere messa alla prova o poter dare previsioni. Se avessi a disposizione qualunque mezzo, come forzeresti la tua teoria?
Il modo di testarla è raccogliere più esempi possibili e vedere come la teoria riesce a prevederli. E se non li predice accuratamente, devi riuscire ad analizzare le discrepanze e capire da dove vengono. Storicamente, parte del problema nello studio dell'intelligenza umana e non-umana è che non abbiamo una buona metrica per decidere se una data cosa può essere chiamata intelligente o meno. La mia formula è il primo strumento per misurare diverse intelligenze e confrontarle. Un modo per girare la domanda è: come si mette alla prova uno strumento di misura?

Quindi il tuo studio propone una specie di nuovo standard.
Occorre uno strumento standardizzato che ognuno può usare per effettuare una misura. Se hai un oggetto e lo vuoi fare più grande, prima devi misurarlo. Quello che propongo è uno strumento rigoroso per misurare qualcosa che sembra coincidere ampiamente con ciò che in diversi contesti chiamiamo "comportamento intelligente".

Pubblicità

Immagino ci sarà bisogno di un'unità di misura.
Sì, esatto.

Quale potrebbe essere?
Domanda interessante. La misura si può esprimere in bit, perché l'entropia causale concerne strettamente l'informazione di un sistema. In quanto forza entropica, la si potrebbe anche esprimere in newton [l'unità di forza fisica nel sistema internazionale]. Ma credo, in ultima analisi, che sarebbe meglio coniare una nuova unità di misura per esprimere la libertà d'azione futura.

E come chiameresti questa nuova unità di misura?
Wissner.

Il tuo cognome. Un wissner, due wissner… così?
Sì. Ma si può tranquillamente continuare a usare il bit o il newton.

La tua teoria è in netto contrasto con il Paradosso della Scelta, secondo cui minori opzioni equivalgono a maggiore soddisfazione. Per essere felici dobbiamo restare stupidi?
La soluzione al Paradosso della Scelta è riconoscere che gli umani hanno limitate risorse computazionali con cui valutare le varie opzioni future. Quindi, se nel breve termine ci sono minori possibilità di scelta per un uomo, sarà più semplice per lui decidere il percorso che massimizza la libertà d'azione nel futuro.

Hai già calcolato all'incirca qual è l'intelligenza della mente umana?
No, ma sarebbe un ottimo esercizio da fare. Potrebbero emergere molti parametri mancanti. Visto che la formula dipende dal tempo entro cui il sistema valuta le opzioni future, sarebbe molto interessante anche rispondere alla domanda: qual è l'orizzonte temporale che si dà la mente nelle sue valutazioni? La teoria, parametrizzata sul comportamento umano, permetterebbe di ottenere questa risposta, e credo che ci arriveremo nei prossimi anni.