FYI.

This story is over 5 years old.

Tecnologia

I corpi sono un elemento chiave per l’intelligenza umana — E per le macchine?

Ecco perché l’incarnazione è una parte cruciale di questo puzzle.

Pensare alla mente come a un livello collocato in cima a una struttura cognitiva più primitiva è piuttosto invitante. Facciamo esperienza di noi stessi come essere senzienti, dopo tutto, e in una maniera diversa dal riuscire a percepire il ritmo del nostro battito o il mormorare del nostro stomaco. Se le operazioni svolte dal cervello possono essere divise e stratificate, allora forse possiamo costruire qualcosa di simile solamente al livello più alto, e ottenere l'intelligenza artificiale bypassando il pasticcio di carne che caratterizza la vita organica.

Pubblicità

Mi rendo conto dei vantaggi di questo punto di vista, perché ho co-fondato SwiftKey, un'azienda che produce un software di predizione del linguaggio acquistata da Microsoft. Il nostro obiettivo è emulare gli incredibili processi che il cervello umano sviluppa per comprendere e manipolare il linguaggio. Abbiamo fatto una serie di progressi piuttosto importanti: ero abbastanza fiero del nuovo ed elegante sistema di comunicazione che abbiamo costruito per Stephen Hawking tra il 2012 e il 2014. Ma nonostante i risultati incoraggianti, la maggior parte delle volte gli eventi mi ricordano che non siamo per niente vicini a riuscire ad ottenere un'intelligenza artificiale simile a quella umana. Perché? Il modello cognitivo stratificato è sbagliato. La maggior parte dei ricercatori IA sta tralasciando una parte cruciale di questo puzzle: l'embodi.

Questa faccenda ha intrapreso una direzione sbagliato all'inizio dell'era della moderna IA, attorno al 1950. Gli informatici hanno deciso di provare a imitare il processo cognitivo cosciente costruendo dei sistemi logici basati sui simboli. Questo metodo prevedeva l'associazione di entità del mondo reale a codici digitali per craere dei modelli virtuali dell'ambiente, che poteva poi essere proiettato a sua volta verso il mondo stesso. Per esempio, sfruttando la logica simbolica, puoi insegnare a una macchina ad 'apprendere' che un gatto è un animali codificando una specifica porzione di conoscenza sfruttando una formula matematica come 'gatto > è > animali'. Queste formule possono essere trasformate in entità logiche più complicate che permettono a un sistema di manipolare e provare le proposizioni — Come per esempio capire se un gatto di dimensioni normali sia grande come un orso, o quante possibilità abbia di inseguire un topo.

Pubblicità

Questo metodo ha ottenuto risultati soddisfacenti in ambienti semplici e artificiali: in 'SHRDLU', un mondo virtuale creato dall'informatico Terry Winograd al MIT tra il 1968 e il 1970, gli utenti potevano parlare con un computer per riuscire a muovere dei semplici solidi come dei coni e delle sfere. La logica simbolica, però, si è rivelata incredibilmente inadeguata quanto si è dovuta interfacciare con i problemi del mondo reale, dove delle simbologie attentamente rifinite perdevano di senso davanti alle definizioni ambigue e alle migliaia di scale di interpretazioni che caratterizzano gli elementi della nostra realtà.

Nei decenni successivi, mentre la potenza computazionale cresceva, i ricercatori sono passati a sfruttare la statistica per estrarre dei pattern da grandi quantità di dati. Queste tecniche sono spesso definite come 'machine learning'. Invece che provare a codificare elementi di conoscenza di alto livello e processi di ragionamento logico, il machine learning sfrutta un approccio dal basso verso l'alto per cui gli algoritmi discernono delle relazioni di distinzione ripetendo degli specifici task, come classificare gli elementi visiva in un'immagine o trascrivere del parlato registrato in testo. Un sistema di questo genere potrebbe imparare a identificare un'immagine di un gatto, per esempio, guardando a milioni di foto di gatti, o creare una connessione tra un gatto e un topo comprendendo i riferimenti a questi due elementi in dei grandi corpi di testo.

Pubblicità

Il machine learning ha generato moltissimi esempi di ottime applicazioni pratiche negli ultimi anni. Abbiamo costruito sistema che sono migliori di noi ad ascoltare e trascrivere le nostre parole, a processare le immagini e a leggere le labbra delle persone; possono batterci a scacchi e a Go; stanno anche imparando a creare arte visiva, a comporre musica pop e a scrivere i loro software. In un certo senso, questi algoritmi auto-apprendenti mimano ciò che già sapevamo circa i processi sub-consci dei cervelli organici. Gli algoritmi di machine learning cominciano con delle semplici 'feature' (singole lettere o pixel, per esempio) e le combina in 'categorie' più complesse, tenendo conto dei fattori di incertezza intrinseci e delle ambiguità dei dati del mondo reale. Questo processo è in un certo senso analogo a quello svolto dalla corteccia visiva, che riceve dei segnali elettrici dagli occhi e li interpreta e infine li identifica con dei pattern o degli oggetti riconoscibili.

Ma gli algoritmi sono ancora ben lontani dal riuscire a pensare come noi. La più grande differenza risiede nella nostra biologia evoluta, e a come questa biologia processa le informazioni. Gli esseri umani sono fatti di miliardi di cellule eucariote, che sono apparse per la prima volta circa 2.5 miliardi di anni fa. Una cellula umana è un meccanismo piuttosto ben riuscito composto da ingranaggi collegati tra di loro e che più o meno lo stesso numero di componenti di un jumbo jet moderno — ognuna delle quali è frutto di una selezione piuttosto lunga e precisa strettamente collegata al loro incontro con il mondo naturale. In Basin and Range (1981), lo scrittore John McPhee ha osservato che se spalanchi al massimo le tue braccia per rappresentare l'intera storia della Terra, l'evoluzione degli organismi complessi inizia soltanto verso il polso più lontano dall'inizio, mentre 'con un singolo graffio di un'unghia nella media si potrebbe sradicare l'intera storia umana'.

Pubblicità

La visione tradizionale dell'evoluzione suggerisce che la nostra complessità cellulare si sia evoluta a partire dai primi eucarioti attraverso mutazioni genetiche casuali e selezione naturale. Ma nel 2005 il biologo James Shapiro, della University of Chicago, ha delineato una nuova e radicale narrativa. Ha affermato che le cellule eucariote lavorano 'intelligentemente' per adattare l'organismo che le ospita al suo ambiente manipolando il loro stesso DNA a seguito di stimoli di carattere ambientale. Le più recenti scoperte in ambito microbiologico hanno rivelato delle prove a favore di questa idea. Per esempio, il sistema immunitario dei mammiferi tende a duplicare le sequenze di DNA per generare degli anticorpi efficaci all'attacco delle malattie, e sappiamo che almeno il 43 percento del genoma umano è fatto di DNA che può essere spostato da un punto a un altro, attraverso un processo naturale di 'ingegneria genetica'.

Ora, passare da delle cellule intelligenti e auto-organizzate al tipo di intelligenza "cervellotica" di cui stiamo parlando è un salto bello grosso. Ma il punto è che molto prima che noi cominciassimo a essere degli esseri coscienti e pensanti, le nostre cellule stavano leggendo dati dall'ambiente e lavoravano insieme per farci diventare degli agenti robusti e auto-sufficienti. Ciò che noi pensiamo sia intelligenza, quindi, non riguarda semplicemente l'utilizzo di simboli per rappresentare il mondo per ciò che obiettivamente è. Invece, conosciamo soltanto il mondo per come viene rivelato a noi, una visione radicata nelle nostre necessità generate dall'evoluzione. La natura 'ha costruite un apparato di razionalità non soltanto in cima all'apparato delle regolazioni biologiche, ma anche a partire da esso e con esso," ha scritto il neuroscienziato Antonio Damasio in Gli errori di Descartes (1994), il suo libro seminale sulla coscienza. In altre parole, pensiamo con tutto il nostro corpo, non solo con il cervello.

Sospetto che l'imperativo base della sopravvivenza corporea in un mondo incerto sia la base della flessibilità e del potere dell'intelligenza umana. Ma solo pochi ricercatori AI hanno davvero compreso le implicazioni di queste considerazioni. Ciò che motiva gran parte degli algoritmi IA è il desiderio programmato di estrapolare dei pattern da vaste quantità di dati — Quindi ci potrebbero volere milioni o anche miliardi di singole foto di gatti per ottenere un grado di precisione nel processo di riconoscimento dei gatti. Al contrario, grazie ai bisogni del nostro organismi, gli esseri umani portano con sé dei modelli estremamente ricche del corpo nel suo ambiente più ampio. Traiamo ispirazione dalle nostre esperienze e dalle nostre aspettative aspettative già a partire da un campione osservato piuttosto esiguo. Quindi, quando un essere umano pensa a un gatto, quell'essere umano può immaginarsi come si muova, può sentire il suo miagolare, percepire il dolore di un graffio prodotto dalle sue unghie. Possiede un vasto archivio di informazioni sensoriali a sua disposizione per comprendere l'idea di 'gatto', e altri concetti relativi che potrebbero aiutarlo a interagire con una creatura di questo tipo.

Ciò significa che quando un umano incontra un nuovo problema, gran parte del lavoro è già stato fatto. In modi che cominciamo a comprendere solamente ora, il nostro corpo e il nostro cervello, dal livello cellulare in poi, hanno già costruito un modello del mondo che possiamo applicare quasi istantaneamente a una grande quantità di sfide. Ma per ciò che riguarda gli algoritmi AI, il processo riparte dall'inizio ogni volta. C'è una branca attiva e importante di ricerca, conosciuta come 'trasferimento induttivo', che si concentra ad utilizzare la conoscenza appresa dalla macchina per generare nuove soluzione. Ciononostante, per come stanno le cose ora, non sappiamo ancora se un metodo del genere potrà riprodurre la ricchezza dei modelli prodotti dal nostro corpo. Nello stesso giorno in cui SwiftKey ha svelato il nuovo sistema di comunicazione di Hawking nel 2014, lo scienziato ha rilasciato un'intervista alla BBC in cui metteva in guardia sul come le macchine intelligenti potrebbero porre fine all'umanità. Potete ben immaginare quale delle due storie sia finite sulle prime pagine dei giornali. Sono d'accordo con Hawking nel dire che dovremmo prendere seriamente in considerazione i rischi generati dalla IA. Ma credo che siamo ancora molto lontani dalla necessità di preoccuparci circa un qualsiasi cosa che possa anche solamente avvicinarsi all'intelligenza umana — e abbiamo poche speranze di riuscire a raggiungere questo risultato a meno che non pensiamo attentamente a come fornire agli algoritmi una qualche relazione intrinseca e a lungo termine con il loro ambiente.

Questo articolo è stato inizialmente pubblicato su Aeon ed è stato ripubblicato sotto Creative Commons.

Ben Medlock è il co-fondatore di SwiftKey, una app mobile che usa la tecnologia predittiva per adattarsi ai modi in cui un utente scrive. Ha fatto review per moltissimi gournal in tutto il mondo, e il suo lavoro accademico è pubblicato nell'ACL, la principale conferenza per la ricerca sul natural language-processing. Vive a Londra.