intelligenza artificiale

L’intelligenza artificiale è molto più vicina all’alchimia che alla scienza

Il ricercatore di Google Ali Rahimi l'ha detto chiaro e tondo: "Il machine learning è diventato come l'alchimia."

di Riccardo Coluccini
15 giugno 2018, 11:33am

Illustrazione: Juta

Lo scorso dicembre durante Neural Information Processing Systems (NIPS), una delle più importanti conferenze mondiali sull'intelligenza artificiale, il ricercatore di Google Ali Rahimi ha candidamente ammesso nel suo discorso di ringraziamento per il premio Test of Time che “il machine learning è diventato come l'alchimia.” Il cielo si è aperto in due.

Che si tratti di giocare a Go o riconoscere degli animali, data una sufficiente mole di dati iniziali e appropriati algoritmi di apprendimento automatico, sembra che si possa fare quasi di tutto; e fra le tante applicazioni a disposizione, gli algoritmi di deep learning, attualmente utilizzati da Google stessa sia per far funzionare il suo traduttore che per indicizzare le fotografie nella sua app Foto, fanno da padroni nei titoli di giornale di mezzo mondo.

Se stai costruendo dei servizi per la condivisione di fotografie, l’alchimia va bene. Ma noi stiamo costruendo dei sistemi che si occupano della gestione della salute pubblica e della nostra partecipazione nel dibattito pubblico.

Ora, però, proprio uno dei ricercatori che si trovano al centro di questa rivoluzione sembra aver tirato il freno della locomotiva: “Non c’è nulla di sbagliato nell’alchimia. L’alchimia funzionava," spiega in un post sul suo blog. "Se stai costruendo dei servizi per la condivisione di fotografie, l’alchimia va bene. Ma noi stiamo costruendo dei sistemi che si occupano della gestione della salute pubblica e della nostra partecipazione nel dibattito pubblico. Vorrei vivere in un mondo in cui questi sistemi sono costruiti partendo da conoscenze rigorose, affidabili e verificabili, e non basati sull’alchimia.”

Rahimi sottolinea quindi come il settore dell’intelligenza artificiale stia vivendo uno scollamento fra la parte che si occupa della comprensione degli algoritmi e delle metodologie e quella che si preoccupa dei semplici successi pratici.

In tutto questo, infatti, l’alchimia si può intendere come una metodologia volta a produrre pragmaticamente dei risultati. Pur racchiudendo in sé alcuni aspetti scientifici, l’alchimia è nata come ricerca sulla natura del mondo che ci circonda, introducendo anche riflessioni spirituali e mistiche.

Gli alchimisti sono riconosciuti come i precursori della chimica moderna: nella loro ricerca sulla natura dei materiali hanno infatti contribuito alla metallurgia e alla produzione di nuove sostanze. Alle spalle della loro ricerca, però, non vi erano metodologie rigorose e teorie verificabili e hanno fatto propri alcuni simboli e termini della mitologia biblica e pagana, come ad esempio la pietra filosofale — una sostanza leggendaria in grado di donare l'onniscienza, la vita eterna e il potere di trasmutare tutti i metalli in oro.

Lo stesso tipo di empirismo è ciò che Rahimi lamenta nel settore del machine learning: “l’empirismo è diventato sinonimo di battere il benchmark o provare le cose finché non funzionano.”

Effettivamente ogni anno si tengono competizioni che premiano il gruppo di ricercatori che riesce a ridurre l’errore nell’accuratezza del proprio algoritmo o che produce il sistema migliore nel risolvere una determinata sfida.

ImageNet, ad esempio, è una competizione annuale che premia i migliori algoritmi di riconoscimento oggetti e che dal 2012 ha visto un calo drastico del tasso di errori grazie all’introduzione di nuovi algoritmi del tipo Convolutional Neural Network. Il 5 giugno scorso, invece, si è conclusa la Retro Contest, una competizione organizzata da OpenAI in cui i partecipanti hanno prodotto delle intelligenze artificiali in grado di giocare ad alcuni livelli del gioco Sonic senza averli mai visti prima d’ora.

Sembra quindi che il fascino dei dati abbia completamente stravolto l’approccio scientifico: non si cerca più di formulare teorie per la comprensione dei fenomeni ma piuttosto ci si abbandona interamente al volere delle correlazioni che emergono dai dati. La scienza si è trasformata nel semplice dare in pasto i dati agli algoritmi di intelligenza artificiale e valutare i risultati — se non sono soddisfacenti si modifica qua e là l’algoritmo finché non soddisfa le nostre esigenze.

Questo cambio di paradigma è stato sottolineato in due saggi presenti nell’antologia Datacrazia, curata da Daniele Gambetta e pubblicata da D Editore. Nei due saggi, Emanuele Cozzo e Eleonora Priori prendono entrambi spunto da un articolo pubblicato nel 2008 su Wired per sottolineare la crisi metodologica che sta vivendo in questo momento la scienza.

In quell'articolo, Chris Anderson sancisce definitivamente la morte della teoria a favore del mondo dei big data sottolineando come “Google e altre aziende simili stanno letteralmente spulciando i dati relativi all'età più misurata della storia, trattando questo enorme corpus come un laboratorio della condizione umana.”

Il positivismo scientifico è stato completamente sostituito dal fideismo tecnologico che spesso ci impedisce di ricordare che la correlazione non sostituisce la causalità all’interno delle relazioni fra i dati.

Come sottolinea Cozzo, il piano del discorso teorico si affianca a quello più empirico della descrizione degli oggetti, ma se muore la teoria di conseguenza muore anche la scienza, vittima di un’anarchia metodologica incontrastabile. Allo stesso modo, per Priori, il positivismo scientifico è stato completamente sostituito dal fideismo tecnologico che spesso ci impedisce di ricordare che la correlazione non sostituisce la causalità all’interno delle relazioni fra i dati.

Nel campo dell’intelligenza artificiale, quindi, questo cambio di paradigma sembra già completamente avvenuto. Rahimi, però, suggerisce anche una soluzione: tornare a progettare semplici esperimenti e teoremi che permettono di spiegare fenomeni più complessi e ancora incomprensibili.

L’ultima volta che l’AI è stata accostata all’alchimia — seppur solamente dal punto di vista filosofico — con lo studio Alchemy and AI del 1965 e con il libro What Computers Can’t Do del 1972, entrambi scritti dal filosofo Hubert Dreyfus, la ricerca nel settore ha vissuto una fase di stallo, nota come l’inverno dell’AI.

Forse, è il caso di riportare un po’ di rigore scientifico nello studio dell’intelligenza artificiale.

Vuoi restare sempre aggiornato sulle cose più belle pubblicate da MOTHERBOARD e gli altri canali? Iscriviti alla nostra newsletter settimanale.