La Casa Bianca vuole stroncare il razzismo nell'intelligenza artificiale

E pensa che educare i programmatori del futuro sull’etica della IA possa aiutare a risolvere il problema.
18 ottobre 2016, 10:25am
Immagine: Shutterstock

Può capitare che l'intelligenza artificiale sia animata dagli stessi pregiudizi inconsapevoli tipici dei propri creatori umani, con conseguenze potenzialmente disastrose. Il governo degli Stati Uniti pensa che educare i programmatori del futuro sull'etica della IA possa aiutare a risolvere il problema.

La Casa Bianca ha reso pubblico un documento di ricerca sul futuro dell'intelligenza artificiale negli USA mercoledì scorso, contenente una sfilza di raccomandazioni. In una sezione sull'imparzialità, il documento sottolinea quel che diversi ricercatori di IA hanno già fatto notare: dati parziali o tendenziosi portano a una macchina parziale o tendenziosa.

Per esempio, l'intelligenza artificiale viene usata dalle forze dell'ordine in tutta l'America del Nord, per identificare i soggetti recidivi o le aree ad alto rischio di criminalità. Ma una serie di rapporti recenti ha suggerito che questa IA prende di mira in modo sproporzionato o generalmente scorretto le persone di colore.

Se un dataset—per esempio, un mucchio di facce—contiene prevalentemente persone bianche, o se i lavoratori che hanno assemblato un dataset più diversificato (anche inconsapevolmente) classificano i volti bianchi come più attraenti di quelli non-bianchi, allora qualsiasi programma informatico allenato su quei dati "crederà" con tutta probabilità che le persone bianche siano più attraenti di quelle non-bianche.

È successo già qualcosa del genere, a dirla tutta: una IA, cui era stato dato il compito di giudicare le partecipanti a una gara di bellezza, ha selezionato quasi esclusivamente vincitrici bianche, da un bacino di persone provenienti da diversi background. Questo principio potrebbe condizionare anche scenari di vita quotidiana, come il mondo del lavoro.

"Se un modello di apprendimento di una macchina viene impiegato per valutare i candidati per una certa posizione lavorativa, e i dati utilizzati per allenare il modello riflettono decisioni precedenti che sono condizionate o di parte, il risultato potrebbe perpetuare questi pregiudizi pre-esistenti," si legge sul documento della Casa Bianca.

"Per esempio, cercare candidati che somiglino a dipendenti precedenti potrebbe condizionare il sistema e portarlo ad assumere persone simili a quelle già presenti in un team, anziché considerare i soggetti migliori nel ventaglio ampio e diversificato dei potenziali candidati."

Una parte della soluzione, che il documento raccomanda, è che le scuole e le università insegnino etica in qualsiasi corso relativo alla IA. "Idealmente, qualsiasi studente di IA, informatica, o data science dovrebbe seguire corsi curricolari e discussioni su argomenti relativi all'etica e alla sicurezza," dice il testo.

Gli studenti dovrebbero anche acquisire le competenze tecniche per applicare l'etica ai programmi di machine learning su cui lavorano, prosegue il documento. Per quanto si tratti di un problema emergente per cui nessuno ha una risposta davvero esaustiva al momento, alcuni ricercatori hanno già fatto passi verso la formulazione di una sorta di "algoritmo dell'imparzialità" che può regolare i sistemi di una IA internamente, così da assicurarsi risultati non di parte, anche quando i dati di partenza lo sono.

Comprendere i delicati funzionamenti interni di programmi estremamente complessi è una sfida ancora impegnativa per i ricercatori che si occupano di intelligenza artificiale—inutile dire che c'è ancora tanta strada da fare prima di poter formalizzare e mettere a punto una sorta di metodo di salvaguardia dell'obiettività.

Ma con miliardi di investimenti previsti dalle grosse aziende nel campo della IA, è improbabile, a questo punto, che qualcuno decida di fare un passo indietro prima di buttare sul mercato la prossima innovazione nel campo del machine learning—i robot stanno arrivando, dobbiamo concentrarci su come far sì che non replichino i pregiudizi e i difetti tipici dell'uomo.