FYI.

This story is over 5 years old.

Calmatevi, l'intelligenza artificiale di Facebook non era 'fuori controllo'

Un errore di programmazione non significa 'inventare una nuova lingua'.
Immagine: Flickr/Abode of Chaos

È evidente che la civiltà umana tutta soffra di un complesso di inferiorità bello pesante nei confronti di quelle quattro lastre di ferraglia con due cavi che comunemente chiamiamo computer, perché ogni volta che fanno qualcosa leggermente fuori dal normale diamo di matto e prendiamo le chiavi del nostro bel rifugio anti-atomico in Svizzera pronti a rifugiarci in attesa del Ragnarok.

L'ultimo episodio di isteria su questa falsariga è avvenuto proprio in questi giorni, quando è cominciata a circolare una notizia secondo cui Facebook avrebbe dovuto spegnere le sue intelligenze artificiali perché avevano inventato una lingua incomprensibile all'uomo e avevano cominciato a comunicare tra di loro. Paranoia totale, risveglio delle macchine, singolarità tecnologica, event horizon informatico. Questo era il tono delle loro conversazioni:

Pubblicità

Immagine: Facebook/FastCo

La notizia è stata rimbalzata un po' da chiunque facendo leva proprio su questo sentimento di terrore nei confronti di una tecnologia che sfugge al controllo dell'uomo, ma la realtà, per quanto meno eccitante, è un po' diversa.

Tutto inizia da un articolo apparso su Fast Company in cui veniva raccontata, con toni cauti, la vicenda: il team di ricerca sull'intelligenza artificiale di Facebook stava lavorando allo sviluppo di un bot capace di portare avanti delle trattative vantaggiose in autonomia, così prende due delle sue intelligenze artificiali e le mette a trattare tra di loro.

Le due cominciano uno scambio in lingua inglese, ma dopo poco finiscono per risultare incomprensibili ai ricercatori umani: in pratica avevano cominciato a uscire fuori dai binari sintattici della lingua inglese e ne stavano creando di nuovi a noi sconosciuti, semplicemente perché questi ultimi risultavano linguisticamente più efficienti di quelli tradizionali.

Non si tratta però di un evento apocalittico senza precedenti: semplicemente i ricercatori si erano dimenticati di stabilire una ricompensa per le macchine se si fossero mantenute sui binari della lingua inglese classica, così le intelligenze artificiali hanno semplicemente trovato una soluzione più rapida.

Nessuna nuova stele di Rosetta, solo un rapporto informatico costo/risultato che ha costretto i ricercatori a staccare temporaneamente la spina per riprogrammare le macchine perché l'intento iniziale era quello di sviluppare un bot capace di portare avanti delle trattative con degli esseri umani.

L'intelligenza artificiale è un tema delicato e che si sta evolvendo a velocità assurde, e proprio per questo motivo è bene trattarlo in maniera rigorosa: non c'è nulla di male se due macchine parlano tra di loro, specie perché è il modo più rapido per addestrarle a parlare meglio, ma è bene ricordarsi che nella stanza dei bottoni continua a esserci ancora l'uomo, e che ogni errore generato dalla macchina parte sempre da un errore dell'uomo — Proprio come in questo caso.

Segui Federico su Twitter: @nejrottif