La petizione di Elon Musk e 116 esperti per bandire i 'killer robot'

Nell'attuale scenario geopolitico, la battaglia per vietare le armi autonome sta diventando un'esigenza sempre più concreta.
21.8.17

"In quanto compagnie che si occupano di tecnologie legate all'intelligenza artificiale e alla robotica, che potrebbero essere utilizzate per lo sviluppo di armi autonome, ci sentiamo particolarmente responsabili nel lanciare questo allarme." Così si apre la breve lettera indirizzata ieri al Gruppo di Esperti Governativi dell'ONU in cui 116 imprenditori nel campo dell'AI e della robotica chiedono all'organizzazione delle Nazioni Unite di lavorare per limitare la ricerca tecnologica e l'impiego di quelle armi che "rischiano di diventare una terza rivoluzione militare".

L'occasione della lettera è il mancato meeting del Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS), la nuova Commissione ONU incaricata di occuparsi di questo tema, che avrebbe dovuto riunirsi dal 21 al 25 agosto ma che ha rimandato l'incontro a data da destinarsi per mancanza di partecipazione e di fondi. Il contenuto della lettera è un appello breve e conciso affinché l'organizzazione intergovernativa faccia il possibile per impedire che il "vaso di Pandora" dell'automatizzazione delle armi venga aperto.

Nonostante la causa contro le armi autonome venga portata avanti da molti anni da diverse organizzazioni di attivisti come Stop Killer Robots, stavolta tra i firmatari della lettera aperta ci sono nomi di imprenditori estremamente altisonanti, tra cui Elon Musk e Mustafa Suleyman, il fondatore di Google DeepMind. Questo sembra il fattore più rilevante della questione: la battaglia per vietare la ricerca, lo sviluppo, e la produzione di armi autonome sta diventando un'esigenza sempre più concreta. Nell'attuale scenario geopolitico, chi ha fondato la propria fortuna sullo sviluppo di tecnologie legate all'Intelligenza Artificiale inizia a sentire la responsabilità dei progressi in questo campo.

"Da una parte è giusto e necessario che la ricerca tecnologica venga portata avanti, come fanno le aziende di Musk e Suleyman. Dall'altro è altrettanto stringente la messa al bando ufficiale della ricerca per armi in grado di decidere autonomamente chi uccidere e come," ha detto Gianmarco Veruggio, fondatore di Roboethics, a Motherboard. "Nessuna arma è priva di implicazioni etiche, ma il problema alla base di quelle autonome è molto profondo, perché il loro utilizzo potrebbe segnare una sorta di fine dell'umanità: la responsabilità delle morti e dei conflitti non sarebbe più da imputare all'essere umano, ma a una macchina. Un vero e proprio punto di non ritorno, di cui potremmo leggere sui libri di storia" conclude.