FYI.

This story is over 5 years old.

GUERRA

I “robot killer” potrebbero rivoluzionare le guerre del futuro

Gli esperti di Intelligenza Artificiale e i gruppi per i diritti umani stanno cercando di attirare attenzione sulla possibilità che le armi autonome possano invadere i nostri campi di battaglia, uccidendo senza l'intervento umano.
22.10.15
Foto tratta dal documentario di VICE News "Israel's Killer Robots"

Segui VICE News Italia su Facebook per restare aggiornato

L'anno è il 2050. Un caccia sfreccia nel cielo del Medio Oriente, puntando alcuni obiettivi sul territorio nemico.

Il bersaglio, in realtà, è un gruppo di contadini che brandiscono zappe e rastrelli—strumenti che l'aereo militare identifica come armi. Nel giro di pochi minuti scaglia una serie di missili, uccidendoli tutti.

Il caccia non ha pilota. Il velivolo non viene controllato a distanza. L'operazione viene classificata come un successo.

Pubblicità

La prospettiva di un simile scenario ha portato alcuni attivisti e associazioni per i diritti umani a invocare la messa al bando dei cosiddetti "robot-killer"—armi avanzate guidate da un'intelligenza artificiale che, a detta loro, potrebbero un giorno spadroneggiare sui campi di battaglia e decidere della vita o della morte delle persone senza alcun intervento umano.

I rappresentanti della Campaign to Stop Killer Robots (Campagna per Fermare i Robot Killer) si sono riuniti martedì negli Stati Uniti per portare avanti la loro battaglia. Gli eventi - una conferenza stampa e un incontro - sono stati organizzati tre mesi dopo che oltre 1,000 illustri scienziati, esperti di robotica e ricercatori - tra cui figuravano Stephen Hawking e Elon Musk - avevano firmato una lettera per dire "no" allo sviluppo di armi autonome, conosciute come LAWS (Lethal Autonomous Weapons Systems).

Sebbene il concetto di "robot killer" faccia pensare immediatamente a Terminator, i contendenti nella disputa dicono che questa interpretazione è inesatta, almeno per ora. Gli esperti di intelligenza artificiale fanno notare che gli strumenti tecnologici necessari per la creazione di armi automatiche di base esistono già. Inizialmente, significherebbe solo ammodernare armi esistenti, come i droni, per abilitarli a sparare a presunti bersagli senza alcuna approvazione umana.

Sono decenni che esistono armamenti in grado di prendere decisioni autonome, pur se con dei limiti specifici—tra di essi ricordiamo il sistema missilistico terra-aria Patriot, capace di colpire presunti bersagli aerei in modo indipendente. Nel corso dell'invasione dell'Iraq guidata dagli Stati Uniti nel 2003 il sistema distrusse due aerei alleati - un FA/18 Hornet americano e un Tornado fighter britannico - uccidendo tre militari dell'aeronautica.

Pubblicità

Da allora, sia gli Stati Uniti che il Regno Unito hanno sviluppato aerei in grado di volare da soli. Secondo alcuni, è proprio questo il passo decisivo verso la realizzazione di velivoli completamente automatici.

Toby Walsh, ricercatore di Intelligenza Artificiale e professore di informatica alla University of New South Wales, prevede la diffusione dell'automazione provocherà altri incidenti mortali. Walsh ha citato la "minaccia dei droni," che, a sua detta, interpongono una distanza significativa tra gli ufficiali dell'esercito e l'atto di uccidere, con risultati mortali per i civili.

"Scopriamo ora che in 9 casi su 10 le persone uccise da un drone non sono le vittime prescelte," dice Welsh riferendosi alle recenti rivelazioni sul programma segreto per l'impiego di droni di Washington pubblicato da The Intercept. "Considerato l'attuale stato di sviluppo dell'Intelligenza Artificiale, faremo molti più errori con i computer."

Ian Kerr, professore di filosofia alla University of Ottawa e membro dell'International Committee for Robot Arms Control, sostiene che le armi automatiche andrebbero oltre quella che lui considera una soglia etica vitale delegando le uccisioni a un software pre-programmato.

"Scaricare queste decisioni su una macchina è problematico da un punto di vista morale," sottolinea Kerr. Il professore ha aggiunto che anche se questi sistemi fossero in grado di distinguere i combattenti dai civili, non vedrebbero comunque il campo di battaglia attraverso lo stesso "prisma" morale proprio dell'uomo.

Pubblicità

Nel 2013 gli oppositori delle armi automatiche, tra cui gruppi come Human Rights Watch, spinsero con successo per aprire un dibattito sull'argomento al Consiglio per i diritti umani delle Nazioni Unite. Nell'aprile di quell'anno Christof Heyns, inviato speciale delle Nazioni Unite, suggerì che i paesi stabilissero "delle moratorie nazionali sugli aspetti dei LARs [robotica letale autonoma]" e invocò la fondazione di un comitato di esperti di alto livello allo scopo di creare una policy per la comunità tecnologica internazionale.

Nel suo rapporto, Heyns citò il Regno Unito, gli Stati Uniti e la Corea del Sud tra i paesi che hanno già messo in campo sistemi di robotica con "vari livelli di autonomia." Israele è stata segnalata invece per l'utilizzo di un sistema cosiddetto "spara e dimentica" che colpisce i bersagli che emettono un segnale radar. Il sistema americano Phalanx installato su alcuni incrociatori navali "rileva, segue e ingaggia minacce anti-aeree," mentre due velivoli - il Northrop Grumman X-47B e il drone britannico Taranis con propulsione jet - sono in grado di volare da soli e, nel caso di Taranis, scovare i bersagli nemici.

Forse lo strumento più simile a Terminator tra quelli citati nel rapporto è Samsung Techwin, un robot che si occupa di spionaggio e sicurezza. Impegnato nella zona demilitarizzata tra le due Coree, questa macchina è in grado di rilevare i bersagli in modo autonomo. Così come il Taranis, il Techwin non può ancora colpire obiettivi nemici senza l'approvazione umana.

Pubblicità

Sia gli Stati Uniti che il Regno Unito hanno delineato delle linee guida per quanto riguarda gli armamenti automatici. Nel 2012, il Pentagono ha emesso una direttiva secondo la quale "gli armamenti autonomi e semi-autonomi devono essere progettati per permettere ai comandanti e agli operatori di esercitare dei livelli appropriati di giudizio umano sull'uso della forza." Tuttavia, la direttiva scadrà nel 2022.

Le discussioni sulle armi automatiche hanno dato vita a una convenzione, la CCW, che regola una serie di armamenti tra cui dispositivi incendiari, mine e armi laser. Il CCW è stato firmato da più di 100 paesi, compresi i cinque membri permanenti del consiglio di sicurezza delle Nazioni Unite. La Campagna per Fermare i Robot Killer punta a convincere i firmatari della convenzione a introdurre un divieto preventivo sull'utilizzo di armamenti letali automatici.

Guarda il documentario di VICE News Israel's Killer Robots:

"È una faccenda molto complessa da affrontare," ha detto Steven Costner, vice direttore dell'Ufficio per la Rimozione e l'Abbattimento delle Armi del Dipartimento di Stato. "Ci sono delle armi e della tecnologia che esistono già la fuori, e altre che svilupperemo in futuro. Dove poni il limite? Qual è il giusto livello di controllo umano?"

Michael Schmitt, membro del programma sulla legge internazionale e i conflitti armati di Harvard, concorda sul fatto che un divieto sia irrealizzabile. Secondo lui, è più probabile che una regolamentazione abbia successo.

Pubblicità

"Visto che le armi autonome hanno la capacità di rivoluzionare le guerre moderne, alcuni stati vorranno progettarle sia per ampliare il proprio divario tecnologico sul campo di battaglia, sia per controbilanciare le proprie debolezze," suggerisce Schmitt, aggiungendo che da un punto di vista umanitario le soluzioni "devono essere pratiche e realistiche su quali stati è probabile che accettino una svolta in quella direzione."

Gli stati membri del CCW si riuniranno a Novembre, quando gli attivisti sperano di porre una maggiore attenzione sull'argomento. Ma le trattative per renderlo possibile sono ancora in stato embrionale.

Alcuni esperti di robotica difendono l'uso di strumenti automatici di attacco. In uno studio del 2007, il professore della Georgia Tech Ronald Arkin, ha parlato della "tendenza a cercare vendetta" tra i soldati sostenendo che le armi autonome "possono funzionare in modo più etico dei soldati in carne e ossa."

Gli oppositori controbattono che per quando gli esperti e le autorità capiranno che forma prenderà l'automazione letale, sarà troppo tardi per creare dei regolamenti significativi. Su un altro versante, temono che la rimozione dell'elemento umano dal campo di battaglie possa facilitare il compito di vendere una guerra agli elettori, aumentando il rischio di conflitto in giro per il mondo. Scharre, che ha preso parte a numerose operazioni in Iraq e Afghanistan, concorda che un simile sviluppo sarebbe doloroso.

"Se gli eserciti usano armi e non si sentono responsabili per le uccisioni, quello sarebbe eticamente problematico," ha commentato Scharre.

Ma pare che finché la possibilità che una simile realtà si verifichi diventa più chiara, sarà difficile dare l'allarme per uno scenario che sembra uscire direttamente dalla trama di un film distopico.


Segui VICE News Italia su Twitter e su Facebook Segui Samuel Oakford su Twitter: @samueloakford