FYI.

This story is over 5 years old.

Știință și tehnologie

Interviu cu omul care militează pentru interzicerea dronelor

Eşti pro sau contra roboţilor autonomi, care decid singuri pe cine ucid?

Image via Wikipedia

Roboţii înarmaţi, care pot discerne când şi cum să atace, fără ajutorul oamenilor prezintă un pericol fără precendent pentru omenire sau cel mai mare mecanism de apărare al speciei, depinde pe cine întrebi. Dar ambele părţi sunt de acord că „roboţii letali autonomi” sunt de domeniul viitorului apropiat, fie că suntem pregătiţi pentru ei sau nu.

Ideea de maşinării liber-cugetătoare care comit un genocid faţă de rasa umană a fost plimbată prin minţile noastre de când ne-a promis Arnold c-o să se întoarcă prin anii 80’. Pe atunci ideea unui soldat robotic ambulant, capabil de conversatie, era, precum însuşi Schwarzenegger, o caricatură mai mult decât o dilemă existenţială.

Publicitate

După trei decenii şi numeroase atacuri cu drone, un nou raport ONU cere un „moratoriu naţional” faţă de dezvoltarea unor roboţi capabili să ucidă în fiecare ţară de pe glob. E un prim pas bun având în vedere că nimeni nu ştie în ce stadii de dezvoltare sunt dronele de asalt în jurul lumii. Se presupune că între 60 şi 70 de state folosesc drone de supraveghere. SUA este cel mai mare producător de drone, dar şi chinezii vor să le vândă pe plan global. Sperăm să fie bine, dar nici nu suntem pregătiţi pentru ce-i mai rău.

Ca să prezint cum trebuie problema roboţilor am discutat cu Peter Asaro, cofondatorul Comitetului Internaţional pentru Controlul Armelor Robotice. Autorul raportului ONU, Christof Heyns, s-a bazat pe cercetările lui Asaro şi pe platforma organizaţiei lui pentru trage concluziile din document. Asaro crede că prin creerea unor maşinării care-s mai bune ca oamenii noi creăm un nou pericol contra căruia nu avem cum să luptăm.

VICE: De ce e important să ne interesăm de acest raport şi de aceste probleme acum?

Asaro: Eu cred că aceste probleme trebuie adresate acum. E cel mai bun moment pentru a crea o legislaţie în domeniu. Cu cât vorbim despre situaţie mai repede, cu atât mai bine. Odată ce aceste sisteme vor fi create şi naţiunile vor ajunge să depindă de ele va fi mult mai greu să facă un pas înapoi.

Există o serie de sisteme enumerate în raportul pentru drepturilor omului, numite „sisteme precursoare”, care sunt sisteme autonome care se folosesc şi-n zilele noastre. Sistemul Samsung Techwin, care patrulează zona demilitarizată dintre Coreea de Sud şi cea de Nord are o capacitate de autonomie completă, care este închisă momentan. Desigur cineva ar putea s-o pornească. Tehnologia a ajuns la acest nivel. Deja se lucrează la dronele X-47B şi Taranis, care sunt capabile de zbor, dar şi de luptă autonomă. Întrebarea e cine controlează aceste arme? Tehnologia care le face să funcţioneze e încă în lucru. Dar nu mai avem mai mult de câţiva ani până vor fi produse în masă.

Publicitate

Având în vedere tabloul pe care tocmai l-ai descris, ce perspectivă ai vrea ca liderii lumii să aibă acum că lumea se obişnuieşte cu roboţii ucigaşi autonomi?

Noi credem că moratoriile naţionale sunt un pas bun spre direcţia unei interdicţii internaţionale. Vrem să fie interzise pe plan global, pentru că noi credem că o fiinţă umană trebuie să hotărască omuciderea. Noi vrem să pornim o discuţie despre legislaţie. Trebuie să se facă un tratat, care să stabilească în ce măsură este inacceptabil să delegi autoritatea de a ucide unei maşinării.

Care aspect al armelor autonome crezi că va fi cel mai problematic în realizarea acestui regulament?

În principiu pe noi ne interesează folosirea armelor. Dar cercetarea şi dezvoltarea lor sunt mult mai greu de reglementat şi de interzis, mai ales în cazul tehnologiilor cu dublă utilitate. De exemplu X-47B se lansează şi aterizează pe portavioane singur. Asta ar putea duce la primul avion de luptă autonom, dar ar putea fi folosit şi pentru a lansa piloţii umani. E greu de spus, având în faţă doar capacitatea de a ateriza şi de a decola, că aparatul va prezenta şi alte pericole şi că ar trebui interzis, pentru că tehnologia respectivă poate fi folosită în diferite feluri.

VREM SĂ FIE INTERZISE PE PLAN GLOBAL, PENTRU CĂ NOI CREDEM CĂ DOAR FIINȚA UMANĂ POATE SĂ HOTĂRASCĂ OMUCIDEREA.

Te gândeşti la inveţii precum navigaţia autonomă sau capacitatea de a identifica oameni într-o mulţime şi nu ştii cum vor fi folosite. Noi vrem să interzicem cuplarea unor astfel de tehnologii într-un sistem de armament, să interzicem actul conectării lor şi al autorizării unui sistem să folosească forţă letală fără supraveghere umană. Desigur e o provocare să definim „supraveghere umană” într-un tratat, dar şi acesta este un motiv bun pentru a organiza discuţii cu experţii şi negocieri internaţionale.

Publicitate

Unde trageţi linia între ceea ce este şi ceea ce nu este acceptabil într-un sistem care va fi echipat cu trăsături autonome?

Trebuie trasă o linie clară atunci când discutăm despre utilizarea forţei letale. E acceptabil să automatizăm transportul, supravegherea şi alte sarcini militare. Dar când vine vorba să laşi o armă liberă, să decidă singură, ai nevoie de un om care să înţeleagă contextul şi care poate discerne dacă ţinta e viabilă înainte să fie folosit. Altfel îi laşi aparatului autonom dreptul de a decide cine e şi cine nu e o ţintă potrivită.

Problema nu e precizia sau acurateţea aparatului. Poate că tehnologia va evolua din aceste puncte de vedere, dar întrebările rămân. Poate să decidă valoarea unei ţinte? Chiar este o ameninţare persoana în cauză? Este necesară forţa letală? Cum i s-a modificat valoarea militară în acest conflict? Este ţinta atât de importantă încât să riscăm vieţile civililor din zonă? Cât de mulţi dintre ei suntem dispuşi să sacrificăm? E nevoie de o înţelegere strategică a situaţiei, o analiză a riscurilor şi alte judecăţi pe care computerele nu sunt echipate să le ia acum. Nu e uşor să scrii un algoritm care să facă asta. S-ar putea să fie chiar imposibil.

Apoi vine problema lipsei de responsabilitate în cazul persoanei care a pus robotul să facă ceva. Realitatea e că orice ar face robotul, el nu va putea fi judecat la tribunal. Astfel le dai tuturor liber să inventeze aparate care ucid fără responsabilitate. Asta e o problemă imensă.

Publicitate

Ce implicaţii are acest lucru pentru noţiunile convenţionale de responsabilitate? Ce fel de probleme morale şi filosofice vă pun roboţii ucigaşi? hat implications does this have for conventional notions of human accountability? What sort of moral and philosophical quandaries do killer robots present?

Se pune problema dacă ei pot fi supuşi oricărei legi. Iar noi ne punem problema dacă e normal ca nimeni să nu-şi asume responsabilitatea. Asta e problema morală. E permis să delegăm autoritatea de a ucide o fiinţă umană unei maşinării?

În general omuciderea este acceptabilă în cazurile de autoapărare. Dar şi atunci este o aproximare umană şi o judecată de valoare.

Devine greu atunci când combatanţii în uniformă din conflict nu sunt ţinte legitime. E vorba de o calitate morală: Dacă nu e necesar să-ţi ucizi inamicul în orice situaţie, atunci e greşi din punct de vedere moral, chiar dacă nu şi legal. Are un aparat legitimitatea ca să decidă cine trăieşte şi cine moare? Eu zic că răspunsul trebuie să fie nu, oricât de legitime ar părea acţiunile sale.

Există şi indivizii sau organizaţii care se luptă cu propunerile dumneavoastră de lege?

Există o reacţie care spune că, în timp, sistemele digitale vor putea lua decizia de a alege o ţintă şi a o ucide sau nu, mult mai bine ca oamenii. Şi că astfel de sisteme ar micşora numărul de victime civile din războaie şi că este obligaţia noastră morală să ne folosim de ele. Ei argumentează că dacă noi interzicem dezvoltarea lor, ele nu vor apuca să evolueze până-n acest punct.

Publicitate

Dar argumente asemănătoare au fost aduse în favoarea armelor chimice şi biologice, c-ar fi mai omenoase decât gloanţele şi bombele. După ce-au fost martori la războiul chimic, comunitatea mondială a căzut de acord că astfel de arme provoacă repulsie şi că sunt o mare greşeală pentru toată lumea.

Text: Greg Thomas

Traducere: Mihai Popescu

Citeşte şi:

Un student român a construit un robot de recunoaştere cu salariul minim pe economie

Chiar şi dronele malefice de supraveghere pot fi artistice

Fotografia în epoca dronei personale

Ce se ascunde în spatele vălului anti-drone