FYI.

This story is over 5 years old.

oorlog

In de oorlog van de toekomst strijden autonome robots met elkaar tot de dood

Een kleine update over hoe we allemaal gaan sterven.
Foto: Panther Media GmbH / Alamy Stock Phot

In Doctor Strangelove, de cultfilm van Stanley Kubrick uit 1964, wordt de wereld in een apocalyps gestort door gebeurtenissen die buiten de macht van Amerikaanse en Russische leiders liggen – een soort Cubacrisis met een iets andere afloop.

Nu een derde revolutie op het gebied van oorlogsvoering zich ontvouwt – na de ontdekking van buskruit en de ontwikkeling van nucleaire wapens – vrezen experts en actievoerders dat de bewapening van kunstmatige intelligentie, en de ambitie om dodelijke autonome wapensystemen te ontwikkelen, de wereld dichter bij de rand van de afgrond kan brengen dan ooit tevoren.

Advertentie

“Als de huidige ontwikkeling van autonome wapensystemen door technisch sterk ontwikkelde landen niet gestopt wordt, kan de veiligheid van de wereld drastisch gedestabiliseerd worden,” zegt Noel Sharkey, professor in kunstmatige intelligentie en robots aan de University of Sheffield. “Een onbedoelde botsing tussen vijandige robots aan een grens of in internationale wateren kan zich ontwikkelen tot een oorlog die mensen niet kunnen weerstaan of tegenhouden. Een conflict kan binnen een paar minuten escaleren, zonder dat iemand het kan stoppen, en met enorme vernietiging tot gevolg.”

Er bestaan al verschillende semi-autonome wapensystemen, zoals de automatische kanonnen in de Koreaanse gedemilitariseerde zone, die overlopers automatisch beschieten. Maar er is een wapenwedloop op het gebied van killer robots aan de gang, waardoor een aantal belangrijke landen in de nabije toekomst zwermen volautomatische straaljagers en tanks zullen hebben, waar geen mens aan te pas komt.

Overheden van verschillende landen komen deze week bij de VN bijeen om te bespreken of en hoe dit soort systemen gereguleerd moeten worden, en actievoerders zeggen dat de tijd dringt om actie te ondernemen.

“Om te voorkomen dat robots, en niet mensen, in de toekomst de lakens uitdelen, moeten de overheden nu ingrijpen,” zegt Mary Wareham van Human Rights Watch, coördinator van de ‘Campaign to Stop Killer Robots’. “Overheden moeten een internationaal verdrag opstellen waarin autonome wapensystemen worden verboden. Elke minder sterke maatregel is gedoemd te mislukken.”

Advertentie

Een aantal landen heeft zijn steun uitgesproken voor een totaalverbod, waaronder Oostenrijk, de eerste EU-staat die zich bij de tegenstanders heeft gevoegd. Maar het idee van een algeheel verbod wordt tot nu toe door lang niet iedereen met open armen ontvangen, ondanks de oproep van Elon Musk en andere experts tot een totaalverbod. Tientallen landen ontwikkelen de systemen openlijk.

Autonomie is een zelfopgelegde hoeksteen van de toekomstige militaire strategie van de VS. Dat heeft ervoor gezorgd dat de uitgaven aan robotica wereldwijd sterk zijn toegenomen, van 74 miljard euro in 2016 tot waarschijnlijk 152 miljard in 2020, nu Rusland, China en andere landen hun investeringen hebben vergroot om bij te blijven. De VS ontwikkelt momenteel een prototype X-47B, een staartloos, onbemand vliegtuig – dat tien keer het bereik heeft van een gewone F-25 straaljager – dat kan opstijgen in alle weerstomstandigheden, in formatie kan vliegen, en kan bijtanken in de lucht.

Het toestel is specifiek ontworpen om boven de Grote Oceaan gebruikt te worden, nadat bleek dat de VS achterop was geraakt bij China in die regio. China heeft nu hypersonische raketten die hen potentieel op voorsprong zetten in een mogelijke oorlog in de Zuid-Chinese Zee.

“Hoewel de visie futuristisch is, kan je je scenario’s voorstellen waarin onbemande toestellen vijandige doelen opmerken, volgen, identificeren en vernietigen – volledig autonoom,” staat in het rapport van het Amerikaanse ministerie van Defensie. Het “voorziet in onbemande systemen die naadloos samenwerken met bemande systemen, terwijl ze geleidelijk de hoeveelheid benodigd menselijk ingrijpen verlagen.”

Advertentie

Het geheim achter de Chinese wapens is doorgaans wat beter bewaard, maar het land liet onlangs een aantal van haar nieuwe wapens zien op de International Defense Exhibition and Conference, een van de grootste wapenbeurzen ter wereld, in Dubai. De opkomende wereldmacht heeft de CH-5 ontwikkeld, een drone die 60 uur achter elkaar kan vliegen en die binnenkort bijna 20.000 kilometer in één keer kan vliegen. Volgens commentatoren kunnen doorbraken in de Chinese AI-technologie er voor zorgen dat de drones binnenkort in formaties kunnen gaan opereren.

Rusland is ook volop bezig met het onderzoeken en ontwikkelen van autonome wapensystemen. “Wie leidt in AI leidt de wereld,” zei Vladimir Poetin vorig jaar. “Kunstmatige intelligentie is de toekomst, niet alleen voor Rusland, maar voor de mensheid.”

Kalashnikov, de producent van de AK-47, heeft een volledig automatisch licht kanon ontwikkeld dat zogenaamde ‘neural network’-technieken gebruikt om doelen te onderscheiden en beslissingen te maken. Het is ook begonnen met de serie-productie van een stille drone, die in de toekomst met wapens uitgerust kan worden.

Ook het Verenigd Koninkrijk doet mee. Zij ontwikkelen wapensystemen die autonoom zijn, en zijn net als een aantal andere landen met goed ontwikkelde legers tegen een verbod, ondanks het feit dat premier Theresa May onlangs zei dat ze wil dat het VK voorloper wordt in ethisch gebruik van kunstmatige intelligentie.

Taranis, een door het VK ontwikkeld vliegtuig, is ontworpen om doelen op afstand te raken “zelfs op een ander continent,” en hoewel het Ministerie van Defensie zegt dat mensen betrokken blijven, noemt Human Rights Watch Taranis een voorbeeld van de ontwikkeling van autonome wapens.
Deze wapens kunnen ook gehackt worden, en kunnen zich onverwacht gedragen als ze in onverwachte situaties terechtkomen; experts wijzen op het falen van het Patriot-raketsysteem in de Eerste Golfoorlog, als bewijs dat met alle soorten wapens iets mis kan gaan.

“Autonome wapensystemen zijn geheel computergestuurd, met alle problemen die daarbij komen kijken,” zegt Sharkey. “Het probleem is dat als iedereen ze heeft, niemand kan zeggen hoe ze op elkaar reageren. Het zijn onbekende algoritmes die met elkaar vechten, en dat feit maakt ze onvoorspelbaar ten opzichte van het oorlogsrecht.”