Advertentie
Tech by VICE

Twee kerngeleerden willen Amerikaanse kernraketten door AI laten lanceren

“Hun ideeën lijken soms rechtstreeks uit een slecht sciencefictionverhaal te komen.”

door Matthew Gault
05 september 2019, 3:09pm

Beeld: Celafon/Getty Images

De Koude Oorlog mag dan alweer een tijdje zijn afgelopen, maar inmiddels is-ie min of meer aan een tweede leven begonnen. Oude verdragen tegen het ontwikkelen van kernwapens zijn morsdood, en Rusland is met nieuwe raketten bezig waarmee de VS in recordtijd zou kunnen worden geraakt. Twee deskundigen hebben nu een idee hoe Amerika zich hiertegen zou kunnen wapenen: laat het beheer van kernwapens over aan kunstmatige intelligentie. En ja, dat idee is net zo idioot als het klinkt.

In een artikel voor het militaire blog War on the Rocks, stelden de twee kerngeleerden Adam Lowther en Curtis McGiffin voor om het de president wat makkelijker te maken door te pleiten voor een kunstmatig intelligente ‘Dead Hand’, een Russisch systeem (failsafe, maar dan dat iedereen sowieso doodgaat), dat ontwikkeld werd tijdens de Koude Oorlog en ervoor zorgde dat de Russische kernwapens zouden worden gelanceerd zodra het land werd aangevallen, ook als er niemand zou zijn om op het knopje te drukken.

Lowther en McGiffin zijn bang dat Rusland, nu het nieuwe wapens heeft, helemaal niet zo heel bang meer is dat Amerika wraak zal nemen zodra ze actie ondernemen. En dus willen ze de wapens door AI laten beheren. “Vanwege tijdscompressie is het Amerikaanse leiderschap in een situatie terechtgekomen dat het bestaande systeem [om de kernwapens te beheren, red.] misschien niet snel genoeg meer werkt,” schreven ze. “Daarom is het waarschijnlijk nodig om een systeem te ontwikkelen dat gebaseerd is op kunstmatige intelligentie, met voorgeprogrammeerde reacties, dat kan detecteren, beslissen en sturen, met zo’n snelheid dat de VN niet in een onmogelijke positie terechtkomt.”

In 2018 schreef de denktank RAND Corporation in een rapport dat AI inderdaad een rol zou kunnen spelen om de wereld van een kerncrisis te behoeden. Voor dit rapport werden meerdere deskundigen gevraagd hoe kunstmatige intelligentie nucleaire dreiging zou kunnen beïnvloeden, maar hun antwoorden waren niet eenduidig. Sommige experts dachten dat het de wereld inderdaad veiliger zou kunnen maken, anderen geloofden dat het de huidige balans juist compleet zou verstoren. “AI zou alleen als heel effectief moeten worden gezien wanneer het aankomt op destabilisatie – bijvoorbeeld in het volgen en lokaliseren van de vijand. Als de vijand zijn vermogen om op een aanval te reageren dreigt te verliezen, kan het gedwongen worden om of een preventieve eerste stoot uit te delen, of zijn arsenaal uit te breiden – wat beide ongewenste gevolgen zijn,” staat in het rapport.

Het bericht op War on the Rocks is inmiddels verspreid onder kernwapen-experts, en sommige vinden het een gevaarlijk idee. Ook het Bulletin of Atomic Scientists schreef erover. “Het is eh, nogal een verhaal,” zegt Peter W. Singer van de New America Foundation over de blog in een e-mail. Singer gaf toe dat Lowther en McGiffin op zich best wat goede ideeën hebben, “maar ook ideeën die rechtstreeks uit een slecht sciencefictionverhaal lijken te komen.”

Singer zegt dat het idee om kunstmatige intelligentie in de nucleaire commando- en controlesystemen te gebruiken flink wat alarmbellen liet afgaan in de kernwereld, maar niet allemaal om dezelfde reden. “Ik was vooral geschokt door de voorgestelde wijziging in het first-strike-beleid, waardoor de president een nucleaire aanval kan starten op basis van één simpele waarschuwing,” zegt Singer. “We hebben een president die het ene moment een boze tweet over Will & Grace schrijft en vervolgens allerlei leugens uitkraamt, en dan wil je de nucleaire drempel VERLAGEN?”

Er is langzamerhand een einde aan de detente na de Koude Oorlog gekomen. Rusland is nieuwe kernwapens aan het ontwikkelen waarover ze al flink wat oorlogstaal hebben uitgesproken. Vooralsnog is geen van deze wapens daadwerkelijk gebruikt.

De geschiedenis van kernwapens is er een van paranoia, ongelukken en pogingen om een wereldwijde ramp te voorkomen. Voordat er intercontinentale ballistische raketten werden ontwikkeld, liet de VS binnen 24 uur een vloot nucleaire bommenwerpers over de wereld vliegen. Die strategie heeft geleid tot een hoop crashes en verloren geraakte bommen, waaronder die bij het vliegtuigongeluk bij Thule in 1968.

In Groot-Brittannië, dat nucleaire onderzeeërs, vertrouwen kapiteins op een laatste redmiddel dat ze kan instrueren als Londen bij een kernramp wordt vernietigd. Elke nieuwe premier moet persoonlijk een brief schrijven waarin de kapitein geïnstrueerd wordt wat te doen als het VK wordt weggevaagd. Elke premier moet aangeven of de kernwapens gelanceerd mogen worden als ze zelf dood zijn.

In 1983 voorkwam de Sovjet-luitenant-kolonel Stanislav Petrov een kernoorlog: hij hield de radar in de gaten en dacht te zien dat er Amerikaanse raketten op zijn land afkwamen. In plaats van dat hij gelijk repte dat de oorlog verklaard moest worden, wachtte hij nog even af, omdat hij er rekening mee hield dat het een technisch mankementje kon zijn. Daar bleek hij gelijk in te hebben, waarmee een ramp werd voorkomen.

We kunnen niet weten wat er precies gebeurt als we de controle over deze systemen uitbesteden aan kunstmatige intelligentie, maar we weten wel hoe groot de kans is dat er iemand achter de knoppen zit die net zo zorgvuldig met zulke situaties om kan gaan als Petrov.