FYI.

This story is over 5 years old.

Tech

In de jaren 80 ondervroeg de CIA haar eigen agenten met AI

Nieuw vrijgegeven documenten laten zien dat de CIA grootse plannen had voor kunstmatige intelligentie.

De CIA is berucht om haar "innovatieve" manieren om nieuwe ondervragingstechnieken te ontwikkelen (nou ja, als je waterboarden innovatief vindt). Nieuw vrijgegeven documenten laten zien deze drang om te experimenteren niets nieuws is: dertig jaar geleden liet de CIA een van hun agenten ondervraagd worden door kunstmatige intelligente.

De documenten waar het om gaat zijn geschreven in 1983 en hebben als titel "Interrogation of an Alleged CIA Agent". Ze beschrijven een serie experimenten van begin jaren 80 waarin de CIA hun eigen agent Joe Hardesty meerdere keren ondervraagt met een kunstmatige intelligentie die ze Analiza noemen.

Advertentie

Het vrijgegeven document is fascinerend door de duidelijke retro-toekomstige stijl. Maar het is ook griezelig vooruitziend, omdat de Amerikaanse overheid zich tegenwoordig bezighoudt met virtuele entiteiten die ondervragingen uitvoeren omtrent homeland security. Het is ergens ook wel hilarisch omdat de interviews lijken op gesprekken met hele irritante chatbots. Hier een voorbeeld:

KI: Je kan maar beter normaal doen Joe, of het zal nog heel lang duren voordat je dit land mag verlaten.

Hardesty: Wat bedoel je met dat gebluf?

KI: Je weet wel wat ik bedoel.

Hardesty: Nee, dat weet ik niet.

KI: Denk er dan maar over na.

Hardesty: Waarom?

KI: Waarom wil je dat weten

Hardesty: Je bedreigt me en ik wil een uitleg.

KI: Ik denk dat de boodschap duidelijk is.

Hardesty: Welke boodschap?

KI: Werk je voor de CIA?

Hardesty: Absoluut niet.

KI: Waarom ben je zo volhardend tegen mij aan liegen?

Hardesty: Ik lieg niet. Je hebt geen recht om mij zo te behandelen.

De kunstmatige intelligentie in dit voorbeeld is duidelijk onderontwikkeld. Het lijkt een combinatie van vragen te bevatten van voorgeprogrammeerde bedreigingen en open vragen om geheimen los te peuteren bij de ondervraagden.

Volgens het document bestond Analiza deels uit een vrij grof leeralgoritme die Hardesty's antwoorden opsloeg en deels uit een geheugen met voorgeprogrammeerde vragen.

"Andere aspecten van het programma proberen Joe's zwaktes te gebruiken," staat er in het document. "KI registreert 'focusvariabelen' zoals Joe's neiging om te concentreren op verschillende onderwerpen. Daarnaast registreert het ook 'profielvariabelen' die dienen als indicatoren voor zijn vijandigheid, nieuwsgierigheid, bereidheid om te praten en begrip. Het apparaat vraagt naar deze variabelen."

Advertentie

Wanneer je ondervrager een machine is, is er geen menselijkheid meer te vinden en is er dus niemand om tegen te pleiten.

Zelfs toen hadden de auteurs een opvallende visie voor toekomstige virtuele entiteiten die zelf kunnen leren, aanpassen en abstract kunnen denken. Volgens het document geloofde de CIA dat het mogelijk was dat computers "zich kunnen aanpassen", "doelen kunnen achtervolgen", "zichzelf en andere computers kunnen aanpassen" en "abstract kunnen denken".

In het artikel staat dat potentiële toepassingen voor computeralgoritmes zoals Analiza het trainen van recruten is voordat zij zelf het veld in gaan en er de kans bestaat dat zij door een menselijke tegenstander ondervraagd zullen worden.

De CIA zijn, net zoals het onderzoek naar kunstmatige intelligentie zelf, nu een stuk verder dan de jaren 80 – algoritmes die hersenprocessen proberen na te doen ( Advanced Neural Networks) zoals die door Google worden ontwikkeld, hebben veel oude doelen van de CIA destijds gehaald. De CIA zelf investeert via een omweg in KI, via In-Q-Tel is er geld gegaan naar Narrative Science. Dit bedrijf ontwikkelt KI die inzicht in data kan verzamelen en er een soort van leesbaar nieuwsbericht over kan schrijven.

"Verbeterde ondervragingstechnieken" kunnen een verontrustende nieuwe betekenis krijgen, zodra de CIA-droom uit de jaren 80 werkelijkheid wordt. Kunstmatige intelligentie die mensen ondervraagt is waarschijnlijk minder gewelddadig en verwerpelijk dan waterboarden bijvoorbeeld, maar zou wel met zijn eigen morele overtredingen kunnen komen.

Wanneer je ondervrager een machine is, is er geen menselijkheid meer te vinden en is er dus niemand om tegen te pleiten. Wanneer zelfs het kleine beetje menselijkheid wat er nu nog is, wordt weggedaan bij de door de staat mogelijk gemaakte barbaarsheid, wat blijft er dan nog over? Illegale opsluitingen zouden makkelijk kunnen doorgaan met slechts een klein beetje menselijke inbreng.

Hoewel er al tientallen jaren aan ontwikkeling zijn geweest sinds de CIA's gestoei met KI-ondervraginstechnieken, zijn er nog steeds geen programma's die een natuurlijk menselijk gesprek kunnen voeren.

De recente zaak van chatbot Eugene Goostman laat dit duidelijk zien. Deze KI-chatbot  kwam door de Turingtest door middel van slimme trucjes in plaats van oprechte intelligentie. Maar met overheidsinstellingen als de CIA, DARPA en machtige organisaties als Google die zich met dit onderwerp bezighouden, is de mogelijkheid wellicht dichterbij dan we denken.