Vergeet superslimme AI. Domme AI heeft een veel grotere kans om rampspoed over ons uit te storten

Kunstmatige intelligentie is te beperkt en dat is juist het gevaar.
8.2.17

Het was een tenenkrommende tijd om een AI-onderzoeker te zijn, de afgelopen paar jaar. Stel je eens voor dat beroemde techneuten en wetenschapsautoriteiten plotseling jouw onderzoeksveld uitkiezen als grootste bedreiging voor het voortbestaan van de mensheid. Het enige waar jij mee bezig bent is voorspellen welke emoji gepast is om te gebruiken op basis van tekstanalyse, en dan komt Elon Musk ineens beweren dat jouw onderwerp, waar hij weinig vanaf weet, de apocalypse is.

Advertentie

Het klopt dat computerwetenschappers hebben geprotesteerd tegen de de AI-hype. Maar een academicus waar je nog nooit van gehoord hebt – en dat zijn ze vrijwel allemaal – die aankomt met de nieuwskop "AI is ingewikkeld" heeft een achterstand op een bekende persoon die graag dramatische claims maakt voor een groot publiek. Deze maand is die academicus Alan Bundy. Bundy is professor automated reasoning aan de Universiteit van Edinburgh en hij beargumenteert in Communications of the ACM dat AI voor een reële dreiging zorgt, maar die dreiging is niet bovenmenselijke intelligentie die tegen ons wordt gebruikt. Eerder het tegenovergestelde: het gevaar is slechte AI. Incompetente, klunzige machines.

Bundy wijst erop dat al onze grote AI-successen van de afgelopen jaren van beperkte omvang waren. We hebben machines geleerd om Jeopardy en Go te spelen – wat in beide gevallen enorm veel moeite kostte – maar dat lijkt in niets op algemene intelligentie.

"De singulariteit is voorspeld op basis van een lineair intelligentiemodel, zoals IQ, waarbinnen elke diersoort een plek heeft en waarbinnen AI langzaamaan terrein wint," schrijft Bundy. "Dit is niet hoe intelligentie werkt. Zoals Aaron Sloman al succesvol beargumenteerde, moet intelligentie gemodelleerd worden in een multidimensionale ruimte, met veel verschillende soorten intelligentie en met AI die beter wordt op al die verschillende gebieden."

"Veel mensen kennen te veel intelligentie toe aan te smal gefocuste AI-systemen."

Het probleem is dat het publiek dit niet echt begrijpt, omdat niemand de moeite doet om het uit te leggen. Wij hebben algemene intelligentie en daarom zien we een beeld van intelligentie op tv en nemen aan dat het hier ook gaat om algemene intelligentie. Maar een Go-spelende computer is min of meer veroordeeld om altijd een Go-spelende computer te blijven. In Bundy's woorden: "Veel mensen kennen te veel intelligentie toe aan te smal gefocuste AI-systemen."

Dus ja: machine-incompetentie. Bundy heeft ongebruikelijk veel aanzien als het over dit soort dingen gaat. Hij was namelijk een van de Engelse computerwetenschappers die in de vroege jaren tachtig tegen Stategic Defense Initiative was. Dit initiatief werd eerst voorgesteld als een gesloten AI-systeem dat in theorie Russische langeafstandsraketten vanuit de ruimte kon detecteren en ze aan stukken kon schieten met lasers voordat ze in de atmosfeer waren en de wereld konden vernietigen.

Advertentie

SDI leek beleidsmakers een geweldig plan, maar wat ze niet begrepen wat dat de AI er gewoon niet klaar voor was. Vals-positieve uitslagen in vroege waarschuwingssystemen waren gebruikelijk en werden veroorzaakt door, onder andere, vogels en de opkomst van de maan. Een vals-positieve uitslag zou een kernoorlog kunnen betekenen.

"Gelukkig waren er in deze systemen nog mensen betrokken om de ongerechtvaardigde vergelding voor een zogenaamde aanval af te breken," schrijft Bundy. "Een groep van ons uit Edinburgh ontmoette wetenschappers van het Britse ministerie van Defensie die zich bezighielden met SDI. Zij gaven toe onze analyse te delen. SDI werd vervolgens stilletjes gedropt en getransformeerd in een haalbaarder programma. Dit is een uitstekend voorbeeld van mensen die geen computerwetenschappers zijn die de mogelijkheden van domme machines overschatten."

Onderzoekers zouden "deze lessen moeten publiceren om ervoor te zorgen dat ze breed worden begrepen," voegt Bundy toe.

Hij zegt dat AI zich zal blijven ontwikkelen in verzuilde vorm. Nieuwe en indrukwekkende machines zullen de doemsprekers steeds opnieuw bangmaken met hun eigenschappen op relatief beperkte gebieden. Tegelijkertijd zullen ze "ontzettend dom" blijven in alle andere dingen behalve de dingen waar ze gespecialiseerd in zijn.

Het risico blijft hetzelfde als in de jaren tachtig. Het publiek en beleidsmakers zien machines die geweldige dingen doen op hele beperkte vlakken, maar ze zien nooit hoe ze falen op de algemene taken die menselijke cognitie benaderen.