Mocht je het hebben gemist, SpaceX-CEO Elon Musk is aan het daten met de elektronische muzikant Grimes. Dit is een match die ongeveer net zo onwaarschijnlijk is als Musks plannen om tegen 2024 mensen op Mars te krijgen.
Voordat het stel – voortaan bekend als ‘Grusk’ – maandag hun eerste openbare verschijning maakte op het MET Gala, twitterde Musk iets wat normaal de zoveelste flauwe grap op z’n tijdlijn zou zijn geweest. “Rococo’s Basilisk,” schreef hij. Dat is een woordgrapje over een internetgedachte-experiment over kunstmatige intelligentie dat ‘Roko’s Basilisk’ heet, dat hij samenvoegde met de kunststroming rococo.
Videos by VICE
Volgens Page Six, de website die het nieuws over Grusk als eerste naar buiten bracht, sloeg de vonk tussen Grimes en Musk over door deze non-grap. Blijkbaar tweette Musk een paar weken geleden over Rococo’s Basilisk, nadat hij ontdekte dat Grimes dezelfde grap drie jaar eerder had gemaakt en stuurde hij haar een berichtje.
Je kunt je alleen maar voorstellen hoe ongemakkelijk het moet zijn als Musk je DM binnenglijdt met een openingszin als “Hey, we maken dezelfde grapjes.” Maar het is wel tof dat een internetgedachte-experiment de harten van twee totaal verschillende mensen heeft veroverd: een muzikant met platina platen en een miljardair die vakbonden probeert te slopen.
Maar wat ís Roko’s Basilisk?
Het gedachte-experiment werd in juli 2010 op Less Wrong gepost door iemand met de naam Roko. Less Wrong is een forum en blog over rationaliteit, psychologie en kunstmatige intelligentie. Op het meest basale niveau gaat het gedachte-experiment over de omstandigheden waarin het voor een toekomstige kunstmatige superintelligentie logisch zou zijn om mensen te doden die niet hebben bijgedragen aan het ontstaan van deze AI.
Het gedachte-experiment is gebaseerd op een theorie die bedacht is door Less Wong-oprichter Eliezer Yudkowsky. Hij noemt zijn theorie ‘coherent extrapolated volition’. De theorie is vrij ingewikkeld, maar voor het gemak kan het bij Roko’s Basilisk worden beschouwd als een hypothetisch computerprogramma dat ervoor zorgt dat een kunstmatige superintelligentie zijn acties optimaliseert voor het welzijn van de mens. Maar als alle keuzes worden gemaakt op basis van datgene wat ‘het beste is voor de mens’, dan zal deze superintelligentie nooit stoppen met het nastreven van dat doel. Het kan namelijk altijd een beetje beter.
Omdat je niet van te voren kunt bepalen hoe een vaag doel als ‘het beste voor de mens’ kan worden bereikt, kan de AI uiteindelijk beslissingen nemen die vanuit een menselijk oogpunt misschien niet overeenkomen met dat doel. Bijvoorbeeld door alle mensen te doden die niet hebben bijgedragen aan het ontstaan van de AI. Vanuit het perspectief van de AI is dit echter wel logisch. Als het doel is om te doen wat het beste voor de mens is, dan kunnen alle mensen zich het beste bezighouden met het ontwikkelen van een machine die geoptimaliseerd is om dat doel (doen wat het beste voor de mens is) te bereiken. Iedereen die dat doel niet nastreeft, belemmert deze voortgang en moet worden gedood om zo dichter bij dat doel te komen.
De reden waarom Roko’s Basilsik zo vaak “het meest angstaanjagende gedachte-experiment aller tijden” wordt genoemd, is omdat je er nu over hebt gelezen en er technisch gezien mee te maken hebt. Je hebt vanaf nu dus geen excuus meer om niet te helpen om deze superintelligente AI te bouwen. Als je ervoor kiest om dat niet te doen, ben je een mogelijk doelwit voor een moordlustige AI.
Dit is ook de reden waarom het gedachte-experiment het woord ‘basilisk’ bevat. Er is een geweldig kort scifi-verhaal van David Langford over afbeeldingen die ‘basilisks’ worden genoemd. Die afbeeldingen bevatten patronen die dodelijk zijn voor iedereen die ernaar kijkt. In het verhaal plaatst een groep mensen deze afbeeldingen op allerlei openbare plaatsen in de hoop nietsvermoedende voorbijgangers te vermoorden, als ze er per ongeluk naar kijken.
Toen Roko zijn basilisktheorie op Less Wrong deelde, werd Yudkowsky blijkbaar zo pissig, dat hij de post verwijderde en vijf jaar lang elke discussie over de basilisk op het forum verbood. Een paar jaar na de originele post legde Yudkowsky zijn acties in de Futorologie-subreddit uit. Hij vond dat Roko in zijn gedachte-experiment aannam dat het een aantal technische obstakels in de beslissingsleer kon overwinnen, en zelfs al was dat mogelijk, dan verspreidde Roko alsnog een gevaarlijk idee – net zoals de schurken in het verhaal van Langford.
“Ik was overrompeld, omdat ik verontwaardigd was dat iemand dacht dat-ie iets briljants had verzonnen dat ervoor zou zorgen dat toekomstige AI mensen zou gaan martelen en dat ook nog op het openbare internet had gepost,” schreef Yudowsky om uit te leggen waarom hij zo uitviel tegen Roko.
Het is geen verrassing dat Musk Roko’s Basilisk aantrekkelijk vindt. Het lievelingetje van Silicon Valley heeft vrij duidelijk gemaakt wat volgens hem de gevaren van superintelligente AI zijn. Hij heeft ook Open AI opgericht, een non-profit die zich bezighoudt met ethische kunstmatige intelligentie en ook betaalde hij mee aan Do You Trust this Computer, een matige documentaire over de dreiging van kunstmatige intelligentie.
Voorlopig blijft alles wat met superintelligente AI te maken heeft nog een verre droom van wat onderzoekers. Tegenwoordig hebben de meeste AI’s nog steeds moeite met het verschil zien tussen een schildpad en een pistool. Dit betekent dat de grootste bedreigingen van machine learning nog steeds behoorlijk banaal zijn, zoals omvergereden worden door een zelfrijdende auto of gezichten van beroemdheden die in pornofilms geplakt worden. Toch komen er al wat serieuze machine-learning-dreigingen om de hoek kijken, zoals autonome wapensystemen. We moeten de gevaren van AI dus wel degelijk serieus nemen, zelfs als ze niet zo’n existentialistische dreiging zijn als Roko’s Basilisk.
En hee, zelfs als Roko gelijk blijkt te hebben, dan kun je tenminste nog blij zijn voor Musk. Het gedachte-experiment hielp de miljardair wel om liefde te vinden.