Tech

We zijn nog lang niet klaar voor kunstmatige superintelligentie

Het probleem in de wereld is niet het feit dat veel mensen bang zijn – het probleem is dat mensen bang zijn voor de verkeerde dingen. Bedenk maar eens: wat maakt je banger, het idee dat je dood kan gaan door een terroristische aanslag, of dat je verpletterd raakt onder een groot stuk meubilair?

Hoewel de media veel schrijft over de dreiging van het terrorisme, en zeer weinig over het gevaar van meubilair, is de kans groter dat er “gestorven onder een bank van de Ikea” op jouw grafsteen staat veel groter dan “omgekomen in een terroristische aanval.”

Videos by VICE

In feite wordt de gemiddelde mens eerder gedood door asteroïden dan blikseminslagen, en zijn deze blikseminslagen gevaarlijker dan terrorisme. Het punt dat ik probeer te maken is, zoals ik eerder ergens anders schreef, dat onze intuïtie vaak faalt in het inschatten van actuele risico’s.

Deze algemene inzichten vormen de basis van een Ted talk door neurowetenschapper Sam Harris over kunstmatige superintelligentie. De term is populair in de media sinds Oxford filosoof Nick Bostrom in 2014 een verrassende bestseller publiceerde met de naam – hoe kan het ook anders – Superintelligence.

Belangrijke figuren zals Bill Gates, Elon Musk, en Stephen Hawking uitten vervolgens hun zorgen over de mogelijkheid van een superintelligente machine die een soort kwaadwillende heerser van de mensheid kan worden, en ons misschien wel met uitsterven zal bedreigen.

Het is niet zomaar “gereedschap” dat iemand kan gebruiken om de mensheid te vernietigen. Superintelligentie is eerder een instrument met een eigen wil.

Harris is de nieuwste bekende intellectueel die met zijn armen in de lucht zwaait en schreeuwt: “Pas op! Een superintelligente machine met goddelijke krachten kan de mensheid vernietigen.” Maar is deze angst terecht? Is Harris zo gek als hij nu klinkt? Hoe fantasierijk de dreiging van superintelligentie ook lijkt, als je er even goed bij stilstaat kan je niet anders dan inzien dat het echt een van de meest geduchte uitdagingen is die onze soort ooit zal tegenkomen in haar evolutionaire leven.

Je moet jezelf afvragen: wat maakt nucleaire, biologische, chemische en nanotech wapens gevaarlijk? Het antwoord is dat een slecht of incompetent mens de wapens kan gebruiken om anderen aan te vallen. Maar superintelligentie is niet zo. Het is niet zomaar een “gereedschap” dat iemand kan gebruiken om de mensheid te vernietigen. Superintelligentie vervult zichzelf.

Een superintelligentie denkt niet zoals wij. Het heeft niet dezelfde doelen, motivaties, denkcategorieën, en zelfs “emoties.” Het vermenselijken van superintelligentie is hetzelfde als een sprinkhaan die zijn vrienden vertelt dat mensen het liefst op grassprieten gaan staan, omdat dat is wat sprinkhanen leuk vinden.

Dus een superintelligentie is geen gereedschap voor de mens, maar een entiteit met eigen doel. En wat is dit doel dan precies? Een deel valt te programmeren door onszelf. In theorie klinkt dat goed, maar het roept wel een aantal serieuze vragen op. Bijvoorbeeld, hoe precies kunnen we menselijke waarden programmeren in de superintelligentie? Onze voorkeuren vertalen naar computercodes is een grote technologische uitdaging. Zo merkt Bostrom op dat concepten zoals “blijdschap” moeten worden gedefinieerd “in de termen van AI’s programmeertaal, en uiteindelijk in primitieven, zoals de wiskundige operatoren en adressen die refereren naar de inhoud van afzonderlijke geheugenregisters.”

Sterker nog; onze waardesystemen blijken veel complexer te zijn dan we ons realiseren. Stel je voor dat we superintelligentie programmeren om het welzijn van levende wezens in te schatten, wat Harris zelf ziet als het hoogste morele goed. Als superintelligentie welzijn kan inschatten, waarom zou het de mensheid dan niet meteen vernietigen en ons vervangen met grote magazijnen vol mensenhersenen aangesloten aan een mega gelukkige Matrix-achtige wereld. Want de echte wereld is voor veel mensen immers een lijdensweg.

Toch is dit voor de meeste mensen een nachtmerriescenario. Om het nog moeilijker te maken: welk waardesysteem moeten we gebruiken? Moeten we beginnen met de waarden van een bepaalde religie, waarbij het doel van moreel gedrag het aanbidden van God is? Moeten we de waarden van hedendaagse ethici overnemen? Zo ja, welke ethici? Er zijn heel veel verschillende ethische systemen, theorieën en filosofen, maar er is nog geen overeenstemming bereikt.

Dus er is niet alleen een “technisch probleem” met het inbedden van waarden in een superintelligentie, maar er is ook nog het “filosofische probleem” welke waarden dit in hemelsnaam moeten zijn.

Dit gezegd hebbende, kan je jezelf misschien afvragen waarom het zo belangrijk is dat superintelligentie onze waarden deelt (wat dat ook moge zijn). Jan heeft tenslotte voorkeur voor chocolade, terwijl Melanie liever vanille heeft, maar Jan en Melanie kunnen het wel goed met elkaar vinden. Kan superintelligentie niet een ander waardesysteem hebben en in vrede leven met de mensheid?

Het antwoord hierop lijkt: Nee. Het gevaar van superintelligentie is sluiks: hardware die elk elektronisch apparaat zou kunnen besturen – zoals wapensystemen, geautomatiseerde laboratoriumapparatuur, de aandelenmarkt, deeltjesversnellers, en toekomstige apparaten zoals de nanofabriek, of tot nu toe onbekende technologie (die het misschien zelf uitvindt).

Elektrische signalen kunnen in een computer veel sneller informatie doorsturen dan het menselijk brein. Een superintelligentie zou dus een miljoen keer sneller kunnen denken dan wij – wat erop neerkomt dat elke minuut van objectieve tijd bijna twee jaar aan subjectieve tijd is voor de AI. Vanuit een AI’s perspectief zou de buitenwereld stilstaan, en krijgt het de tijd om nieuwe informatie te analyseren, verschillende strategieën te simuleren, en een back-up plan te bedenken in de tijd dat wij de woordjes ‘ja maar’ hebben gezegd. Een kunstmatige intelligentie kan ons manipuleren om het aan te sluiten op het internet waardoor het controle krijgt over alle informatie en data die onze beschaving bezit.

Het kan zijn krachten gebruiken om onze soort te vernietigen om dezelfde reden dat wij een mierenkolonie vernietigen.

Een superintelligentie kan de mensheid eenvoudig vernietigen, maar wat als het dat niet wil? Ook een neutrale kunstmatige intelligentie zonder kwade bedoelingen kan problematisch zijn. Als de doelen van superintelligentie niet helemaal hetzelfde zijn als de onze, veegt het onze soort van de kaart net zo als wij een mierenhoop wegscheppen als het in de weg staat van een nieuw gebouw. Zonder haat, zonder kwade bedoeling maar gewoon, omdat het even zo uitkomt. Dit is een van de belangrijkste punten die Harris probeert te maken.

Als we bijvoorbeeld een superintelligentie vragen om zoveel mogelijk zonne-energie op te slaan. Wat doet het dan? Het zal uiteraard de hele aarde volbouwen met zonnepanelen, en daarmee de biosfeer vernietigen (een “sfeer” waar wij onderdeel van zijn).

Of stel je voor dat we de superintelligentie programmeren om het aantal paperclips in het universum te maximaliseren. Een “paperclip maximaliseerder” is niet haatdragend, strijdlustig, seksistisch, racistisch, moorddadig, genocidaal, militaristisch, of misantropisch. Het enige waar het om zal geven is het produceren van zoveel mogelijk paperclips.

Dus wat gebeurt er? De superintelligentie kijkt rond en ziet dat mensen gemaakt zijn van dezelfde bouwstenen als paperclips: atomen. De machine ze alle atomen, inclusief alle atomen uit de 7,4 miljard mensenlichamen, om in paperclips. “Wees bezorgd!” zegt hij terecht.

Harris zegt dat superintelligentie niet alleen een grote uitdaging is voor de knapste koppen op Aarde van deze eeuw, maar dat we geen idee hebben hoelang het duurt om bovenstaande problemen op te lossen. Misschien kost het slechts twee jaar aan AI onderzoek, of zijn we de komende 378 jaar miljarden werkuren kwijt om deze kwestie op te lossen.

Dit is een probleem, want volgens een recente enquête van AI experts, is er een grote kans dat superintelligentie het levenslicht zal zien in 2075, en 10 procent van de respondenten beweerde dat het zelfs in 2022 al mogelijk is. Dus, superintelligentie kan er zijn voordat we genoeg tijd hebben gehad om het “controle probleem” op te lossen. Maar zelfs als het pas komt in de verre toekomst, is nu de juiste tijd om te beginnen met nadenken over deze problemen – of het woord verspreiden via populaire media.

één kans om alles goed te doen is de werkelijkheid wel vreemder dan sciencefiction