AI kan niet menselijk worden als het geen lichaam heeft

AI kan niet menselijk worden als het geen lichaam heeft

Een probleem waar veel AI-onderzoekers tegenaan lopen is de belichaming van kunstmatige intelligentie.
16 maart 2017, 1:30pm

Vaak wordt het verstand, of 'de geest', getypeerd als een soort hogere laag bovenop onze primitieve, cognitieve hersenstructuren. We zien onszelf als wezens met een hoger bewustzijn, omdat we bijvoorbeeld onze gevoelens kunnen onderscheiden van het simpele gerommel in onze maag. Als we de werking van het brein kunnen opdelen in lagen, kunnen we misschien iets creëren wat lijkt op die bovenste laag. Zo zou je dus kunstmatige intelligentie (AI) kunnen vormen, zonder dat die grijze massa nodig is.

Als mede-oprichter van Swiftkey, een software die taal kan voorspellen en is gekocht door Microsoft, begrijp ik de aantrekkingskracht van dit idee maar al te goed. Ons doel is om de processen van de menselijk taal na te bootsen waardoor we taal beter begrijpen. We hebben behoorlijke vooruitgang gebruikt: ik was best trots op het nieuwe communicatiesysteem dat we hebben gebouwd voor de natuurkundige Stephen Hawking tussen 2012 en 2014. Maar ondanks deze goede resultaten, komen we nog lang niet in de buurt van een mensachtige AI. Waarom? Omdat cognitie niet te vangen is in een gelaagd model. Veel AI-onderzoekers hebben dan ook moeite met een essentieel stukje van de puzzel: de belichaming van AI.

Het ging al fout toen moderne AI werd ontwikkeld in de jaren 50. Computerwetenschappers probeerden bewustzijn na te bootsen door logische systemen te bouwen die gebaseerd waren op symbolen. Deze methode koppelde dingen uit de echte wereld aan digitale codes om zo virtuele modellen van de omgeving te creëren, die weer geprojecteerd konden worden in de wereld zelf. Een machine kon bijvoorbeeld instructies krijgen een kat te leren herkennen als dier met behulp van logica op basis van symbolen. Hiervoor was het nodig om zeer specifieke kennis te coderen zoals 'kat > is > dier'. Zulke formules kunnen complexer gemaakt worden zodat het systeem in staat is om de kat in andere situaties ook te herkennen - bijvoorbeeld wanneer je kat zo groot is als een paard of wanneer de kat op een muis jaagt.

De zeer specifieke symbolen faalden in situaties wanneer de definities niet helemaal helder waren of er meerdere interpretaties mogelijk waren.

Deze methode heeft vroeg succes geboekt in simpele omgevingen als 'SHRDLU'. Dit was een virtuele omgeving gemaakt door computerwetenschapper Terry Winograd aan MIT tussen 1968 en 1970. Gebruikers konden tegen de computer praten om de computer blokken te laten verplaatsen. Maar deze symboollogica bleek totaal niet effectief wanneer het aankwam op problemen in de echte wereld. De zeer specifieke symbolen faalden in situaties wanneer de definities niet helemaal helder waren of er meerdere interpretaties mogelijk waren.

Onderzoekers zijn later, met de toenemende kracht van computers, statistiek gaan gebruiken bij het zoeken naar patronen in grote hoeveelheden data. Deze methode wordt ook wel 'machine learning' genoemd. Machine learning maakt gebruik van een bottom-up benadering waarbij er gezocht wordt naar patronen in bijvoorbeeld afbeeldingen of spraakopnames. Zo'n systeem kan bijvoorbeeld afbeeldingen van katten herkennen door miljoenen foto's van katten te bekijken, of door een link te leggen tussen katten en muizen wanneer deze vaak samen genoemd worden in tekst.

Tot op zekere hoogte lijkt het 'gedrag' van deze zelflerende algoritmes op wat we weten van de onderbewuste processen in ons brein.

Machine learning heeft de afgelopen jaren voor veel praktische toepassingen gezorgd. We hebben systemen gebouwd die ons overtreffen in spraakherkenning, beeldverwerking en liplezen. Ook kunnen machines ons nu verslaan met schaken en leren systemen om beeldende kunst te maken, popmuziek te componeren en hun eigen software te schrijven. Tot op zekere hoogte lijkt het 'gedrag' van deze zelflerende algoritmes op wat we weten van de onderbewuste processen in ons brein. Deze algoritmes werken met simpele kenmerken (zoals losse letters of pixels) en combineren deze, terwijl ze rekening houden met de onzekerheid en ambiguïteit van data uit de echte wereld. Dit lijkt een beetje op de werking van onze visuele cortex, die signalen ontvangt via de ogen en ze interpreteert als herkenbare patronen en objecten.

Maar het duurt nog wel even voordat algoritmes net zo kunnen denken als wij. Het grootste verschil zit 'm in onze ontwikkelde biologie en hoe deze biologie informatie verwerkt. Mensen bestaan uit biljoenen eukaryote cellen. Deze cellen zijn 2,5 miljard jaar geleden ontstaan. Een menselijke cel is een complexe machine met net zoveel onderdelen als een modern vliegtuig - alleen ontstaan ze geleidelijk. In Basin and Range (1981) vertelt schrijver John McPhee dat als je met je armen gespreid staat en de geschiedenis van de aarde uitbeeldt, complexe organismen pas bij je vuist ontstaan. Bovendien is de "geschiedenis van de mens [zo kort dat het is] uit te wissen met een nagelvijl."

Volgens de traditionele kijk op evolutie is de complexiteit van onze cellen ontstaan door willekeurige mutaties in ons DNA en natuurlijke selectie. Maar in 2005 kwam James Shapiro, bioloog aan de Universiteit van Chicago, met een heel nieuw inzicht. Hij stelde dat eukaryote cellen zich 'slim' aanpassen aan een host-organisme, door hun DNA aan te passen op basis van signalen uit de omgeving. Recente resultaten bevestigen dit idee. Het immuunsysteem van zoogdieren is een goed voorbeeld: zij zijn in staat stukjes DNA te vermeerderen om antilichamen aan te maken en zo een ziekte te bestrijden. We weten nu ook dat minstens 43 procent van het menselijke genoom uit DNA bestaat dat zich kan verplaatsen door een proces van natuurlijke 'genetische manipulatie'.

Het is nogal een grote sprong om vanaf zelforganiserende cellen weer verder te gaan naar kunstmatige intelligentie. Maar het punt is dat lang voordat we bewuste, denkende wezens waren, onze cellen al data vanuit hun omgeving konden verwerken. Wat wij als intelligentie zien is niet simpel uit te drukken in symbolen. Wij kennen alleen de wereld zoals wij hem waarnemen. De natuur heeft "rationaliteit niet simpelweg bovenop de machine van de biologische regulatie geplaatst, maar is hier juist uit gevormd," schrijft Antonio Damasio, neurowetenschapper, in zijn boek over cognitie: Descartes' Error (1994). Met andere woorden: wij denken met ons hele lijf, niet alleen met het brein.

Volgens mij staat de flexibiliteit en kracht van de menselijke intelligentie aan de basis van de weerbaarheid van het menselijk lichaam in deze onzekere wereld. Maar er zijn nog maar weinig AI-wetenschappers die dit inzicht met mij delen. Tot nu toe zijn de meeste AI-algoritmes gebaseerd op het vinden van patronen in standaard trainingsets en daar zijn miljoenen foto's van katten voor nodig. Daarentegen dragen wij zelf uitgebreide modellen van het lichaam mee, dankzij onze behoeftes als organisme. Wij baseren onze ervaringen en verwachtingen op een relatief klein aantal waarnemingen. Wanneer een mens zich een kat voorstelt, kan hij zich meteen voorstellen hoe het eruit ziet als deze beweegt, hoe het klinkt als 'ie spint en hoe een kras van zijn scherpe nagels voelt. De mens heeft een ongekende opslag aan informatie over het idee 'kat' en andere gerelateerde concepten.

Het grootste gedeelte van het harde werk is al gedaan wanneer we tegenover een nieuw probleem staan. Ons lijf en brein hebben al manieren gevonden om verschillende uitdagingen aan te gaan, maar AI-algoritmes beginnen altijd vanaf het nulpunt. Er is nu een nieuw onderzoeksgebied, dat zich richt op dit soort inductieve overdracht, en die de kennis uit machine learning vertaalt naar nieuwe oplossingen. Maar zoals de zaken er nu voor staan, is het nog maar de vraag of het mogelijk is om maar een beetje in de buurt te komen van ons eigen brein.

Op dezelfde dag dat SwiftKey het nieuwe communicatiesysteem van Hawking onthulde in 2014, waarschuwde hij in een interview aan de BBC dat intelligente machines een einde zouden kunnen maken aan de mensheid. Je kunt al raden welk verhaal de krantenkoppen overheersten. Ik ben het eens met Hawking dat we de risico's van AI serieus moeten nemen, maar ik denk dat het nog heel lang duurt voordat we in de buurt komen van menselijke intelligentie. En als we niet heel goed nadenken over hoe we algoritmes kunnen laten interacteren met hun omgeving, heb ik weinig hoop dat we dat doel ooit zullen bereiken.

Dit artikel werd eerder gepubliceerd op Aeon en is later geplaatst onder Creative Commons.