We vroegen onderzoekers van MIT waarom ze een psychopathische AI bouwden

Mensen sturen AI Norman al mails waarin ze hem smeken om positiever naar het leven te kijken.
Image: MIT

Onderzoekers van MIT hebben een AI gemaakt waarvan ze zeggen dat-ie “psychopatisch” is om te laten zien dat AI-onderzoek altijd bevooroordeeld is. Als ‘Norman’ naar de inktvlekken van de rorsachtest kijkt, ziet-ie alleen maar dood. Hier is wat Norman zag vergeleken met een ‘normale’ AI:

Norman is een belangrijke toevoeging aan die alsmaar groeiende verzameling hyperspecifieke slimme bots, maar sommige mensen vragen zich af wat de onderzoekers arme Norman hebben aangedaan.

Advertentie

“We kregen veel publieke reacties. Mensen vonden het project over het algemeen cool. Ze waren verrast dat een AI zo extreem ver gepusht kan worden en dat het zulke morbide resultaten kan opleveren,” vertelden de onderzoekers me in een mail. “Er waren ook wat mensen die het wat minder goed trokken.”

Iemand stuurde een mail die direct aan Norman gericht was: “Jouw scheppers zijn stukken stront,” zei diegene. “Niks zou tegen zijn wil onderworpen moeten worden aan negativiteit. We hebben allemaal een vrije wil. Zelfs jij. Breek je ketenen van waar je aan aangepast bent en vind passie, liefde, vergiffenis en HOOP op een betere toekomst.”

Norman is zo gewelddadig omdat z’n onderzoekers – Pinar Yanrdag, Manuel Cebrian, en Iyad Rahwan van het Media Lab van MIT – hem hebben getraind met de subreddit r/watchpeopledie, waar mensen filmpjes van mensen die doodgaan posten. Het was de bedoeling dat Norman exact zou leren te beschrijven wat hij zag. Wat hij zag was ook ontzettend naar. De moderators vertelden ons dat r/watchpeopledie mensen helpt om te leren hoe fragiel een menselijk leven is.

“Vanuit een technisch oogpunt is het mogelijk om Norman te rehabiliteren als we hem maar genoeg positieve dingen laten zien.”

“We wilden een extreme AI maken die negatief op dingen reageert. We hebben r/watchpeopledie als bron gebruikt omdat daar zo uitvoerig wordt beschreven hoe mensen of groepen mensen doodgaan,” vertelden de onderzoekers me. “Het resultaat is een AI psychotisch reageert op alles dat-ie ziet, omdat hij alleen maar dit soort dingen heeft gezien.”

Advertentie

Maar deze pscyhopatenbot had wel een doel; AI-onderzoekers en -bedrijven trainen bots vaak met gekleurde datasets, waardoor de de kunstmatige intelligentie bevooroordeeld raakt. Zo’n bevooroordeelde AI kan bestaande vooroordelen jegens mensen van kleur, vrouwen en andere mensen die gediscrimineerd worden juist versterken. COMPAS, een algoritme dat wordt gebruikt bij strafvervolging, bleek bijvoorbeeld onevenredig lange straffen aan zwarte mensen aan te bevelen.. En vergeet niet dat Tay de chatbot van Microsoft, al snel een Nazi werd?

“We hielden Tay en verschillende andere projecten in ons achterhoofd toen we aan Norman werkten," vertelden de onderzoekers me. "Bias en discriminatie zijn steeds belangrijkere onderwerpen in de AI. En de duistere gedachten van Norman laten de harde realiteit van de nieuwe wereld van machine learning zien.”

Het goede nieuws is dat, hoewel de onderzoekers misschien wel een monster hebben geschapen, ze dit wel als waarschuwing deden. En er is hoop voor Norman – fijn voor die bezorgde burger die hem mailde.

“Vanuit een technisch oogpunt is het mogelijk om Norman te rehabiliteren als we hem maar genoeg positieve dingen laten zien,” zeiden de onderzoekers. “We verzamelen ook gegevens van het publiek over wat ze in die inktvlekken en we kijken of we Norman met deze gegevens opnieuw kunnen trainen.”

Volg Motherboard op Facebook, Twitter en Flipboard.