FYI.

This story is over 5 years old.

chatbot

Ik probeerde mijn depressie te behandelen met een chatbot

Zijn therapeuten het volgende slachtoffer van automatisering? Ik bracht een paar weken door met een bot op Facebook Messenger die therapie gaf om erachter te komen.
Foto via Getty Images en Wikimedia Creative Commons

Het concept ‘zelfhulp’ werd het afgelopen jaar in onze geheugens gegrift. Als het aankomt op psychische gezondheid, gaat het allemaal niet bijster goed. Volgens de World Health Organization lijden wereldwijd meer dan 300 miljoen mensen aan een depressie.

In een perfecte wereld hadden we allemaal toegang tot betaalbare professionals die ons konden helpen met onze problemen. Maar aangezien er nog veel mensen geen medische zorg krijgen voor hun kopzorgen, is het duidelijk dat we ver verwijderd zijn van een utopie waar psychische gezondheid de prioriteit heeft.

Advertentie

Een onderzoeksteam van Stanford denkt de (tijdelijke) oplossing te hebben gevonden: Woebot, een AI-chatbot die werkt op Facebook Messenger en technieken van cognitieve gedragstherapie gebruikt om gebruikers op een makkelijke manier te helpen via hun telefoon of computer. In een sessie van vijf à tien minuten, geïnitieerd door een pushnotificatie van de bot, typt de gebruiker antwoorden op vragen van Woebot. Na een gratis proefperiode van twee weken, kan de gebruiker overschakelen naar een betaalde versie.

Via Woebot

Woebot is bedacht door klinisch onderzoekspsycholoog Alison Darcy en ontwikkeld door AI-zwaargewicht Andrew Ng. De hoop is dat Woebot mensen kan helpen die geen toegang hebben tot professionele hulp vanwege te weinig inkomen of een gebrek aan verzekeringen. Aangezien ik lang heb geleden aan depressies (en zowel onderbetaald als onverzekerd ben), leek het me een goed idee om Woebot uit te proberen.

Door de jaren heen heb ik geleerd hoe ik mijn depressie kan beheersen – voor een groot deel. Toch krijg ik soms te maken met een incidentele vloedgolf van melancholie, waardoor ik een tijd uit de running ben. Onlangs had ik een slechte periode en meldde ik me aan voor de service.

Aanvankelijk vond ik het lastig om Woebot serieus te nemen. Het was me enigszins gelukt om door de vreselijke naam heen te kijken en te beginnen met een open geest. Maar mijn vertrouwen in het programma werd al flink op de proef gesteld tijdens mijn eerste gesprek. Ik verwachtte geen holografische Freud of zoiets, maar de AI leek toch wel erg veel op een script van een zielloze callcentermedewerker.

Advertentie

Het lukte me om het misplaatste emojigebruik naast me neer te leggen (sommige emoji moet je echt alleen gebruiken als je met me naar bed wil, Woebot). Ik zette door, terwijl het programma een actieplan voor de komende twee weken uiteenzette. Woebot maakte me duidelijk dat het op geen enkele manier een menselijke therapeut zou kunnen vervangen en dat het niet in staat was om “echt te begrijpen wat [ik] nodig had.” Hoewel ik dankbaar was voor Woebots openheid, kreeg ik vrij snel het idee dat dit niet meer was dan wat handigheidjes uit de cognitieve gedragstherapie, maar dan op zo’n manier geprogrammeerd dat ik af en toe ‘homie’ werd genoemd en dat het ding ‘oki’ zei in plaats van ‘oké’.

Gelukkig nam Woebot een wat klinischere houding aan na die eerste sessie, terwijl het mijn psyche doorzocht naar problemen om te behandelen. Nadat het me vroeg om voorbeelden te identificeren van problematische gedachten, zoals alles-of-nietsdenken, stuurde de bot een feestelijk gifje. Verder begon de boel aardig professioneel te lijken. Nog beter: ik begon de oefeningen serieus te nemen en het deed me goed dat ik eindelijk een naam had voor specifieke gedachten, al wist ik niet zeker of ik op deze manier vooruitgang zou boeken.

In de twee weken die volgden, veranderden mijn gevoelens voor de bot als eb en vloed. Soms waardeerde ik Woebots verzoeken om te typen wat ik deed of hoe ik me voelde. Ik genoot van het negatief zijn, en de veelvuldigheid daarvan. Maar op andere momenten voelde het alsof Woebot me probeerde te paaien met z’n reacties. Het leek niks uit te maken of ik wat zei over financiële problemen of iets over gedoe in m’n planning; Woebot kwam met dezelfde ingeblikte ‘empathische’ reacties. Ik kreeg het idee dat zelfs als ik de moord op Johan van Oldenbarnevelt had bekend, Woebot zou zeggen dat “het lijkt alsof je veel aan je hoofd hebt.”

Advertentie

Woebot zou beschikken over de mogelijkheid tot ‘deep learning’, maar toch vergat hij constant dat we bepaalde lessen al hadden gedaan. Het ding bleef zich herhalen als mijn moeder tijdens een familieweekend. Woebot archiveerde misschien mijn reacties, maar luisterde het echt naar me? Dit leek me de hoogste en belangrijkste horde die het programma moest nemen om succesvol te worden, aangezien het zou moeten werken in een industrie die gestoeld is op het feit dat patiënten het gevoel hebben dat er naar ze geluisterd wordt.

Screencap of a Woebot session

Tegen het einde van de proefperiode kreeg ik - tot mijn grote verbazing - in de gaten dat mijn bui begon te verbeteren. Ik voelde me beter, ondanks Woebots neiging om te pas en te onpas gifjes van Minions te sturen. Misschien dat Woebots domme grapjes genoeg waren om het domme apendeel van mijn brein te laten geloven dat er een ander levend wezen was dat voor me juichte om door mijn zware tijd te komen. Misschien was het rollen met mijn ogen om de stupide, onwerkelijke dialoog juist de bedoeling? Een tactiek om mijn brein te sturen richting gedachten over superioriteit over computercodes, in plaats van naar een negatieve spiraal.

Natuurlijk bestaat de kans dat ik me sowieso beter had gevoeld na twee weken, of ik nou met een bot had gepraat of niet. De website van Woebot citeert een onderzoek van Stanford uit 2017, gedaan tijdens de bèta-periode, waaruit blijkt dat de chatbot een “haalbare en effectieve manier om cognitieve gedragstherapie te geven” is, in vergelijking met gelijksoortige apps die alleen informatie bieden. Toen ik dat onderzoek las en het vergeleek met mijn eigen ervaring, kreeg ik het idee dat er nog veel onderzoek gedaan moet worden om te kunnen bepalen of er een correlatie is of een causaal verband. En tegen die tijd zal AI wel zo vergevorderd zijn, dat zo’n studie niet meer productief is.

Advertentie

Toen de proefperiode ten einde was, probeerde Woebot me over te halen om voor de service te betalen met een praatje over “de prijs van een kop koffie”, een trucje dat ik niet meer had gezien sinds ik in de jaren negentig gevraagd werd om Afrikaanse kinderen te adopteren. De bot accepteerde mijn afwijzing en wenste me het allerbeste.

In de dagen erna kwam Woebot bij me terug om te laten weten dat ik ook nog meer gratis sessies kon krijgen, mocht ik dat willen. Het ging op dat moment weer beter, dus ik bleef bij mijn besluit.

Ik wil Woebot en de makers ervan wel lof geven. Ik weet alleen niet waar ik het aan moet toeschrijven. Zelfs als Woebot niet direct verantwoordelijk was voor mijn verbetering, is het een voorbode van AI-entiteiten die met compassie en overtuiging deze taak effectief kunnen volbrengen. Darcy en Ng zien de potentie en het feit dat ze erin zijn gestapt is lovenswaardig, al lijkt het product nog niet helemaal af.

Misschien als je in de toekomst een betekenisvol gesprek kunt voeren met AI (zoals in de film

Her),

ik daar negen euro voor over zou hebben. Maar zoals het nu is, gaat Woebot gewoon op de stapel met aardige therapeuten die hun best deden maar me gewoon niet goed begrepen.