FYI.

This story is over 5 years old.

Tech

AI is nu beter in het herkennen van leugens dan de meeste rechters

Het algoritme heeft een nauwkeurigheid van 90 procent – veel beter dan de meeste mensen.

Rechtszalen zijn niet echt exacte plekken. Er zijn natuurlijk allerlei regels over hoe een rechter tot een vonnis moet komen, maar op het einde van de dag is het geen exacte wetenschap. Het draait uiteindelijk veel om aannames en meningen. Maar er moet door rechters natuurlijk wel vanuit gegaan worden dat er geen gerede twijfel is. Bewijst is nooit voor 100 % zeker maar een rechter moet wel zo zeker mogelijk zijn dat een beklaagde ook echt schuldig is. Uiteindelijk komt dit wel neer op het oordeel van één persoon. Dat vind ik nogal beangstigend, maar ook uiterst fascinerend.

Advertentie

Daarom trok een studie die eerder deze week werd gepubliceerd mijn aandacht. In dit onderzoek werd machine learning gebruikt om mensen die liegen te herkennen in rechtszaakvideo's. In het kort werd kunstmatige intelligentie gebruikt om micro-expressies op het gezicht te herkennen en audio-analyse om patronen in het stemgeluid blood te leggen. Deze automatische leugendetector was voor 90 procent nauwkeurig, wat een stuk beter is dan de gemiddelde persoon. Dit werd getest aan de hand van 104 nagespeelde video's van rechtszaken waarbij de acteurs moesten liegen of de waarheid moesten spreken.

“Leugens zijn heel gewoon in ons dagelijks leven,” begint het onderzoek. “Sommige leugens zijn helemaal niet zo erg, maar andere kunnen gigantische gevolgen hebben en kunnen de samenleving schaden. Een voorbeeld daarvan zijn leugens in de rechtszaal waardoor iemand die eigenlijk schuldig is op vrij voeten komt. Daarom is het ontzettend belangrijk om in dit soort situaties leugens zo goed mogelijk te herkenn.”

Machine-learningmodellen worden getraind om voorspellingen te maken aan de hand van bepaalde kenmerken. Dat zijn eigenlijk metingen van een bepaalde eigenschap met een bepaalde hypothetische waarde. Bijvoorbeeld: als je een model zou willen maken of je auto aankomend jaar kapot gaat, dan kijk naar een heleboel auto's die kapot zijn gegaan of niet, en naar bepaalde eigenschappen, zoals het aantal gereden kilometers en het merk. Dat zijn die kenmerken.

In het onderzoek werd er gekeken naar micro-expressies, zoals bijvoorbeeld “getuite lippen“ en “fronsende wenkbrauwen”. Dit waren de belangrijkste eigenschappen van het model, maar het model luisterde ook naar geluidsopnames en las de uitgeschreven verslagen van de rechtszaak. Maar alleen waren de audio en tekst eigenlijk niet zo heel erg effectief. Micro-expressies waren meestal genoeg om te zien of iemand loog.

Natuurlijk is het belangrijk als we zo'n model willen maken dat we een soort elementaire waarheid hebben. Dat betekent dat er een aantal voorbeelden nodig zijn waarin het zeker is dat iemand loog. Dat is waar het onderzoek een klein beetje de mist in gaat. Het vertrouwt op data van wetenschappers van de universiteiten van Michigan en Noord-Texas. Die dataset bestaat uit video's van mensen die in verschillende situaties op commando liegen of eerlijk zijn. Het is wat ingewikkelder en slimmer opgezet dan we het nu laten klinken, maar het voelt toch wel als een beperking als er geen data uit “de echte wereld” wordt gebruikt.

Deze subjectiviteit in de rechtszaal is natuurlijk een bug en een feature tegelijk. Door deze subjectiviteit is het mogelijk dat er empathie is bij het bepalen van vonnissen, maar het zorgt er ook voor dat mensen onterecht schuldig worden bevonden. Dat is natuurlijk een griezelig idee, maar misschien wel net zo griezelig als AI die rechters beïnvloedt toe te laten in de rechtszaal.

Mensen kunnen leven met veel kleine leugentjes om bestwil en die zien we niet meteen als iets dat een verdachte verandert in een dader. Maar een computer kan dit onderscheid niet maken. Een leugen is een leugen, ook al weten wij mensen wel beter.