Hoe leer je zelfrijdende auto's kiezen tussen morele en logische beslissingen?

Er is een groot verschil tussen een logische beslissing (het minste aantal doden) en een morele beslissing (liever een bejaarde doodrijden dan een kind).
25.8.16
Beeld: Iyad Rahman

Mensen hebben een kronkelige geschiedenis als het gaat om morele keuzes. En terwijl we onze eigen moraliteit elke dag in twijfel trekken, begint er met de opkomst van zelfrijdende auto's nog een moreel vraagstuk op te spelen. Zelfrijdende auto's wordt geleerd om te denken, om te reageren, maar wordt hen ook het verschil tussen een logische en een morele beslissing geleerd?

Ik heb altijd aan de gedachte vastgehouden dat autorijden vier belangrijke onderdelen kent: technische vaardigheid, variabele analyse, morele besluitvaardigheid en puur instinct. Zelfrijdende auto's kunnen makkelijk de eerste twee onderdelen dekken, en instinct is misschien ook wel beter uit te voeren door de naadloze communicatie tussen processors, in plaats van onze trage hersencellen. Dan resteert er alleen nog morele besluitvaardigheid. Laat mij een paar voorbeelden geven: eekhoorn of ongeluk; heel dicht langs wandelaars rijden (zonder hen te raken) op een kruispunt; een langzaam rijdende truck inhalen op een verlaten weg met slecht zicht; wat te doen als je achter een schoonmaakauto terechtkomt, enzovoort.

"Ik denk dat er vergelijkbare bezwaren waren toen de paarden werden vervangen door auto's."

Ford wil in 2021 al hun zelfrijdende auto's zonder stuurwiel uitbrengen, wat betekent dat alle keuzes alleen in het brein van het voertuig plaatsvinden. Voor mensen zal het niet meer mogelijk zijn om in te grijpen. Natuurlijk gaat dit toekomstbeeld eigenlijk om een wereld waarin iedere auto zelfrijdend is en de infrastructuur autonoom transport ondersteunt. Maar dit gebeurt niet van de ene op andere dag; eerst zal het verkeer een combinatie zijn. En dan blijft de vraag of de zelfrijdende auto niet onze dood wordt, wanneer hij een bepaalde situatie niet kent en de keuzeanalyse niet optimaal uitgevoerd kan worden.

Een recente studie onthult dat de meeste mensen liever hebben dat de zelfrijdende auto is geprogrammeerd om de meeste mensen te redden in het geval van een ongeluk, zelfs als daarbij de bestuurder zou verongelukken – behalve als ze zelf de bestuurder zouden zijn.

Tot het moment dat we succesvol zijn overgestapt naar een autonoom transportsysteem, zullen er altijd scenario's zijn die we in beschouwing moeten nemen. Als een menselijke bestuurder een zelfrijdende auto zou afsnijden, maar een zelfrijdende auto het officiële recht heeft om daar te rijden, wat zou die dan doen? Zou een zelfrijdende auto door oranje licht rijden, of zou deze gewoon stoppen, net als bij een rood licht? Stopt de auto met een korte remweg, waardoor het mogelijk een ongeluk zou kunnen veroorzaken omdat de menselijke rijder achter hem dacht dat hij door oranje zou rijden?

"Het zal niet makkelijk worden. Beslissingen – hoe een zelfrijdende auto kiest tussen X of Y," vertelt Dan Wellers, van het Digital Futures Global lead van SAP, aan Motherboard. "Ik zit al een tijdje in deze business en ik heb software altijd gezien als iets waarin zakelijke regels mee gecodeerd kunnen worden, maar op zich is het logisch om de sprong te maken naar software die ook zelf echt beslissingen kan maken. Er bestaan twee gedachtestromingen over het coderen van ethische data in systemen. De eerste houdt in dat het systeem eerst bekijkt wat er gebeurt, dan de data analyseert en vervolgens zijn keuzes daarop aanpast. Maar er is nog een andere manier. Die heeft te maken met kronkelige neurale netwerken, die gebruik maken van camera's, GPU's en kunstmatige intelligentienetwerken om gaandeweg te leren."

Men zou kunnen zeggen dat wanneer deze gevallen zich voordoen, ze worden gerapporteerd aan de producent en de auto's vervolgens voorzien zullen worden van een software update om in dezelfde situatie in de toekomst goed te kunnen handelen. Dat is in theorie prima, maar eigenlijk is elke verkeerssituatie uniek, zelfs als iets vergelijkbaars zich al wel voor heeft gedaan. In ieder geval heeft MIT een leuk spel gebouwd aan de hand van morele dilemma's.

De verschillende scenario's zal je niet alleen in politieseries en achtervolgingsscènes tegenkomen. Ooit zullen dergelijke dringende verkeerssituaties deel uitmaken van het echte leven en zullen er discussies oplaaien over hoe we daar veilig mee om kunnen gaan als we afhankelijk zijn van zelfrijdende auto's. Je kunt je zo een paar scenario's voorstellen die echt kunnen gebeuren.

Wat als er bijvoorbeeld een medisch noodgeval is? De zelfrijdende auto heeft geen stuurwiel. Je moet gelijk naar het ziekenhuis. Normaal zou je plankgas langs alle stopborden rijden. Kan een zelfrijdende auto een noodmodus inschakelen? Zou deze dan gewoon langs de weg gaan staan als de politie dat vraagt? Zou de auto zichzelf toestaan om de regels overtreden om de passagier te kunnen redden?

Hoewel die vragen nu nog niet beantwoord kunnen worden, gelooft Chris Heckman dat machinaal leren zelfrijdende auto's kan maken tot iets wat wij lichamen van vlees en bloed als moreel zouden beschouwen. Heckman is een professor robotica en besturingstheorie bij de Autonomous Robotics & Perception Group van de Universiteit van Colorado.

"Morele besluitvorming en instinct zijn beide deel van een leerproces vanuit ervaring, die de huidige situatie verbindt aan herinneringen. Negatieve ervaringen kunnen hier ook deel van uitmaken, en die zien we als een belangrijk aspect van de training die nodig is voor een robuust systeem," vertelt Heckman via een email. "Ik denk niet dat bedrijven die zelfrijdende auto's ontwikkelen al deze problemen tegelijk moeten aanpakken. Als een nieuwe situatie herkend kan worden voordat er beslissingen gemaakt worden, dan zou teleoperatie (besturing op afstand) een uitkomst kunnen bieden op problemen van morele besluitvorming. "

Moraliteit in zelfrijdende auto's, waar we momenteel nog geen raad mee weten, zal binnenkort een betwistbaar punt worden. De auto's hoeven heus niet allemaal een soort intelligentietest te doorstaan om ons van punt A naar punt B te kunnen brengen. Ze moeten vooral gewoon de regels kunnen navolgen die zijn geprogrammeerd. We moeten maar gewoon accepteren dat we onze auto's binnenkort allemaal niet meer zullen besturen.

"Ik denk dat de discussie over instinct en moraliteit gedeeltelijk wordt aangedreven door de intuïtieve reactie van mensen, als ze bedenken dat ze straks niet meer hun eigen auto zullen besturen," vertelt dr. Kevin McFall, assistent professor op de afdeling Mechatronics Engineering van de Kennesaw State Universiteit. "Ik denk dat er vergelijkbare bezwaren waren toen paarden werden vervangen door auto's. Toen was er opeens geen binding meer met een levend vervoermiddel. Maar als we nu terugkijken zou niemand meer twijfelen aan die ontwikkeling. Tot op de dag van vandaag rijden we nog steeds op paarden als bron van vermaak. Misschien zullen we ooit ook alleen in auto's rijden als bron van vermaak."