FYI.

This story is over 5 years old.

Als mijn telefoon echt zo slim was zou hij wel tegen me liegen

Je computer en telefoon liegen al je hele leven tegen je.
11.6.15

Afbeelding: Kenny Louie/Flickr

"Wat je nu veel tegenkomt in de literatuur is de discussie over het element van magie, van theater in de interactie tussen mens en computer."

Dat toverelement, waar Adar al zijn hele leven onderzoek naar doet, is een leugen.

Het voortgangsbalkje dat je vertelt hoeveel batterij je nog hebt of hoeveel tijd je download nog gaat kosten – leugens. Het knopje in de lift waarmee je de deuren kan sluiten – leugen. Je verwijderde bestanden die in een pufje rook de prullenbak in schieten? Allemaal leugens.

Advertentie

Maar dat betekent niet dat dit slecht is: er zijn momenten dat je gewoon wilt dat je telefoon of computer tegen je liegt. De vraag wanneer die leugens gepast zijn, rijst en is nu van groot belang in de discussie over technologische ethiek. Adar heeft een term bedacht voor deze technologische leugens: bedrog om bestwil.

Het elimineren van bedrog is al niet meer mogelijk en misschien ook niet wat we moeten willen.

Adar heeft meegeschreven aan een artikel dat het eerste overzicht geeft van dit bedrog om bestwil in samenwerking met twee medewerkers van het Microsoft Research team (Adar is ook consultant voor techbedrijven als hij geen lesgeeft).

Het paper begint met: "Hoewel het is vastgesteld dat een goed ontwerp eerlijk is, bestaat bedrog sinds het begin van de menselijke interactie met computers, zowel in de wetenschap als in het dagelijkse gebruik."

Daarop volgt een uiteenzetting van de soorten bedrog in de context van mens-computer interactie, samen met voorbeelden van kwaadwillend bedrog (zoals hacken) of ethisch meer twijfelachtige vraagstukken, die misschien wel voordeel voor de gebruiker hebben.

Dit is een discussie die erg groot gaat worden in de zeer nabije toekomst, als artificiële intelligentie gaat samenwerken met data over ons die nu al openbaar is en ons bedrag kan beïnvloeden. Het is belangrijk om vast te stellen wat goed en slecht is in de wereld van technologisch bedrog; het elimineren ervan is sowieso al niet meer mogelijk en misschien ook wel niet wat we moeten willen.

Advertentie

De meeste voorbeelden van bedrog om bestwil zijn saai: simpele manieren om de brede consequenties van lastige en met elkaar samenwerkende regels code begrijpelijk te maken voor leken. In plaats van het verwijderen van je bestand in je command terminal, slepen we een icoontje naar een prullenbak. En zelfs je command terminal is al een simplificatie die kan worden gezien als bedrog.

"Modern bedrog is geëvolueerd rondom het versimpelen van overbodige complexiteit om ze de gebruikerservaring met systemen makkelijker te maken," vertelt Adar. "We begrijpen niet hoe veel van de onderliggende technologie werkt in de apparaten die we gebruiken, en dan is wel anders dan vroeger."

Ik suggereerde dat meer informaticalessen dat probleem op zouden kunnen lossen, en Adar was enthousiast – "Het zou geweldig zijn als dat gebeurt, ik ben een professor, en zou het geweldig vinden als mensen dit soort dingen gaan leren," zegt hij – maar het is niet realistisch om elk normaal mens te leren over dingen als zoek- en ordenalgoritmes of kunstmatige intelligentie. Niemand wil daar namelijk de moeite voor nemen.

Veel van Adar's onderzoek focust op voorbeelden van bedrog om bestwil die ethisch een helder standpunt hebben. Een van de voorbeelden is een armpje-druk-robot, ontworpen om mensen te helpen die een trauma aan hun armen hebben opgelopen. "Veel mensen hebben een geestelijke blokkade over hoe ver ze hun arm kunnen bewegen," zegt Adar. Dus als de patient verteld wordt dat hij gisteren zijn arm 10 graden heeft bewogen, liegt de robot misschien en vertelt hem in plaats daarvan dat hij vandaag pas 9 graden heeft gehaald terwijl hij eigenlijk al op 10 zit. De gebruiker zal dan denken dat hij gister wel de 10 heeft gehaald, en net een beetje harder gaan drukken, waardoor hij de 11 graden haalt – zonder het zelf door te hebben. Niet alle voorbeelden zijn echt zo zwart op wit. Er zullen weinig mensen zijn die problemen hebben met een robot die mensen helpt met rehabiliteren.

Advertentie

In een post voor Medium, beschrijft Casey Johnston een modernere claim (het paper van Adar komt uit 2013; het is op sommige plekken al verouderd) over de voordelen van bedrog om bestwil. Johnston is, zoals de meeste mensen, altijd te laat. De aanwijzingen voor het openbaar vervoer van Google Maps binnen New York zijn vaak verkeerd door de nog veel grotere en frustrerende fouten die inherent zijn aan het metrosysteem van New York. Google geeft een tijdsinschatting voor het reizen van de ene naar de andere kant, maar met een best-case scenario, dat bijna nooit voorkomt door de vele fouten in het treinstelsel. Johnston stelt een versie van Google Maps voor die tegen haar liegt, haar vertelt dat ze haar huis eerder moet verlaten dan eigenlijk nodig is, zodat ze rekening houdt met de vertragingen.

Dat is een heftige uitspraak, want hoewel het ethisch goed lijkt, moet je Google waarschijnlijk vertellen dat je deze optie wilt gebruiken, wat het weer moeilijk maakt om door Maps bedrogen te worden. "Zodra je het op deze manier moet doen, weet je al dat er tegen je wordt gelogen," zegt Adar. "Of je dit ongeloof wil uitschakelen is een ander verhaal. In sommige scenario's kan je je voorstellen dat je het accepteert terwijl je in andere situaties er gewoon van uit gaat dat het apparaat tegen je liegt." Een beetje als je wekker iets eerder zetten zodat je op snooze kan drukken en jezelf voorhoudt dat je langer slaapt.

Advertentie

Dat wordt enger zodra je weet hoe Google ons allemaal zou kunnen bedriegen, als ze dit zouden willen. Google kent je afspraken (dankjewel, Google Calendar), kent je locatie (dankjewel, Google Maps) en kan het allemaal onthouden en verbindingen leggen tussen de verschillende soorten data die ze binnen krijgen. Google kan makkelijk ontdekken dat je altijd te laat bent, en je vervolgens voorliegen om er voor te zorgen dat je stopt met te laat komen. Maar is dat wel goed? "Als het gebeurt zonder je goedkeuring, bijvoorbeeld als de ontwerper van het programma of het bedrijf een beslissing heeft gemaakt in de vorm van 'dit is het soort mens dat je hoort te zijn,' dan is het ethisch niet helemaal oké," zegt Adar. "Als je echter hebt besloten dat dat de persoon is die je wilt zijn, je wil op tijd zijn en de interface helpt je ermee, dan is het wel weer goed."

Dat wordt enger zodra je weet hoe Google ons allemaal zou kunnen bedriegen, als ze dit zouden willen.

Wat gebeurt er als de regering bedrog om bestwil invoert in auto's, die je vertellen dat je sneller rijdt zodat je af gaat remmen? Of een bank die je vertelt dat je minder geld hebt dan je denkt, zodat je gaat sparen? Het sparen van je geld en veiligheid op de weg zijn zeker goede doelen, maar vinden we het goed als instituties en technologie tegen ons liegen zodat we ze bereiken?

Zelfs in het geval van de armpje drukkende robot, kan je je afvragen wat er gebeurt als de patient erachter komt dat de robot tegen hem heeft gelogen zodat hij meer beweegt? Wat gebeurt er als we onze eigen tech niet meer kunnen vertrouwen? Dat is deels waarom Adar zegt dat transparantie en eerlijkheid in tech over het algemeen de beste optie is. Je kan er echter van uit gaan dat Apple en Google (en Facebook, en Amazon en Microsoft) nu met deze ideeën spelen. Ze denken vast en zeker na over ideeën om gebruikers erin te luizen met trucs die veel verder gaan dan het pufje van je prullenbak.

In de afgelopen jaren hebben wij, de technologie-gebruikers, een opmerkelijk talent getoond voor het negeren van de manieren waarop de techindustrie ons aan het naaien is – privacy, veiligheid en de vrijheid van informatie komen zo maar even in me op. Maar wat als we niet eens meer weten dat de technologie ons naait? En nog vreemder: wat als we het eigenlijk wel prettig vinden?

Meer over bijvoorbeeld autonome robots? Op vrijdag 25 september vindt Discovery Festival plaats, een wetenschaps-, kunst-, muziek- en technologiefestival, met als thema Autonomie. Kijk hier voor kaartjes en hier voor het programma.