Advertentie
Tech by VICE

Deze AI kan met 91% zekerheid aan foto's zien of iemand homo is

"We hebben lang getwijfeld of we deze resultaten überhaupt publiek zouden maken."

door Louise Matsakis
11 september 2017, 10:37am

Image: Shutterstock

Artificiële intelligentie kan nu je geaardheid raden met behulp van foto's van je gezicht. En dat doet het bijzonder nauwkeurig, volgens nieuw onderzoek van Stanford University. In een peer-reviewede paper die in het Journal of Personality and Social Psychology zal verschijnen, tonen onderzoekers een nieuw machine-learningalgoritme dat van twee foto's (homo-hetero) kan raden wie van beide personen zichzelf als homo of hetero heeft aangemeld op een datingsite.

Er is veel kritiek op deze studie gekomen, en ondertussen is er ook een ethisch onderzoek gestart. Lees hier over de 5 overduidelijke problemen met het AI "gaydar"-onderzoek.

Het werk, uitgevoerd door Yilun Wang and Michal Kosinski, brengt serieuze ethische vraagstukken met zich mee. Hun systeem zou misbruikt kunnen worden om mensen uit de LGBT-gemeenschap verder te benadelen. Hun pessimistische kijk op privacy staat in sterk contrast met het werk van wetenschappers zoals Sarah Jamie Lewis, een cybersecurityonderzoeker die "queer privacy" bestudeert.

"Deze paper bevestigt vooroordelen en hokjes die de LGBT-gemeenschap net met zoveel moeite probeert tegen te gaan," zegt Lewis me via een Twitterbericht. "Maar zelfs als we de uitkomst van de paper aanvaarden, dat iemand er uiterlijk queer kan uitzien, zijn er nog steeds ernstige ethische problemen rond de toestemming van de deelnemers en het algemene doel van het onderzoek," verklaart ze. De foto's zijn namelijk van een publiek toegankelijke datingsite geplukt, zonder toestemming of medeweten van de 'deelnemers'.

Het deep neural netwerk van de onderzoekers kan op basis van twee foto's (homo-hetero) met 81% nauwkeurigheid het onderscheid tussen hetero- en homomannen maken. Bij vrouwen is dat 71%.

Wanneer de AI 5 foto's van elke geaardheid mag bekijken, stijgt de nauwkeurigheid bij mannen tot 91%, en bij vrouwen tot 83%. Het systeem is getraind op 35.326 foto's van gezichten die van een ongenoemde datingsite uit de VS afkomstig zijn. De wetenschappers hebben de geaardheid van hun proefpersonen vastgesteld door te kijken naar de ingegeven seksuele voorkeur op de site.

Volgens het onderzoek hebben zowel gay mannen als vrouwen een "gender-atypische gezichtsmorfologie, expressie en verzorgingsstijlen." Homomannen hebben vaak smallere kaken, langere neuzen, en hogere voorhoofden dan hetero's. Lesbiennes hebben net grotere kaken en kleinere voorhoofden dan heterovrouwen.

"De verschillen in vrouwelijkheid zijn subtiel. Ze zijn verspreid over veel gezichtskenmerken. Ze worden pas duidelijk wanneer gemiddelde foto's van veel gezichten worden onderzocht," schrijven de onderzoekers.

Toch was het onderzoek beperkt in wat het kon vaststellen over gender en seksualiteit. Er zijn geen mensen van een niet-Westers origine onder de deelnemers, en ook geen transgenders of biseksuelen. Transgenders worden zelfs nergens vermeld.

Toch heeft het onderzoek verontrustende gevolgen voor een sowieso al gemarginaliseerde groep. Het laat ook zien hoe artificiële intelligentie getraind kan worden om ethisch dubieuze taken te verrichten.

Het algoritme zou gemakkelijk door een autoritair regime dat anti-LGBTQ is gebruikt kunnen worden om zulke mensen op te sporen, of door ouders die achter de geaardheid van hun kinderen willen komen. De onderzoekers zeggen dat ze zich bewust zijn van de mogelijke gevolgen van hun werk.

"We waren erg verontrust door de resultaten, en hebben lang getwijfeld of we ze überhaupt publiek zouden maken. We wilden mensen niet blootstellen aan de risico's waarvoor we net waarschuwen," schrijven Kosinski en Wang in de bijlage van de paper.

Uiteindelijk besloten ze de resultaten wel te publiceren, om LGBTQ-activisten te waarschuwen voor de risico's die ze lopen. "We geloven dat mensen deze gevaren moeten kennen, zodat ze preventieve maatregelen kunnen nemen," schrijven de onderzoekers. "We hebben geen privacy-schendend instrument gecreëerd, maar eerder aangetoond dat simpele, populaire methodes serieuze gevaren voor onze privacy kunnen zijn."

Volgens Wang en Kosinski is privacy op het internet al lang verleden tijd. "We geloven dat een verdere afzwakking van onze privacy onvermijdelijk is. De veiligheid van homo's, of andere minderheden, is niet afhankelijk van het recht op privacy. Wel van de handhaving van mensenrechten, en de tolerantie van maatschappijen en overheden ten opzichte van die groepen. De post-privacywereld zal pas veiliger en gastvrijer zijn als ze door goed opgeleide mensen wordt bewoond, die radicaal intolerant zijn tegenover intolerantie.

"Er is veel nuttig, fascinerend onderzoek dat uitgevoerd kan worden in het voordeel van de queergemeenschap. Maar het moet ethisch gebeuren, met toestemming, en door mensen die zulke vraagstukken goed begrijpen," besluit Lewis.