Identidade

Uma assustadora IA consegue determinar se alguém é gay com 91 por cento de precisão

Este artigo foi originalmente publicado na nossa plataforma Motherboard.

De acordo com um estudo desenvolvido pela Stanford University, nos Estados Unido, uma nova máquina de Inteligência Artificial demonstrou a capacidade de adivinhar com uma precisão impressionante, a orientação sexual de uma pessoa, com base na análise de fotos da cara dos indivíduos. Numa tese prestes a ser publicada pelo Journal of Personality and Social Psychology, investigadores demonstram as capacidades de aprendizagem de um algoritmo, que, a partir da observação de várias imagens, consegue verificar se determinada pessoa se identificou como gay ou hetero em sites de dating.

Videos by VICE

O projecto, dirigido por Yilun Wang e Michal Kosinski, está a levantar preocupações éticas bastante sérias sobre a possibilidade de tal tecnologia poder ser utilizada para marginalizar membros da comunidade LGBTQ. Para já, a visão pessimista dos investigadores em relação à privacidade, está em desacordo com o trabalho apresentado por outros especialistas, como Sarah Jamie Lewis, investigadora na área da cibersegurança, que estuda questões de privacidade, especificamente para os casos de pessoas queer.


Vê também: “Ian Daniel debate a crise LGBTQ na Chechénia com o activista Lyosha Gorshkov


“Tudo o que este estudo faz é reforçar estereótipos e categorias, que a comunidade queer tem lutado tanto para erradicar”, considera Lewis, em conversa mantida com a Motherboard via Twitter. E, referindo-se à forma como as imagens utilizadas foram obtidas num site de dating e não com o consentimento ou conhecimento dos participantes, acrescenta: “Mesmo que aceitássemos a premissa do estudo, de que alguém pode aparentar visualmente ser queer, levantam-se questões éticas cruciais sobre o consentimento dos participantes e o objectivo geral da investigação”.

A rede neural utilizada pelos investigadores distinguiu correctamente entre homens gay e hetero em 81 por cento das tentativas depois de analisar a imagem e entre mulheres gay e hetero, cerca de 71 por cento. Por outro lado, quando o algoritmo foi confrontado com cinco imagens de uma pessoa para analisar, conseguiu dizer que o homem era gay em 91 por cento das vezes e em 83 por cento no caso de uma mulher. A máquina foi treinada com uma amostra de 35.326 imagens recolhidas a partir de um site de dating norte-americano não especificado e utilizou as preferências das pessoas como prova das suas orientações sexuais. O algoritmo foi ainda testado de forma separada com dados do Facebook.

A investigação descobriu que tanto homens como mulheres gay têm tendência a ter morfologia facial atípica em relação ao género, expressões e estilos de apresentação”. Homens gay, aparentemente, têm queixos mais finos, narizes mais alongados e testas mais largas que homens hetero. Mulheres gay, por sua vez, têm queixos mais largos e testas mais pequenas, quando comparadas com mulheres hetero. “As diferenças observadas neste estudo em relação à feminilidade foram subtis e aparentes apenas quando examinadas imagens de muitas caras consideradas gerais”, escrevem os investigadores na tese.

O estudo é bastante limitado no que diz respeito ao que pode efectivamente determinar sobre género e sexualidade. Para já, não inclui qualquer pessoa de cor, nem tão pouco transgéneros ou bissexuais. Na verdade, a tese nem sequer menciona pessoas transgénero. Ainda assim, para um grupo já de si marginalizado, o estudo tem muitas implicações perturbadoras e demonstra como a Inteligência Artificial pode ser treinada para executar tarefas eticamente duvidosas.

Não é difícil imaginar que o algoritmo possa ser utilizado por um qualquer regime autoritário anti-LGBTQ para identificar e perseguir indivíduos, ou por pais que queiram perceber a identidade sexual dos seus filhos. Os responsáveis, no entanto, garantem que estão cientes das implicações do trabalho que desenvolveram. “Ficámos verdadeiramente perturbados com estes resultados e despendemos bastante tempo a considerar se devíamos ou não tornar os resultados públicos. Não queríamos promover os próprios riscos para os quais estávamos a alertar”, escrevem Kosinski e Wang, numa nota de autor que acompanha a tese.

Todavia, os investigadores referem que, em última análise, decidiram publicar o trabalho de forma a alertar activistas LGBTQ para os riscos que enfrentam: “Acreditamos que as pessoas merecem saber quais são os perigos e que possam, assim, ter a oportunidade de aplicar medidas preventivas. Não criámos uma ferramenta de invasão de privacidade, quisemos, sim, mostrar que existem método básicos e amplamente disseminados que se colocam como ameaças sérias à privacidade”.


Vê também: “Futebol e homofobia


Wang and Kosinski defendem que a privacidade na Internet é algo já inexistente. “Basicamente, acreditamos que a erosão total da privacidade é inevitável e a segurança da comunidade gay e de outras minorias recai não no direito a essa privacidade, mas no reforço dos direitos humanos e na tolerância por parte das sociedades e dos governos”, salientam na mesma nota. E concluem: “Para que o Mundo pós-privacidade seja mais seguro e hospitaleiro, tem que ser habitado por pessoas bem educadas, que sejam radicalmente intolerantes para com a intolerância”.

Já Lewis, salienta: “Há certamente muita investigação útil e fascinante que deve ser feita neste contexto e que possa beneficiar a comunidade queer, no entanto, é preciso que as coisas sejam feitas de forma ética e consensual e por pessoas que entendam perfeitamente as questões que têm em mãos”. Segue a VICE Portugal no Facebook, no Twitter e no Instagram.