Identidade

Uma assustadora IA consegue determinar se alguém é gay com 91 por cento de precisão

"Basicamente, acreditamos que a erosão total da privacidade é inevitável".
ImageM: Shutterstock

Este artigo foi originalmente publicado na nossa plataforma Motherboard.

De acordo com um estudo desenvolvido pela Stanford University, nos Estados Unido, uma nova máquina de Inteligência Artificial demonstrou a capacidade de adivinhar com uma precisão impressionante, a orientação sexual de uma pessoa, com base na análise de fotos da cara dos indivíduos. Numa tese prestes a ser publicada pelo Journal of Personality and Social Psychology, investigadores demonstram as capacidades de aprendizagem de um algoritmo, que, a partir da observação de várias imagens, consegue verificar se determinada pessoa se identificou como gay ou hetero em sites de dating.

Publicidade

O projecto, dirigido por Yilun Wang e Michal Kosinski, está a levantar preocupações éticas bastante sérias sobre a possibilidade de tal tecnologia poder ser utilizada para marginalizar membros da comunidade LGBTQ. Para já, a visão pessimista dos investigadores em relação à privacidade, está em desacordo com o trabalho apresentado por outros especialistas, como Sarah Jamie Lewis, investigadora na área da cibersegurança, que estuda questões de privacidade, especificamente para os casos de pessoas queer.


Vê também: "Ian Daniel debate a crise LGBTQ na Chechénia com o activista Lyosha Gorshkov"


"Tudo o que este estudo faz é reforçar estereótipos e categorias, que a comunidade queer tem lutado tanto para erradicar", considera Lewis, em conversa mantida com a Motherboard via Twitter. E, referindo-se à forma como as imagens utilizadas foram obtidas num site de dating e não com o consentimento ou conhecimento dos participantes, acrescenta: "Mesmo que aceitássemos a premissa do estudo, de que alguém pode aparentar visualmente ser queer, levantam-se questões éticas cruciais sobre o consentimento dos participantes e o objectivo geral da investigação".

A rede neural utilizada pelos investigadores distinguiu correctamente entre homens gay e hetero em 81 por cento das tentativas depois de analisar a imagem e entre mulheres gay e hetero, cerca de 71 por cento. Por outro lado, quando o algoritmo foi confrontado com cinco imagens de uma pessoa para analisar, conseguiu dizer que o homem era gay em 91 por cento das vezes e em 83 por cento no caso de uma mulher. A máquina foi treinada com uma amostra de 35.326 imagens recolhidas a partir de um site de dating norte-americano não especificado e utilizou as preferências das pessoas como prova das suas orientações sexuais. O algoritmo foi ainda testado de forma separada com dados do Facebook.

Publicidade

A investigação descobriu que tanto homens como mulheres gay têm tendência a ter morfologia facial atípica em relação ao género, expressões e estilos de apresentação". Homens gay, aparentemente, têm queixos mais finos, narizes mais alongados e testas mais largas que homens hetero. Mulheres gay, por sua vez, têm queixos mais largos e testas mais pequenas, quando comparadas com mulheres hetero. "As diferenças observadas neste estudo em relação à feminilidade foram subtis e aparentes apenas quando examinadas imagens de muitas caras consideradas gerais", escrevem os investigadores na tese.

O estudo é bastante limitado no que diz respeito ao que pode efectivamente determinar sobre género e sexualidade. Para já, não inclui qualquer pessoa de cor, nem tão pouco transgéneros ou bissexuais. Na verdade, a tese nem sequer menciona pessoas transgénero. Ainda assim, para um grupo já de si marginalizado, o estudo tem muitas implicações perturbadoras e demonstra como a Inteligência Artificial pode ser treinada para executar tarefas eticamente duvidosas.

Não é difícil imaginar que o algoritmo possa ser utilizado por um qualquer regime autoritário anti-LGBTQ para identificar e perseguir indivíduos, ou por pais que queiram perceber a identidade sexual dos seus filhos. Os responsáveis, no entanto, garantem que estão cientes das implicações do trabalho que desenvolveram. "Ficámos verdadeiramente perturbados com estes resultados e despendemos bastante tempo a considerar se devíamos ou não tornar os resultados públicos. Não queríamos promover os próprios riscos para os quais estávamos a alertar", escrevem Kosinski e Wang, numa nota de autor que acompanha a tese.

Publicidade

Todavia, os investigadores referem que, em última análise, decidiram publicar o trabalho de forma a alertar activistas LGBTQ para os riscos que enfrentam: "Acreditamos que as pessoas merecem saber quais são os perigos e que possam, assim, ter a oportunidade de aplicar medidas preventivas. Não criámos uma ferramenta de invasão de privacidade, quisemos, sim, mostrar que existem método básicos e amplamente disseminados que se colocam como ameaças sérias à privacidade".


Vê também: "Futebol e homofobia"


Wang and Kosinski defendem que a privacidade na Internet é algo já inexistente. "Basicamente, acreditamos que a erosão total da privacidade é inevitável e a segurança da comunidade gay e de outras minorias recai não no direito a essa privacidade, mas no reforço dos direitos humanos e na tolerância por parte das sociedades e dos governos", salientam na mesma nota. E concluem: "Para que o Mundo pós-privacidade seja mais seguro e hospitaleiro, tem que ser habitado por pessoas bem educadas, que sejam radicalmente intolerantes para com a intolerância".

Já Lewis, salienta: "Há certamente muita investigação útil e fascinante que deve ser feita neste contexto e que possa beneficiar a comunidade queer, no entanto, é preciso que as coisas sejam feitas de forma ética e consensual e por pessoas que entendam perfeitamente as questões que têm em mãos". Segue a VICE Portugal no Facebook, no Twitter e no Instagram.