Porn performers with AI facial recognition boxes on their faces.
Image via Pornhub / Composition via Samantha Cole

El reconocimiento facial para saber si una mujer ha hecho porno es una pesadilla

Un usuario de Weibo afirma haber logrado 'identificar a más de 100 000 chicas en la industria del porno de todo el mundo'.

Un usuario de la red social china Weibo afirma haber usado un programa de reconocimiento facial para cruzar las fotos de mujeres en las redes sociales con caras sacadas de vídeos porno de plataformas como Pornhub.

Este usuario, que dice residir en Alemania, dijo el lunes en una publicación en Weibo que ha logrado “identificar a más de 100 000 chicas en la industria del porno ‘de todo el mundo’”.

Hay que señalar que esta persona no ha aportado ninguna prueba que respalde sus afirmaciones: ningún código, ni bases de datos o algo más que una página de GitLab vacía para corroborarlo. Cuando contactamos con él por el chat de Weibo, nos dijo que publicaría “el esquema de la base de datos” y “detalles técnicos” la próxima semana, y se abstuvo de hacer más comentarios.

Publicidad

Pese a todo, la publicación se ha viralizado en China, a través de Weibo, y en Estados Unidos mediante Twitter, gracias a una traducción de la misma aportada por una doctoranda de Ciencias Políticas de Stanford. Esto ha suscitado cierto debate entre activistas y académicos respecto a las posibles consecuencias del uso de esta tecnología.


MIRA:


Según anuncia el usuario de Weibo, él y sus amigos programadores usan software de reconocimiento facial para detectar rostros en vídeos porno a partir de fotos extraídas de redes sociales. El motivo para crear el programa, argumenta, “es el derecho de ambas partes del matrimonio a tener ese conocimiento”. Ante la indignación pública, luego puntualizó que su intención era permitir a las mujeres, tuvieran o no pareja, comprobar si aparecían en sitios porno y exigirles que retiraran el contenido.

“Esto es horrible y un ejemplo perfecto de cómo estos sistemas facilitan la dominación masculina en todo el mundo”, escribió en Twitter Soraya Chemaly, autora de Rage Becomes Her. “Las primeras víctimas de la vigilancia, la suplantación, la extorsión y la desinformación siempre son las mujeres. Luego pasa a la esfera pública, y solo cuando los hombres se ven afectados es cuando se presta atención al problema”.

La cuestión aquí no es si lo que afirma el usuario de Weibo es cierto o no, ahora que los expertos en estudios feministas y aprendizaje automático han denunciado este proyecto por considerarlo acoso a víctimas seleccionadas por un algoritmo. La existencia de programas de este tipo es tan posible como preocupante y ha sido objeto de debate sobre si su uso sería ético o legal.

Publicidad

Tal como pasó con los deepfakes, vídeos generados con una IA en los que se añadían los rostros de mujeres famosas a los cuerpos de actrices porno, el uso del aprendizaje automático para controlar y extorsionar a las mujeres es una profunda demostración de misoginia. Si bien la amenaza no empezó con los deepfakes, esta tecnología sí contribuyó a llevar este fenómeno a la esfera pública.

En teoría, lo que este usuario afirma haber hecho es posible con conocimiento sobre aprendizaje automático y programación, tiempo y capacidad computacional suficientes, si bien supondría un esfuerzo tremendo sin garantía alguna de calidad.

La capacidad de crear una base de datos de rostros y de usar tecnología de reconocimiento facial para identificar y exponer a mujeres ha estado al alcance de los consumidores desde hace algún tiempo.

En 2017, Pornhub anunció con orgullo una serie de nuevas funciones de reconocimiento facial con las que sus usuarios podrían buscar más fácilmente contenido de sus actrices favoritas; sin embargo, esto también facilitaría a los acosadores la localización de sus víctimas. Como ya dije en su día:

Incluso si Pornhub aplicara esta tecnología de una forma ética, su existencia debería ser motivo de preocupación. Es poco probable que este tipo de tecnología siga siendo privada durante mucho tiempo, y puesto que hay gente en internet que se dedica a identificar a modelos novatas o incautas, la tecnología subyacente podría facilitarles sus propósitos.

Publicidad

En 2018, los trolls que pueblan internet empezaron a compilar bases de datos de trabajadoras sexuales para amenazarlas y desenmascararlas. Esta campaña de acoso tiene consecuencias en la vida real, como se ha visto en algunos casos en los que a las víctimas les han cerrado las pasarelas de pago o sus perfiles en redes sociales.

El programador de Weibo afirma haber creado una combinación de estas dos ideas: un intento misógino y abusivo de controlar a las mujeres. Sea o no real, es representativo de los oscuros caminos por los que nos ha llevado la tecnología del aprendizaje automático y de la toxicidad social en torno a su uso.

Jordan Pearson ha contribuido a la elaboración de este artículo.

Este artículo apareció originalmente en VICE US.

Suscríbete a nuestra newsletter para recibir nuestro contenido más destacado.