El reconocimiento facial DIY para el porno es un desastre distópico

Alguien afirma haber creado un programa para detectar rostros en el porno y hacer referencias cruzadas con las redes sociales, con 100,000 mujeres identificadas hasta ahora.

por Samantha Cole; traducido por Álvaro García
31 Mayo 2019, 10:00pm

Imagen vía Pornhub / Composición vía Samantha Cole

Artículo publicado originalmente por VICE Estados Unidos.

Una persona que publica en la red social china Weibo afirma haber usado el reconocimiento facial para hacer referencias cruzadas de fotos de mujeres en redes sociales con rostros extraídos de plataformas para adultos como Pornhub.

En un mensaje publicado el lunes en Weibo, el usuario, quien asegura vivir en Alemania, afirmó haber "identificado exitosamente a más de 100,000 mujeres jóvenes" en la industria de adultos "a escala global".

Para ser claros, el usuario no ha publicado pruebas de que realmente haya podido lograrlo. Tampoco ha publicado ningún código, bases de datos u otra cosa que no sea una página vacía de GitLab para verificar que es real. Cuando Motherboard se puso en contacto con el usuario a través del chat de Weibo, dijo que publicarán "un esquema de base de datos" y "detalles técnicos" la próxima semana. No hizo más comentarios.

Aún así, su publicación se ha vuelto viral tanto en China —en Weibo— como en Estados Unidos —en Twitter— después de que un candidato a doctor en ciencias políticas de Stanford la publicara en Twitter con una traducción, la cual fue verificada por Motherboard de forma independiente. Esto ha llevado a activistas y académicos destacados a discutir las posibles implicaciones de la tecnología.

De acuerdo con las publicaciones de Weibo, el usuario y algunos de sus amigos programadores utilizaron el reconocimiento facial para detectar rostros en contenidos pornográficos utilizando fotos de plataformas sociales. Su razonamiento para hacer este programa, escribió, es "tener el derecho de saber en ambos lados del matrimonio". Ante las fuertes críticas, el usuario después afirmó que su intención era permitir que las mujeres, con o sin sus prometidos, verifiquen si están en sitios porno para enviar una solicitud de eliminación por derechos de autor.

"Es un ejemplo horrendo y perfecto de cómo estos sistemas, a nivel mundial, permiten el dominio masculino", comentó Soraya Chemaly, autora de Rage Becomes Her, sobre el supuesto proyecto. "La vigilancia, la suplantación, la extorsión, la desinformación suceden primero a las mujeres y luego en la esfera pública, donde, una vez que los hombres se ven afectados, comienzan a recibir atención".

Ahora que los expertos en estudios feministas y aprendizaje automático han calificado este proyecto como acoso dirigido de forma algorítmica, el que las afirmaciones del usuario de Weibo sean confiables o no es irrelevante. La existencia de este tipo de programas es a la vez posible y aterradora, y ha iniciado una conversación sobre si dicho programa sería un uso ético o legalmente responsable de la inteligencia artificial.

Tal como vimos con los deepfakes, que usan la inteligencia artificial para intercambiar los rostros de celebridades femeninas por los cuerpos de artistas porno, el uso del aprendizaje automático para controlar y extorsionar la autonomía corporal de las mujeres demuestra una profunda misoginia. Es una amenaza que no comenzó con los deepfakes, pero ciertamente llegó a la esfera pública con esa tecnología, aunque en los años posteriores, las mujeres se han quedado atrás en la narrativa general, que se ha centrado en el posible uso de la tecnología para la desinformación.

Danielle Citron, profesora de derecho en la Universidad de Maryland que estudió las consecuencias de los deepfakes, también tuiteó sobre esta nueva afirmación. "Es una idea maliciosa: la vigilancia y el control de los cuerpos de las mujeres llevados a un nivel más bajo", escribió.

Lo que el usuario anónimo afirma haber hecho es teóricamente posible para alguien con una cantidad decente de conocimientos sobre aprendizaje de máquinas y programación, con el suficiente tiempo y capacidad de cómputo, aunque sería un esfuerzo monumental sin garantía de calidad.

La capacidad de crear una base de datos de rostros como esta, y de implementar el reconocimiento facial para señalar y exponer a las mujeres dentro de ella, ha estado dentro del alcance tecnológico del consumidor durante algún tiempo.

En 2017, Pornhub anunció con orgullo nuevas características de reconocimiento facial que, según afirmó, facilitarían a los usuarios encontrar a sus estrellas favoritas y, a su vez, teóricamente sería más fácil para los agresores o acosadores encontrar a sus objetivos. Como escribí en su momento:

Incluso si Pornhub implementa esta tecnología de una manera ética, su existencia debería ser preocupante. Es poco probable que dicha tecnología permanezca patentada por mucho tiempo, y dado que algunas personas en internet tienen el hábito de identificar modelos amateur, la tecnología subyacente podría sobrecargar algunos de estos esfuerzos.

En 2018, los trolls de internet comenzaron a compilar bases de datos de trabajadoras sexuales para amenazarlas y exponerlas. Esta campaña de acoso tuvo consecuencias en la vida real, ya que algunas trabajadoras sexuales se vieron afectadas por el cierre de sus procesadores de pago o sus plataformas de redes sociales.

Lo que este programador de Weibo afirma haber construido es una combinación de estas dos ideas: un intento misógino y abusivo de controlar a las mujeres. Sea real o no, es representativo de los caminos oscuros a los que nos ha llevado la tecnología de aprendizaje automático, y parte de la toxicidad de la sociedad que la rodea.

Jordan Pearson contribuyó con el reportaje de esta historia.