Publicidade
Tech by VICE

O criador da DeepNude, uma aplicação que "despia" fotos de mulheres, acabou com a app

Uma aplicação que usava um algoritmo para "despir" imagens de mulheres foi descontinuada pelo seu criador, devido a "problemas no servidor e danos potenciais.

Por Samantha Cole; Traduzido por Madalena Maltez
02 Julho 2019, 1:58pm

Este artigo foi originalmente publicado na Motherboard - Tech by VICE.

O criador da DeepNude, uma app que usava um algoritmo de machine learning para “despir” imagens de mulheres vestidas, anunciou no final da última semana que iria "matar" o software, depois de muitas reacções negativas pela forma como o produto objectificava mulheres.

Na quarta-feira, 26 de Junho, a Motherboard revelou como um programador anónimo, que usa o pseudónimo “Alberto”, tinha criado o DeepNude, uma aplicação que pegava em imagens de mulheres vestidas e, após um clique e alguns segundos de espera, transformava a imagem num nude, sobrepondo seios e vulva realistas no corpo delas através de um algoritmo. O algoritmo usa redes contraditórias generativas (GANs em inglês) e é treinado com milhares de imagens de mulheres nuas. O DeepNude só funcionava com imagens de mulheres porque, segundo Alberto, era mais fácil encontrar imagens de mulheres nuas na Internet.

Depois do artigo da Motherboard, o servidor da aplicação, que tinha um link para Linux e Windows, foi retirado do ar:

Na tarde de quinta-feira, 27 de Junho, a conta de Twitter do DeepNude anunciou que a aplicação estava morta: nenhuma outra versão será lançada e mais ninguém terá acesso. “Criámos este projeto para entretenimento dos utilizadores há meses”, escreveu o criador numa declaração publicada com o tweet. “Achámos que íamos vender algumas cópias por mês, de maneira controlada... Nunca pensámos que ia viralizar e que não poderíamos controlar o tráfego”.

Quando falei com Alberto por e-mail na quarta-feira, ele revelou ter tido dúvidas sobre a moralidade e a ética envolvidas no uso da aplicação. “Isto estará certo? Pode prejudicar alguém?”, perguntou-se a si mesmo. E concluiu: “Acho que o que podes fazer com o DeepNude, também se pode fazer com o Photoshop (depois de ver algumas horas de tutoriais)”. Se a tecnologia já existe, afirmou, alguém eventualmente acabaria por criar algo assim.

Mas agora, segundo a recente declaração, ele decidiu que não quer ser o responsável pela disseminação desta tecnologia. “Não queremos fazer dinheiro desta maneira”, pode ler-se. “Claro, que algumas cópias do DeepNude ainda serão partilhadas na Internet, mas não queremos ser aqueles a vender o produto”. Alberto alega ser apenas uma “entusiasta de tecnologia”, motivado pela curiosidade e um desejo de aprender. A mesma razão dada pelo criador de deepfakes à Motherboard em Dezembro de 2017: que era apenas um programador interessado em machine learning. Todavia, tal como muito bem ilustrou a ascensão subsequente do porno falso de vingança através de deepfakes, este uso da tecnologia sobre o corpo das mulheres é prejudicial, podendo mesmo às vezes destruir a vida das vítimas, tudo em nome desse tal “entusiasmo”.

“O Mundo ainda não está pronto para o DeepNude”, conclui a declaração. Mas, como esses algoritmos e aplicações problemáticos demonstram, não há uma solução simples para tecnologias como o DeepNude e as atitudes sociais que apagam a autonomia corporal e consentimento das mulheres.


Segue a VICE Portugal no Facebook, no Twitter e no Instagram.

Vê mais vídeos, documentários e reportagens em VICE VÍDEO.