Tech by VICE

Paguei 30 dólares para criar um deepfake pornô meu

Por dentro do mundo dos fóruns de deepfakes personalizados, e das motivações das pessoas que os fazem.

por Evan Jacoby; Traduzido por Marina Schnoor
18 Dezembro 2019, 10:00am

Ilustração por Cathryn Virginia.

Enquanto legisladores continuam a debater como evitar que deepfakes espalhem desinformação e difamação de figuras políticas, os cidadãos comuns ainda estão entendendo a escala e acessibilidade crescentes da tecnologia, que frequentemente é usada para criar pornô falso não-consensual.

Deepfakes são imagens alteradas digitalmente que usam algoritmos de aprendizado automático (machine learning) para trocar o rosto de uma pessoa pelo de outra. Quando eles apareceram no final de 2017, o terno “deepfake” foi cunhado a partir do nome de usuário do criador no Reddit. Ele dizia ser um programador hobista, e estava postando suas criações num subreddit devotado a photoshopar rostos de celebridades mulheres no corpo de atrizes pornô. Deepfakes se tornaram tema de um subreddit agora banido, dominado pelo que o Reddit chamou de “pornografia falsa involuntária”.

Dois anos depois, produzir deepfakes é mais fácil que nunca; apesar disso ter sido banido de plataformas como o Discord, Reddit e Twitter, um mercado de pornô deepfake está prosperando em sites de acesso fácil. Ali, as pessoas que não têm recursos ou habilidade para criar seus próprios deepfakes podem encomendar vídeos de celebridades, amigos e estranhos. Para testar quão fácil é conseguir um deepfake personalizado, me juntei a esse mercado de troca de rostos e paguei US$ 30 a um criador para ter meu rosto digitalmente inserido num pornô.



Fora alguns programas desenvolvidos por pesquisadores, software de deepfake disponível para o público ainda precisa ser treinado com uma base de dados de centenas de fotos do rosto que será usado num deepfake. Mas essa limitação – o fato de que a maioria das pessoas não têm centenas de imagens de alta definição de uma pessoa – pode ser contornada usando um único vídeo. Um story do Instagram de 15 segundos tem 450 quadros individuais, o que é suficiente para criar uma base de dados de um rosto, ou “faceset”, que pode treinar um algoritmo de aprendizado de máquina para renderizar um rosto em outro corpo.

Em outras palavras, se você posta um vídeo do seu rosto numa rede social e alguém consegue salvá-lo, a pessoa teoricamente pode pagar para te colocar em qualquer outro vídeo, ou qualquer outro corpo.

Foi fácil achar alguém para aceitar minha encomenda. Mandei mensagem privada para vários criados divulgando seus serviços no fórum de pedidos do site. Um criador me respondeu naquela noite, e mandei para ele um vídeo de 13 segundos comigo falando para a câmera frontal do meu celular – com a duração de uma story do Instagram. Também mandei para ele um link de um vídeo no Pornhub para colocar meu rosto deepfake.

“Se a pessoa posta a vida inteira no Facebook, então é problema dela. O que é compartilhado de boa vontade é livre para ser usado.”

Para garantir que meu experimento representasse uma mudança realista, não contei ao criador que o rosto que ele estava usado era o meu, nem sugeri que tinha recebido consentimento. Ele me mandou amostras em screenshot de um deepfake que ele criou usando meu faceset na manhã seguinte.

Durante meu tempo no fórum de deepfake, falei com quatro criador para entender melhor as pessoas e o mercado por trás desses vídeos. Cada uma dessas pessoas tinha um limite para o que fazia ou não.

Um criador disse que aceitava dinheiro para fazer “pornô de garotas aleatórias”. Ele os criava sem fazer perguntas, desde que “fonte/alvo sejam claramente e obviamente maiores de 18 anos”, mas ele não pedia nenhuma prova legal de que as pessoas no vídeo não era menores. Ele disse que o alvo do vídeo era o fator decisivo para ele, e que “não vou colocar pessoas em câmaras de gás nem nada assim. Se isso não se encaixa na interpretação mais ampla de piada, não faço”.

Quando perguntei como ele achava que as pessoas reagiam ao descobrir pornô deepfake não-consensual delas, ele disse que achava que “os caras vão rir e achar um elogio, as meninas vão surtar e alegar estupro”.

Estudos mostram que mulheres em cenários de pornô não-consensual ainda são os principais alvos de deepfakes, e que as vítimas experimentam trauma desse tipo de assédio, mesmo sabendo que os vídeos são “falsos”.

Outro criador de deepfake especificou que era contra usar tecnologia de deepfake para criar pornô, mas que usava os fóruns de deepfake como ferramenta de aprendizado para produzir vídeos deepfakes de paródia. Ele me disse que em outras comunidades de deepfakes não relacionados com pornô, “a base de usuários não ajuda geralmente, e tende a só ler os documentos do software”, o que o empurrou para a comunidade de pornôs deepfakes.

Mas como esse criador apontou, mesmo havendo uma seção “safe for work” no site, os usuários ali pelo pornô superam aqueles usando os fóruns para aprender dados técnicos. Observando o número de threads e postagens de cada seção do fórum confirmava isso. Ele também acrescentou que mesmo nos posts técnicos, as pessoas geralmente usam trechos de pornô para demonstrar e comparar diferentes programas e algoritmos.

Perguntei aos dois criadores se as pessoas deviam esperar privacidade em 2019, e as respostas foram similares. “As pessoas são muito relaxadas sobre postar fotos e vídeos em toda forma de rede social”, disse o criador de conteúdo safe for work, se referindo a fotos e vídeos que os criadores de deepfake podem usar para modelos de treinamento de aprendizado de máquina. O outro criador foi mais direto: “Se a pessoa posta a vida inteira no Facebook, então é problema dela. O que é compartilhado de boa vontade é livre para ser usado”.

Com exceção de alguns estados dos EUA como a Virginia e Califórnia, pornografia deepfake continua legal nos EUA. Enquanto plataformas e sites de hospedagem podem proibir vídeos de deepfake, o anonimato dos criadores pode tornar quase impossível evitar que novos vídeos sejam feitos.

E limitar sua presença nas redes sociais também pode não ser suficiente para te proteger. Essa atitude de culpar a vítima vai contra o que especialistas em privacidade dizem: que enquanto limitar sua exposição online é um bom passo, mesmo mantendo suas imagens offline, não há um jeito à prova de balas de se proteger contra gente mal intencionada que quer te tornar alvo de deepfake.

Voltando para minha experiência, ainda estou chocado com quão fácil foi todo o processo. Fóruns de pornô deepfake aparecem na primeira página dos resultados de busca do Google, e criadores estão dispostos a fazer deepfakes para qualquer um com um vídeo de 13 segundos e US$ 30. Algumas dessas plataformas têm dezenas de milhares de usuários. O Google tem investido em pesquisas para detectar deepfakes, mas ainda não tomou o passo mais fácil e mais importante de tornar esses sites mais difíceis de encontrar em suas páginas de resultado.

Depois que esse criador em particular me mandou o vídeo completo, ele me agradeceu e disse que futuros vídeos seriam mais baratos, já que ele já tinha treinado o algoritmo para reconhecer meu rosto. Até que os EUA tenha leis melhores para pornô não-consensual e manipulação de mídia, e até que a sociedade possa abordar o problema de assédio e abuso através de vídeos manipulados, provavelmente ele vai continuar tendo clientes.

Siga a VICE Brasil no Facebook, Twitter, Instagram e YouTube.