Motherboard

Um guia para detectar e se proteger de deepfakes antes que a mentira vença

Pesquisadores contam como está a busca tecnológica para combater os vídeos manipulados digitalmente — e como podemos nos proteger deles.

por André Bernardo
26 Novembro 2018, 9:00am

Foto: Divulgação/ FaceForensic

A cinco dias das eleições, um suposto vídeo íntimo do líder nas pesquisas viraliza nas redes sociais. Logo todos se perguntam: o conteúdo em que o tal candidato aparece em uma orgia com cinco mulheres é manipulado digitalmente ou não? Na tarde do mesmo dia, ele nega a autenticidade da fita e diz que vai tomar as medidas judiciais cabíveis contra seus autores. “Uma produção grotesca”, protesta, em sua conta no Twitter. Dias depois, youtubers publicam análises que atestam uma suposta montagem digital; do outro lado, peritos dizem que não há indícios de manipulação. Parecia um episódio da nova temporada de Black Mirror, a série distópica criada pelo britânico Charlie Brooker, mas era a disputa pelo governo do estado de São Paulo, o maior colégio eleitoral do Brasil.

O escândalo não chegou a arranhar a imagem do candidato, muito menos atrapalhar sua ascensão política, mas poderia. A técnica de sobrepor o rosto de uma pessoa ao de outra por meio de algoritmos de inteligência artificial (IA) já transformou a ex-primeira dama dos EUA, Michelle Obama, em dançarina de strip-tease, a cantora Taylor Swift em estrela pornô e o ator Nicolas Cage em protagonista de A Noviça Rebelde, O Poderoso Chefão e Forrest Gump. Para alcançar um resultado satisfatório, basta alimentar o software de imagens estáticas (fotos) ou em movimento (vídeos) do indivíduo que se quer manipular. A essa tecnologia, que troca rostos de lugar, emula vozes e faz sincronia labial, é dado o nome genérico de “deepfake” (ou “falsificação profunda”).

O termo foi usado pela primeira vez por um usuário do Reddit em 2 de novembro de 2017. Seu codinome serviu para nomear a prática: deepfake. Lá, gostava de compartilhar vídeos pornôs que ele mesmo produzia, em ferramentas como TensorFlow e Keras, trocando o rosto de atrizes de filmes para adultos pelo de estrelas de Hollywood, como Gal Gadot, Emma Watson e Scarlett Johansson. No dia 8 de janeiro, um desenvolvedor de softwares de Maryland (EUA) colocou ainda mais lenha na fogueira ao criar um aplicativo gratuito, Fake App. Em apenas dois meses, foi baixado 120 mil vezes. Era uma simplificação da tecnologia. Em vez de usar vários scripts e softwares, bastava usar o app. “O que torna essa tecnologia perigosa é que qualquer leigo pode usá-la”, alerta Moacir Antonelli Ponti, professor do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (USP). “Não precisa ser um expert em computação.”

1542986170198-DORIA00
Trecho de vídeo em que supostamente Doria aparece ainda é motivo de debate entre especialistas: trata-se de deepfake ou não?

"Um deepfake bem feito, a olho nu, é difícil de detectar. No caso do vídeo do Doria, ainda não chegamos a um veredicto se é falso ou não”

Politicamente, o truque já foi usado na Bélgica. O Partido Socialista Diferente recorreu a uma versão computadorizada do presidente americano Donald Trump para convencer o eleitor daquele país a votar contra o Acordo de Paris. Por aqui, o caso envolvendo João Doria, o governador eleito de São Paulo, é o primeiro de que se tem notícia. “O que rola por aí são vídeos antigos usados como novos ou fora de contexto. Um deepfake bem feito, a olho nu, é difícil de detectar. No caso do vídeo do Dória, ainda não chegamos a um veredicto se é falso ou não”, afirma Cristina Tardáguila, diretora da agência Lupa, a primeira especializada em fact-checking do Brasil.

E esse parece ser o principal desafio para o futuro próximo: existirá algum meio de checar a veracidade ou não de um vídeo? Essa tecnologia pode se tornar tão real a ponto de sua manipulação se tornar imperceptível?

Trecho de deepfakes feito com a atriz Gal Gadot. Obra original é de filme pornográfico.

Aparentemente, não há limites para os estragos que um bom deepfake pode causar. Com algumas técnicas de deep learning – método em que, sozinho, o computador aprende, por tentativa e erro, a transplantar o rosto de uma pessoa no corpo de outra – e um aparelho com uma boa placa de vídeo (GPU), o usuário é capaz de simular o que bem entender. Desde forjar álibi para um suspeito de assassinato até inserir um inocente na cena de um crime. Incidentes diplomáticos, para dizer o mínimo, também não estão descartados. Já imaginaram um vídeo falso do presidente Jair Bolsonaro dizendo impropérios para o venezuelano Nicolás Maduro? Ou de Donald Trump declarando guerra ao norte-coreano Kim Jong-un? Se os respectivos ministérios das Relações Exteriores (e afins) não checarem a veracidade das imagens, o pior pode acontecer. “A maioria das falsificações, pelo menos por enquanto, é fácil de detectar. Mas é difícil prever em que momento esses vídeos modificados serão indistinguíveis do conteúdo real para nossos olhos humanos”, alerta Michael Zollhöfer, professor de Ciência da Computação da Universidade de Stanford, nos EUA.

É por essas e outras que pesquisadores do mundo inteiro já começaram a estudar técnicas para detecção dos deepfakes. Um desses cientistas é Siwei Lyu, professor de Ciência da Computação, da Universidade do Estado de Nova Iorque (SUNY), em Albany. Depois de monitorar mais de 50 vídeos falsos, Lyu e sua equipe constataram que, diferentemente do que acontece na vida real, onde as pessoas piscam, em média, 17 vezes por minuto, em um vídeo adulterado digitalmente, elas quase nunca movimentam os olhos. Qual a razão disso? Na maioria das vezes, os usuários recorrem a bancos de imagens estáticas, como o do Google, para produzir este tipo de conteúdo. E, nas fotografias, as pessoas, em geral, estão com os olhos abertos. A solução não é permanente, reconhece Lyu. Afinal, a tecnologia tende a melhorar. Por ora, ele se sente como um enxadrista à espera da próxima jogada do falsificador virtual.

Vídeo de Siwei Lyu explica como detectar deepfakes por meio da análise de piscadelas.

Mas, “virar o feitiço contra o feiticeiro”, ou seja, lançar mão de algoritmos de inteligência artificial (IA) para identificar vídeos produzidos por algoritmos é apenas uma das estratégias de combate ao deepfake. Outra é conscientizar a opinião pública do risco de se acreditar em tudo que vê no mundo virtual. Sabe aquele aforismo: imagens não mentem? Então, quando são manipuladas digitalmente, podem mentir, sim. Pior: podem chantagear, caluniar, incriminar. “Em geral, o público desconhece a existência de tecnologia que falsifica fotos e vídeos. E isso é um problema, sabe?”, afirma o pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda. “Vai chegar o dia em que deixaremos de acreditar em algo simplesmente porque há um vídeo sobre ele nas redes sociais.”

“Em geral, o público desconhece a existência de tecnologia que falsifica fotos e vídeos. E isso é um problema"

O que Patrini sugere é: confie, desconfiando. Sempre. Antes de sair por aí compartilhando aquele vídeo de procedência ignorada e qualidade duvidosa que você recebeu de seu colega de trabalho, que tal se perguntar: há outra fonte que confirme o que aconteceu naquele vídeo? De onde ele veio exatamente? O site, canal ou plataforma em que o vídeo se encontra é, digamos, confiável, ou costuma checar suas fontes? Quanto mais ceticismo, melhor. “Suspeito que basear a credibilidade de um vídeo em seu suposto realismo seja um erro. Afinal, os falsificadores vão continuar trabalhando duro para enganar o maior número possível de pessoas”, alerta Patrini.

Como detectar um deepfake? Manual de sobrevivência.

Lá fora, softwares como o FaceForensics, desenvolvido por Christian Riess, professor de Ciência da Computação da Universidade Friedrich-Alexander, de Erlangern-Nürnberg, na Alemanha, já são capazes de identificar rostos adulterados via IA. Seu nível de precisão é de 87% em gravações de baixa qualidade e de 98%, de alta. Mas, enquanto esses “detectores de vídeos falsos” não chegam ao Brasil, o jeito é trabalhar com o que temos. Para isso, Moacir Ponti, da USP, dá algumas dicas. A primeira é prestar atenção nos movimentos de olhos, sobrancelhas, lábios e dentes. “Muitos não sincronizam bem as expressões faciais. Quando isso acontece, o movimento pode parecer atrasado, apresentar falhas ou, ainda, tornar aquela parte do rosto imóvel por alguns frames”, explica.

O software FaceForensics, ainda em desenvolvimento, é uma das esperanças de combate.

Por razões óbvias, o rosto costuma ser a parte do corpo que mais dá indícios se um vídeo é forjado. Quando o falsário insere o rosto de uma pessoa na cabeça de outra, tende a cometer deslizes, como borrar o tom de pele ou tentar suavizar sua textura. À procura de eventuais imperfeições, é importante pausar o vídeo ou assisti-lo, repetidas vezes, quadro a quadro, principalmente os trechos em que o rosto não está visível ou de frente e, sim, encoberto por algum objeto ou de lado. “Não há um jeito fácil. Em telas menores, é praticamente impossível distinguir um vídeo falso de outro, real”, admite Ponti. Se nada der certo, um último truque é recorrer a ferramentas de busca, como o TinEye, para apurar se aquele vídeo já foi exibido antes, em outra plataforma.

Tudo é tão novo, e assustador, que ainda não existe legislação contra deepfake no Brasil. Mesmo assim, o advogado Tarcísio Teixeira, especialista em Direito Eletrônico, explica que esse tipo de conduta pode ser enquadrado em alguns crimes. “Se a montagem prejudica a imagem de alguém, pode configurar crime contra a honra: calúnia, injúria e difamação. Se o indivíduo que produziu o vídeo falso obteve vantagem por meio de fraude, também pode responder por estelionato”, afirma. Outros crimes a que o autor de deepfake está sujeito é falsidade ideológica e documental.

Por essas e outras, quem se sentir prejudicado deve tomar algumas providências. A primeira delas é salvar tudo o que pude. Em outras palavras, tirar print da tela do computador. Com as provas documentais em mãos, é hora de ir à delegacia, para registrar o boletim de ocorrência, e no cartório, para o tabelião fazer uma ata notarial do que aconteceu. “Além da questão penal, a vítima pode pedir uma ação indenizatória. A questão é encontrar o infrator. Mas, a polícia e o Ministério Público têm lá suas ferramentas para chegar até os responsáveis”, diz.

É tudo muito incipiente, mas, enquanto os apps de detecção de deepfakes não saem do laboratório, o melhor jeito é usar o ceticismo e olho humano aos detalhes. O fake news evoluiu, nos resta acompanhá-lo.

Leia mais matérias de ciência e tecnologia no canal Motherboard .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .