Foto: Edu Lauton/ Unsplash

Pesquisadores afirmam que bots farão grande estrago nas eleições de 2018

Será cada vez mais complicado identificar um.

|
ago 23 2018, 3:46pm

Foto: Edu Lauton/ Unsplash

Se você passa perto de discussões nas redes sociais, deve ter percebido que, de uns meses para cá, em qualquer sinal de evento político, surgem alguns seres estranhos, incendiários e repetitivos para falar coisas desconexas sobre as pautas do dia. Eles costumam andar em grupo, com fotos e discursos parecidos, e não conseguem articular muita coisa além de hashtags e frases prontas. Em dois ou três cliques, é normal nos perguntarmos: esse perfil é real?

A presença de robôs no debate público virou uma estranha rotina no Brasil. No Twitter, principal habitat desses seres automatizados, é comum vermos bots inflarem hashtags e criarem a impressão de que determinado assunto faz barulho. É assim desde as eleições de 2014, quando partidos políticos e agências fizeram seu primeiro campo de testes. Agora, porém, o cenário está mais bélico e preocupante.

Um relatório publicado pela Fundação Getúlio Vargas nesta quarta (22) alerta que os robôs representam um perigo para as eleições de 2018. "A interferência de perfis automatizados nas discussões que transcorrem nas redes sociais representa uma ameaça à integridade do debate público, uma vez que os robôs são capazes de falsear um cenário de apoio ou crítica a determinado tema ou pessoa", diz o estudo, disponível no site da Sala da Democracia, iniciativa da Diretoria de Análises de Políticas Públicas (DAPP) da fundação.

De 2014 pra cá, os bots ampliaram seu tamanho e sua atuação. Se antes se limitavam a endossar, agora conseguem até pautar discussões. Um exemplo ocorreu no ano passado, durante a polêmica a respeito da exposição Queermuseum, quando houve uma acusação indevida de pedofilia em expressão artística. Na ocasião, os robôs foram responsáveis por inflamar o debate público. O relatório mostra que 8,69% das interações foram identificadas como provenientes de bots. Como poucos podiam prever, as hashtags e mensagens que se opunham à arte em prol da família cresceram a ponto de tornar essa pauta digna de discussão na grande maioria de veículos de comunicação. Em questão de horas, jornais tiveram que explicar o que era arte e o quão distante de crimes sexuais estava a exposição.


Outro motivo de preocupação do uso de robôs é que agora vários grupos perceberam que podem manipular a opinião com pouco investimento. Virou uma espécie de cabo de força automatizado. Durante o julgamento do ex-presidente Lula em 24 de janeiro, por exemplo, quando foram gerados mais de 1,21 milhão de tuítes em um intervalo de 24 horas, os perfis automáticos participaram ativamente da comoção nacional. No grupo contrário à prisão de Lula, 8% era de bots. A porcentagem entre os que queriam ver o ex-líder sindical preso foi pouco menor: 6% de robôs. Já no primeiro debate entre os candidatos à presidência de 2018, o número de interações automáticas foi considerado baixo (3%), mas houve alto número de tuítes e retuítes (1,6 milhão), o que ajuda a mostrar o grande alcance desses perfis.

O potencial de danos, afirma a DAPP, é enorme. Para o grupo, a presença de robôs deve ser identificada, especialmente em momentos de grande relevância política. "Apenas com essa notificação dos robôs é possível diferenciar quais situações são reais ou forjadas nos debates nas redes sociais, o que é de extrema relevância em um contexto político intensamente polarizado como o atual", diz o estudo.

Em julho, o Twitter afirmou ter feito uma limpeza em perfis falsos e que espalhavam notícias falsas e discursos de ódio. Representou uma queda de um milhão de usuários, de acordo com dados divulgados à época. Ainda assim, o problema parece longe de estar resolvido. Os bots, afinal, nascem e se reproduzem em velocidade muito mais rápida do que os atuais sistema de controle.

Identificar bots será cada vez mais difícil

De acordo com Danilo Carvalho, pesquisador do DAPP, existem diversos sinais que denunciam um perfil-robô. Ele e seus colegas buscam padrões de comportamento. Em primeiro lugar, diz Carvalho, procuram "um padrão de atuação não-humano". "Contas que fazem vários tuítes no mesmo segundo, num ritmo impossível para um ser humano", afirma. Outro sinal de automatização está nos metadados encontrados em cada tuíte. A maioria das postagens, explica o pesquisador, é criada "no Twitter para iOS, para Android, para web, Tweetdeck, e em algumas dessas ferramentas que a gente conhece".

Por último, os pesquisadores procuram averiguar se existe um grande número de contas postando as mesmas coisas ao mesmo tempo. Por meio de uma análise sofisticada, eles conseguem identificar padrões de automatização mesmo em contas que parecem ser legítimas.

Ainda assim, é muito difícil identificar um robô de maneira isolada e sem ferramentas. De acordo com Daniel Arnaudo, fellow do Instituto Igarape e Senior Program Manager do National Democratic Institute (NDI), as técnicas estão mudando e ficando mais sofisticadas. Agora, explica, os perfis fazem conteúdos de vários assuntos, postando menos conteúdos, 12 ou 13 por dia, mas com mil, dois mil robôs postando a mesma coisa. O segredo para o sucesso do conteúdo promovido pelos bots é atuar em rede. Embora existam botnets voltadas a outras áreas como entretenimento e publicidade, as redes que falam sobre política são independentes. "Na maioria dos casos, os bots políticos são de redes mantidas pelo próprio time político, não são bots comerciais", diz Carvalho.

"O desenvolvimento de novas técnicas faz com que os robôs ganhem gradativamente mais sofisticação e adquiram cada vez mais características humanóides"

Embora seja possível estimar a quantidade de interações geradas por esses autômatos a cada debate, não há estimativa a respeito do número de robôs operando na internet brasileira ou mundial, afirma Arnaudo.

Todos os pesquisadores concordam que essa técnica de manipulação do debate público na internet vai evoluir. "O desenvolvimento de novas técnicas faz com que os robôs ganhem gradativamente mais sofisticação e adquiram cada vez mais características humanóides, o que tornam o seu comportamento mais complexo e dificultam a sua identificação", prevê o relatório da Sala da Democracia.

Por enquanto, os bots não têm a capacidade de conversar de fato. De acordo com Carvalho, a equipe da DAPP não descobriu até hoje "nenhuma rede que operasse nesse nível de sofisticação". Existem claro, os trolls: contas que parecem ser operadas por usuários reais, que não têm traços de automatização, mas que entram numa discussão simplemente para gerar polêmica, barulho, incitar discurso de ódio ou uma discussão mais polarizada. "Mas são usuários humanos, que têm um objetivo comunicacional claro", diz.

Trending Topic em outro país não é indício de robôs

Recentemente, durante a apreciação da legalização do aborto pelo STF, houve quem denunciasse a ação de contas automáticas inflando hashtags em países como Suíça e Bielorrúsia. Usuários afirmaram que a hashtag #AbortoECrime estaria sendo promovida de forma artificial fora do Brasil para tentar distorcer o debate no Twitter. A prova disso seria que a tag haveria entrado nos trending topics desses países. Tal ação só poderia ser prova da ação de robôs, afinal, qual interesse os suíços teriam em debater o aborto no Brasil?

De acordo com Carvalho, não foi isso o que aconteceu. Segundo ele, um dos responsáveis por fazer a hashtag #AbortoECrime nos trending topics de países estrangeiros seria a personalização do próprio Twitter, que mostra assuntos de interesse do usuário na lista de TTs mesmo que ele esteja visualizando o ranking de outro país.

Outro fato que explica a questão, diz o pesquisador, é que, quando não há assuntos suficientes para preencher os TTs de um país ou região, o sistema do Twitter busca hashtags de outros países para "completar" a lista. Debates são realizados por aqui durante a noite (madrugada em grande parte da Europa) e, por isso, nossos TTs podem "vazar" para outros países. Carvalho afirma que os dados obtidos pelos pesquisadores da DAPP confirmam que um número insignificante de contas ativas no debate sobre o aborto estava nesses países e que elas não teriam a capacidade de fazer a hashtag chegar ao topo.

Inflamando notícias falsas

Ainda não sabemos com precisão a capacidade que essas entidades automáticas têm de manipular a conversa sobre política nas redes e no país. Os indícios mostram que o potencial para causar danos é grande, conforme os exemplos acima mostram. O caso do assassinato da vereadora Marielle Franco mostra como e por onde o estrago pode ser feito.

Logo após a notícia da execução da representante, o sentimento nas redes indicava consternação. Um dia depois, redes de bots entraram em ação postando conteúdos difamatórios e espalhando mentiras a respeito da vereadora. Não demorou e essas postagens começaram a circular por outras redes sociais e de comunicação, como Facebook e WhatsApp. A força das falsidades foi tanta que a equipe de Marielle Franco se viu obrigada a criar uma página para desmentir os boatos. Vítima de uma execução a sangue frio, Marielle se tornou suspeita de maneira infundada.

O cenário não parece animador para as eleições de 2018. Se em 2014 os bots já conseguiram causar estragos sérios ao debate democrático, tudo indica que no próximo pleito eles terão um efeito ainda mais devastador. Por isso, é urgente identificá-los e combatê-los. Tomara que ainda haja tempo para isso.

Leia mais matérias de ciência e tecnologia no canal MOTHERBOARD .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter , Instagram e YouTube .

Mais VICE
Canais VICE