Tecnologia

Facebook obriga seus moderadores a logar cada minuto de seus dias trabalho — até idas ao banheiro

“As pessoas têm que explicar por que demoraram, é constrangedor e humilhante.”
privada facebook
Foto: George Mdivanian / EyeEm via Getty Images.

DUBLIN – Quando Valera Zaicev começou a trabalhar em Dublin como um moderador do Facebook alguns anos atrás, ele sabia que teria que ver alguns dos conteúdos mais fortes e violentos da internet.

O que ele não sabia é que o Facebook estaria contando os segundos de suas idas ao banheiro.

“As pessoas têm que logar até idas ao banheiro e explicar por que demoraram, é constrangedor e humilhante”, Zaicev disse a VICE News.

Publicidade

O Facebook, que terceiriza a maior parte de sua moderação de conteúdo para mais de 15.000 funcionários, nem sempre tratou seus empregados assim. Quando Zaceiv, 33 anos, se juntou ao exército de moderação do Facebook em julho de 2016, ele encontrou um local de trabalho profissional onde se sentiu bem recebido num treinamento aprofundado e com excelente tratamento.

Mas isso logo mudou. Enquanto o número de moderadores nos escritórios de Dublin explodia – indo de 120 para mais de 800 em dois anos – as condições deterioraram e o treinamento para os moderadores praticamente evaporou.

Em 2018, o número de moderadores de conteúdo no mundo continuava a crescer para dezenas de milhares, e o Facebook começou a testar um “sistema de gerenciamento de tempo”, pensado para monitorar cada minuto do dia deles – incluindo horas de almoço, treinamento, “pausas de bem-estar” para tratamento psicológico ou ioga, e até o tempo que eles passavam no banheiro, segundo Zaicev e outro empregado terceirizado trabalhando lá, que não quis ser identificado.

Nos últimos anos, o Facebook vem encarando críticas sobre como lida com conteúdo horrível em sua plataforma. A empresa gastou pelo menos meio bilhão de dólares contratando moderadores humanos, além do algoritmo que já policia suas páginas.

“As pessoas têm que logar até idas ao banheiro.”

Com supervisão regulatória cada vez maior dos governos pelo mundo, o trabalho que esses moderadores fazem é essencial. Eles são a primeira linha de defesa da companhia contra material horrível e ilegal, e mesmo assim, eles dizem que a empresa paga mal e não dá apoio adequado. O resultado foi uma série de questões de saúde e, mês passado, o primeiro de muitos processos esperados por não fornecer um ambiente de trabalho seguro.

E ainda assim, os moderadores do Facebook dizem que estão tendo cada movimento monitorado. Quando estão tomando decisões sobre conteúdo, por exemplo, os moderadores têm que seguir um documento que está sempre mudando, que eles chamam de “a bíblia”. Cada moderador recebe um “índice de qualidade”.

Publicidade

“Você só pode cometer quatro ou cinco erros por mês – um índice de 2% de fracasso, 98% de qualidade”, disse Chris Gray, um ex-moderador do Facebook que trabalhou para a empresa por 11 meses. “Então se você chega, e é terça ou quarta-feira, e comete cinco erros, você está fodido pelo resto do mês, e só consegue pensar em como recuperar seu índice.”

Gray está sofrendo de transtorno de estresse pós-traumático (TEPT) como resultado de seu tempo trabalhando como moderador do Facebook, e mês passado abriu um processo nos tribunais irlandeses contra a rede social e a CPL, uma das empresas com que o Facebook trabalha que emprega milhares de revisores humanos de conteúdo nos EUA, Europa e Ásia. O processo acusa a companhia de causar “trauma psicológico” devido a más condições de trabalho e ter que revisar conteúdo forte.

Dezenas, até centenas, de moderadores devem abrir processos similares. Uma fonte na fima de direito de Gray, a Coleman & Partners, disse a VICE News que novos documentos serão submetidos ao Supremo Tribunal de Dublin este mês.

A CPL não respondeu as perguntas da VICE News sobre as declarações feitas por ex-moderadores e funcionários atuais, e o Facebook se recusou a comentar sobre fazer seus moderadores logarem cada minuto do dia.

“O bem-estar das pessoas que revisam conteúdo para o Facebook é e continuará sendo nossa maior prioridade”, disse Drew Pusateri, um porta-voz do Facebook, a VICE News.

Publicidade

Mas os moderadores dizem que esse simplesmente não é o caso. Mesmo que o Facebook tenha disponibilizado consultas psicológicas, muitos moderadores sentem que não podem tirar proveito delas por causa do monitoramento constante, as políticas sempre mudando e a pressão para atingir metas de qualidade.

“Há milhares de moderadores na União Europeia, e todos estão trabalhando em condições insalubres para saúde mental e, na nossa visão, fora da lei”, disse Cori Crider, diretor da Foxglove, um grupo do Reino Unido ajudando com os processos. “As leis europeias de proteção ao trabalhador são fortes, e acreditamos que o Facebook e outras empresas de redes sociais precisam fazer muito mais para criar um ambiente de trabalho seguro para os moderadores.”

Seguindo “a bíblia”

Moderadores do Facebook revisam e removem conteúdo denunciado por bilhões de usuários do Facebook pelo globo, além do algoritmo de inteligência artificial da companhia. A maioria do conteúdo é relativamente mundano, mas algumas coisas são profundamente perturbadoras, como abuso sexual, bestialismo e violência brutal.

Todo dia quando os moderadores chegam ao trabalho, eles recebem o que é chamado de plano de jogo, um cronograma que estabelece quanto conteúdo os moderadores precisam abordar e quais vão pra fila, incluindo discurso de ódio, assédio e até ameaças de autoflagelação.

Gray disse que a CPL também dá aos moderadores um tempo médio de abordagem, ou a quantidade de tempo que eles podem gastar com cada conteúdo. O tempo varia dependendo do tipo de conteúdo sendo revisado, mas Gray disse que geralmente fica abaixo de um minuto.

Publicidade

Enquanto alguns conteúdos são violações óbvias e exigem pouca energia mental, outros não são tão claros e exigem consultar os Padrões de Implementação do Facebook, o que alguns moderadores chamam de “a bíblia”.

O documento de 10 mil palavras tem 24 categorias, que se dividem em três grupos: comportamento danoso, conteúdo sensível e violações legais, segundo uma cópia publicada em março de 2018 e revisada pela VICE News.

Segundo as regras, os moderadores podem escolher ignorar conteúdo ou deletá-lo. Se eles escolhem deletar, os moderadores têm que descrever o conteúdo detalhadamente e assinalá-lo em várias categorias e subcategorias. A informação então é dada ao algoritmo do Facebook. Isso significa que os moderadores estão treinando o software que um dia pode substituí-los.

Mesmo que “a bíblia” seja um guia útil, o documento é atualizado a cada duas semanas com generalizações vagas para cobrir uma ampla gama de conteúdo postado no Facebook.

“Você tem que ter regras genéricas que podem ser aplicadas facilmente para todo mundo e todo tipo de situação”, disse Gray.

Em muitas situações, os moderadores simplesmente não sabem que ação devem tomar.

“Em alguns dias eram 10 pessoas olhando para uma tela, e alguém tinha que abrir os documentos de políticas em outra tela, aí discutíamos como aplicar a política para aquele vídeo”, disse Gray.

E na maioria dos casos, os moderadores não têm a opção de passar o problema para um empregado sênior do Facebook. Não importa o que seja, eles precisam tomar uma decisão, e se ela estiver errada, o impacto vai para o índice de qualidade deles.

Publicidade

Índices de qualidade nada realistas

Uma equipe de auditores, que revisa amostras das decisões dos moderadores todo mês, determina se os moderadores tomaram ou não alguma decisão errada. Mas os auditores são apenas outros moderadores que por acaso têm um índice de qualidade acima da média.

Moderadores podem apelar das decisões dos auditores com os próprios auditores, e isso precisa ser feito em 48 horas – e todos os moderadores com quem a VICE News falou disseram que precisaram apelar das decisões para manter seu índice de qualidade em 98%.

Auditores marcam os moderadores que tomaram decisões erradas e deixaram conteúdo no Facebook que deveria ser deletado, e vice-versa. Mas o processo também permite que auditores penalizem moderadores que não realizaram a ação correta pelas razões erradas.

“Se comete cinco erros, você está fodido pelo resto do mês, e só consegue pensar em como recuperar seu índice.”

Mas os auditores estão longe de ser infalíveis, e muitas vezes não conseguem articular por que escolheram o resultado que escolheram. Quando determinando se um post que aconselhava um usuário a “provavelmente se matar” deveria continuar online ou não, um auditor não conseguiu dar uma resposta definitiva, segundo capturas de tela de uma discussão com um moderador vista pela VICE News.

“[Auditores] não sabem nada sobre seu mercado, já que são de outros países e falam outras línguas”, disse Zaicev.

Publicidade

Mas o Facebook não está apenas empregado equipe não-qualificada adequadamente para o processo de moderação; a empresa também permite que detalhes da vida pessoal dos moderadores caiam em mãos erradas.

Zaicev foi um entre mais de mil moderadores do Facebook cujas identidades foram acidentalmente reveladas para pessoas com contas eles estavam bloqueando. No caso de Zaicev, suas informações foram reveladas para membros da República Popular de Donetsk (RPD) e da República Popular de Luhansk (RPL), dois grupos separatistas pró-Rússia operando no leste da Ucrânia.

O Facebook se desculpou com Zaicev e prometeu proteger melhor seus funcionários – apenas a última promessa entre muitas que a rede social fez recentemente depois de vários escândalos.

As políticas do Facebook

Apesar da insistência do Facebook de que eles estão melhorando as condições para funcionários, a nova política de gerenciamento de tempo e exigências atuais para atingir metas de qualidade erodiram ainda mais o tempo que os empregados podem usar para desestressar depois de interagir com conteúdo traumatizante.

A nova ferramenta de gerenciamento de tempo do Facebook, que obriga moderadores a logar cada minuto de seus turnos, é só mais uma peça de um ambiente já estressante. A ferramenta, que foi imposta para todos os terceirizados este ano, é tão eficiente que se um moderador está longe de sua estação de trabalho, ela desconecta a pessoa. Aí o funcionário precisa explicar essa lacuna de produção para os gerentes.

Publicidade

O sistema de gerenciamento de tempo também dificulta para os moderadores usarem os programas de bem-estar que poderiam compensar pelo trauma que eles encaram diariamente. Em muitos casos, em vez de procurar ajuda psicológicas ou fazer ioga, os moderadores acabam gastando seu tempo discutindo com auditores sobre suas decisões ou revisando a última versão da “bíblia”.

Um moderador trabalhando atualmente para o Facebook disse que quem cobre mercados movimentados, como de uma região falante de inglês, “não são exatamente encorajados” a aproveitar as opções de bem-estar, então pode ser difícil passar pelo dia de trabalho sem se sentir mentalmente exausto.

E a carga de trabalho varia muito entre os mercados. Moderadores de países como Filipinas e Tailândia, por exemplo, disseram que precisam revisar até mil pedaços de conteúdo por dia, enquanto moderadores na Europa podem ver menos de 150 e filas mais difíceis, como exploração infantil.

Os gerentes nem sempre conseguem notar quando moderadores estão tendo problemas, seja por causa do conteúdo que estão vendo, o estresse sob o qual estão ou as duas coisas.

Um moderador que trabalhou na CPL por 14 meses em 2017 e 2018 disse a VICE News que decidiu se demitir quando um gerente o sancionou quando ele estava tendo um ataque de pânico em seu computador. Ele tinha acabado de ficar sabendo que sua mãe idosa, que morava em outro país, tinha tido um derrame e desaparecido.

Publicidade

“No dia mais estressante da minha vida, quando achei que podia perder minha mãe, o líder da minha equipe, um cara de 23 anos sem experiência anterior, decidiu me colocar sob mais pressão dizendo que eu podia perder o emprego”, disse o moderador, que não quis ser identificado.

Tratado “como criminoso”

Quando o estresse finalmente obriga os moderadores a deixar a empresa, muitos têm medo de falar contra o Facebook e CPL por causa dos acordos de não-divulgação (AND) que assinaram quando começaram a trabalhar lá. Zaicev disse que quando saiu, a CPL o pressionou para assinar um segundo AND.

“Me recusei a assinar e me pressionaram mesmo assim”, ele disse. “Depois de várias recusas, fui escoltado para fora do prédio como um criminoso antes do meu último turno e sem poder me despedir dos colegas.”

A companhia também alerta os empregados para não falar com a imprensa. A VICE News viu uma cópia de um e-mail enviado para os empregados da CPL em Dublin em 2018, avisando sobre uma reportagem disfarçada sobre a empresa para o Channel 4. A mensagem sugeria pontos a serem discutidos pelos empregados que fossem abordados. “Você pode responder com algo como: 'Segurança para as pessoas que usam o Facebook é uma das nossas maiores prioridades'”, dizia parte do documento.

O Facebook também aconselha os moderadores a remover qualquer referência ao Facebook de seus perfis no LinkedIn no caso de jornalistas os contatarem sobre polêmicas, segundo Zaicev.

O Facebook disse a VICE News que aconselha a não fazer referência à companhia online “por razões de segurança”, citando o atentado ao quartel-general do YouTube em San Bruno, Califórnia, em abril de 2018.

Apesar da pressão do Facebook para manter segredo, Zaicev agora está entre dezenas de ex-moderadores e funcionários trabalhando atualmente na companhia que contataram a Coleman Legal Partners em Dublin, para tomar uma ação legal contra a empresa por não fornecer um ambiente de trabalho seguro. Diferente de uma ação coletiva recente nos EUA, cada moderador tem que abrir um processo separado na Irlanda.

“As pessoas mais felizes são as que estão fora do Facebook. Quanto mais infeliz você está na vida, mais tempo você vai passar no Facebook”, disse um ex-moderador, que está se preparando para tomar uma ação legal contra o Facebook, a VICE News. “E passávamos o dia inteiro no Facebook. Então provavelmente podemos dizer que isso não é bom pra você.”

Siga a VICE Brasil no Facebook, Twitter, Instagram e YouTube.