O Facebook decide que tipos de mortes e conteúdos obscenos podemos ver
Captura de tela do vídeo de Philando Castile alvejado por policial. O Facebook removeu o conteúdo de quem postou e, uma hora depois, o colocou de volta com aviso de "cenas fortes". Crédito: YouTube

FYI.

This story is over 5 years old.

O Facebook decide que tipos de mortes e conteúdos obscenos podemos ver

Ao interferir e suspender vídeos de usuários, a rede social de Mark Zuckerberg se porta como guardiã arbitrária do que devemos assistir.

Nas últimas horas, um vídeo que mostra as consequências fatais de um tiroteio entre um homem negro e um policial em Minnesota, nos EUA, foi removido temporariamente do Facebook. A empresa disse ter tirado do ar por causa de um "problema técnico" e, uma hora depois, liberou a reprodução do conteúdo com o aviso de "cenas fortes".

"Sentimos muito que o vídeo estava inacessível", disse um porta-voz do Facebook. "Ele foi tirado do ar devido a um problema técnico e foi restaurado assim que pudemos investigá-lo."

Publicidade

O vídeo de 10 minutos mostra o americano Philando Castile coberto de sangue depois de ser alvejado por um policial. A namorada de Castile, Diamond Reynolds, presente no Facebook como Lavish Reynolds, filmou o vídeo com o recurso Facebook Live. A mídia foi assistida 2,3 milhões de vezes e compartilhada 250 mil vezes até a publicação desta matéria.

No vídeo, a mulher diz que o policial pediu a carteira de motorista ao seu namorado, que, segundo ela, tinha uma pistola licenciada. "Por favor, não me diga que ele está morto", diz a mulher enquanto Castile afunda no banco do motorista. "Não me diga que meu namorado simplesmente morreu assim."

Com base na hora dos tuítes, o vídeo foi restaurado uma hora após sua remoção com um aviso: "Atenção – Imagens Fortes". "Vídeos com imagens fortes podem chocar, ofender e desconcertar. Você quer mesmo ver isso?", consta no alerta.

O caso não é isolado. Enquanto ergue sua plataforma de vídeo Live, o Facebook se torna a principal fonte de vídeos relevantes e controversos. Por várias vezes a plataforma bloqueou conteúdo político ou digno de notícias para depois dizer que a remoção foi um "problema técnico" ou "erro".

Em abril, por exemplo, o Facebook bloqueou temporariamente seis grupos pró-Bernie Sanders e cinco grupos a favor do político filipino Rodrigo Duerte. O site escolheu deixar no ar um vídeo com a morte de seu cinegrafista, Antonio Perkins, mas tirou do ar um vídeo subido pelo simpatizante do Estado Islâmico Larossi Abballa, que filmou a si mesmo depois de matar duas pessoas na França. O Facebook também removeu imagens de mulheres amamentando e das mastectomias de sobreviventes do câncer.

Publicidade

Quase dois terços dos norte-americanos recebem notícias por meio das redes sociais e dois terços dos usuários do Facebook afirmam usar o site para se informar. Se o Facebook vier a ser o intermediário que leva informação às massas, problemas técnicos e remoções errôneas de conteúdo podem ser devastadores para quaisquer esforços de disseminação de notícias.

Além disso, o Facebook se colocou na posição de guardião. A maioria das pessoas concordaria que algumas regras são necessárias, mas e quando isso parece arbitrário demais?

"Esse é o risco que corremos quando colocamos todos nossos dados nas mãos de uma empresa como o Facebook, que já mostrou se importar mais com limites do que a liberdade de expressão de seus usuários", afirmou ao Motherboard Jillian York, diretora de liberdade de expressão internacional da Electronic Frontier Foundation, nos EUA.

"Há preocupações sinceras com o Live. E se falamos de decapitações ao vivo? Não acho que o Facebook tenha pensado o suficiente em outras maneiras de lidar com riscos fora a censura."

A maioria concorda que apagar vídeos de propaganda postados por um terrorista do Estado Islâmico é algo aceitável, mas como traçar limites? Podemos confiar no julgamento do Facebook? Podemos confiar no Facebook para acertar sempre sem problemas técnicos e erros?

Tradução: Thiago "Índio" Silva