O Facebook decide que tipos de mortes e conteúdos obscenos podemos ver
Captura de tela do vídeo de Philando Castile alvejado por policial. O Facebook removeu o conteúdo de quem postou e, uma hora depois, o colocou de volta com aviso de "cenas fortes". Crédito: YouTube

O Facebook decide que tipos de mortes e conteúdos obscenos podemos ver

Ao interferir e suspender vídeos de usuários, a rede social de Mark Zuckerberg se porta como guardiã arbitrária do que devemos assistir.
08 July 2016, 1:55pm

Nas últimas horas, um vídeo que mostra as consequências fatais de um tiroteio entre um homem negro e um policial em Minnesota, nos EUA, foi removido temporariamente do Facebook. A empresa disse ter tirado do ar por causa de um "problema técnico" e, uma hora depois, liberou a reprodução do conteúdo com o aviso de "cenas fortes".

"Sentimos muito que o vídeo estava inacessível", disse um porta-voz do Facebook. "Ele foi tirado do ar devido a um problema técnico e foi restaurado assim que pudemos investigá-lo."

O vídeo de 10 minutos mostra o americano Philando Castile coberto de sangue depois de ser alvejado por um policial. A namorada de Castile, Diamond Reynolds, presente no Facebook como Lavish Reynolds, filmou o vídeo com o recurso Facebook Live. A mídia foi assistida 2,3 milhões de vezes e compartilhada 250 mil vezes até a publicação desta matéria.

No vídeo, a mulher diz que o policial pediu a carteira de motorista ao seu namorado, que, segundo ela, tinha uma pistola licenciada. "Por favor, não me diga que ele está morto", diz a mulher enquanto Castile afunda no banco do motorista. "Não me diga que meu namorado simplesmente morreu assim."

Com base na hora dos tuítes, o vídeo foi restaurado uma hora após sua remoção com um aviso: "Atenção – Imagens Fortes". "Vídeos com imagens fortes podem chocar, ofender e desconcertar. Você quer mesmo ver isso?", consta no alerta.

O caso não é isolado. Enquanto ergue sua plataforma de vídeo Live, o Facebook se torna a principal fonte de vídeos relevantes e controversos. Por várias vezes a plataforma bloqueou conteúdo político ou digno de notícias para depois dizer que a remoção foi um "problema técnico" ou "erro".

Em abril, por exemplo, o Facebook bloqueou temporariamente seis grupos pró-Bernie Sanders e cinco grupos a favor do político filipino Rodrigo Duerte. O site escolheu deixar no ar um vídeo com a morte de seu cinegrafista, Antonio Perkins, mas tirou do ar um vídeo subido pelo simpatizante do Estado Islâmico Larossi Abballa, que filmou a si mesmo depois de matar duas pessoas na França. O Facebook também removeu imagens de mulheres amamentando e das mastectomias de sobreviventes do câncer.

Quase dois terços dos norte-americanos recebem notícias por meio das redes sociais e dois terços dos usuários do Facebook afirmam usar o site para se informar. Se o Facebook vier a ser o intermediário que leva informação às massas, problemas técnicos e remoções errôneas de conteúdo podem ser devastadores para quaisquer esforços de disseminação de notícias.

Além disso, o Facebook se colocou na posição de guardião. A maioria das pessoas concordaria que algumas regras são necessárias, mas e quando isso parece arbitrário demais?

"Esse é o risco que corremos quando colocamos todos nossos dados nas mãos de uma empresa como o Facebook, que já mostrou se importar mais com limites do que a liberdade de expressão de seus usuários", afirmou ao Motherboard Jillian York, diretora de liberdade de expressão internacional da Electronic Frontier Foundation, nos EUA.

"Há preocupações sinceras com o Live. E se falamos de decapitações ao vivo? Não acho que o Facebook tenha pensado o suficiente em outras maneiras de lidar com riscos fora a censura."

A maioria concorda que apagar vídeos de propaganda postados por um terrorista do Estado Islâmico é algo aceitável, mas como traçar limites? Podemos confiar no julgamento do Facebook? Podemos confiar no Facebook para acertar sempre sem problemas técnicos e erros?

Tradução: Thiago "Índio" Silva