Facebook décide des vidéos de meurtres que nous avons le droit de voir

Facebook est en train de s’ériger en arbitre de ce qui constitue un contenu « acceptable » ou non.
7.7.16
Philando Castile peu avant sa mort. Capture d'écran via YouTube

Une vidéo montrant un homme noir qui venait d'être mortellement blessé par un policier a été temporairement retirée de Facebook. La compagnie a assuré que ce retrait était du à un « souci technique. »

« Nous sommes désolés que la vidéo ait été inaccessible, a déclaré un porte-parole de Facebook à The Telegraph. Cela était du à un problème technique que nous avons corrigé dès que possible. »

La vidéo, qui durait 10 minutes, montrait Philando Castile, 32 ans, du Minnesota, couvert de sang après avoir essuyé les tirs d'un policier. La petite amie de Castile, Diamond Reynolds, qui se fait appeler Lavish Reynolds sur Facebook, a diffusé la vidéo grâce à la fonction Facebook Live, et celle-ci a été vue plus de 2,3 millions de fois à l'heure où nous écrivons. Elle a également été partagée plus de 250.000 fois.

Publicité

Dans la vidéo, la jeune femme affirme que le policier a demandé à son petit ami son permis de conduire et sa carte grise. Elle ajoute que ce dernier a déclaré porter une arme, pour laquelle il détenait un permis.

« Oh mon Dieu, dites-moi qu'il n'est pas mort, dit la jeune femme au moment où Castile s'effondre sur le siège conducteur de la voiture. Dites-moi que mon petit ami n'est pas mort comme ça. »

La vidéo est depuis redevenue disponible, mais elle est désormais accompagnée d'un avertissement précisant que son contenu peut choquer.

« Le contenu de certaines vidéos peut choquer, offenser ou bouleverser certains spectateurs. Êtes-vous certain de vouloir la regarder ? » dit l'avertissement.

Si l'on en croit l'heure d'envoi de certains tweets, la vidéo a été restaurée environ une heure après avoir été initialement retirée.

Facebook n'a pas souhaité répondre aux questions sur le « bug » évoqué, et n'a pas non plus précisé si la vidéo avait été signalée par un utilisateur ou par la compagnie elle-même.

Facebook est en train de s'ériger en arbitre de ce qui constitue un contenu « acceptable » ou non

Alors que Facebook continue à renforcer sa plateforme de vidéos Live, le premier réseau social du monde est devenu de fait le choix évident pour quiconque souhaite diffuser des vidéos importantes ou polémiques. Facebook a déjà bloqué à plusieurs reprises des contenus politiques ou ayant trait à l'actualité en invoquant par la suite des « soucis techniques » ou une simple « erreur ».

En avril, par exemple, Facebook a bloqué temporairement six groupes pro-Bernie Sanders ainsi que cinq groupes de partisans de l'homme politique philippin Rodrigo Duerte. Facebook a par ailleurs choisi de laisser en ligne une vidéo montrant le meurtre d'un homme qui était en train de se filmer en direct, Antonio Perkins, mais a retiré la vidéo de Larossi Abballa, qui s'était filmé juste après avoir assassiné deux policiers à Magnanville. Facebook a également retiré des images de femmes en train d'allaiter, et des images de mastectomies subies par des femmes atteintes de cancer.

Aujourd'hui, la plupart des gens s'informent par le biais des réseaux sociaux, et deux tiers des utilisateurs de Facebook déclarent aller sur le site pour y trouver des infos. Si Facebook doit devenir la fenêtre à travers laquelle les gens perçoivent les événements majeurs, ces fameux « soucis techniques » et autres contenus effacés « par erreur » vont poser de sérieux problèmes en termes de dissémination de l'information.

Surtout, Facebook est en train de s'ériger en arbitre de ce qui constitue un contenu « acceptable » ou non. Au 21ème siècle, c'est un pouvoir exorbitant. En maniant ainsi la censure, Facebook laisse entendre que quiconque souhaite utiliser sa plateforme doit se plier à des règles tacites (et globalement, il y a consensus sur le fait que certaines règles sont nécessaires). Mais comme les individus délèguent en quelque sorte l'épanchement de leur soif d'information à Facebook, les règles et arbitrages définis par le site ont un impact disproportionné sur le débat public.

« C'est le risque que nous prenons quand nous confions toutes nos données à une entreprise comme Facebook, qui a déjà prouvé qu'elle se souciait davantage de sa propre rentabilité que de la liberté d'expression de ses utilisateurs, explique à Motherboard Jillian York, qui travaille sur les questions de liberté d'expression au sein de l'Electronic Frontier Foundation. Ceci dit, il y a de bonnes raisons de s'inquiéter de l'avènement de Facebook Live ; quid d'éventuelles décapitations en direct ? Je ne pense pas que Facebook dispose vraiment d'autres moyens (que la censure) pour lutter contre ce genre de risques. »

Majoritairement, nous sommes d'accord pour dire qu'il est acceptable de supprimer les vidéos mises en ligne par des terroristes de l'État islamique, mais où se situe la limite ? Pouvons-nous faire confiance à Facebook ? Et pouvons-nous nous fier à leur jugement, sans qu'il y ait lieu d'invoquer des problèmes techniques ou des erreurs ?