Facebook pourrait faire augmenter les taux de crimes haineux

Des chercheurs allemands ont trouvé une corrélation entre l’utilisation de Facebook et les crimes haineux.

|
août 21 2018, 10:16pm

Un partisan d'extrême-droite, lors d'un rassemblement à Erfurt, en Allemagne. Alexander Koerner/Getty Images

Si vous, comme la plupart des gens, êtes sur Facebook, il y a de fortes chances que vous ayez au moins une personne dans votre réseau qui partage sans arrêt des mèmes ou des vidéos qui ressemblent étrangement à de la propagande raciste. Au Québec, comme dans beaucoup d’endroits, des groupes et pages Facebook aux idéologies xénophobes, ultra-identitaires et d’extrême droite pullulent. Il est facile de penser que ce qui se passe sur Facebook n’est pas représentatif de la réalité ou n’a pas d’effets réels sur ce qui se passe dans la vraie vie, mais il semble que ces pages et groupes ont contribué à augmenter l’incidence de crimes haineux.

En 2016, Dirk Denkhaus, un jeune apprenti pompier, s’est infiltré dans un endroit où était installé un groupe de réfugiés à Altena, en Allemagne, et a tenté d’y mettre le feu. Comme le rapporte le New York Times, la petite ville a accueilli de nombreux migrants dans la dernière année. La communauté était surtout favorable à cet influx migratoire et a contribué à l’accueil. Par contre, lorsque le centre d’intégration des réfugiés de la ville a créé une page Facebook pour promouvoir ses activités, elle a très vite été inondée de messages haineux et xénophobes. D’après Anette Wesman, la directrice du centre, Facebook a tout à voir avec la hausse de cette haine et des crimes haineux.

Une étude réalisée par Karsten Müller et Carlo Schwarz de l’Université de Warwick donne raison à Mme Wesman. Les deux chercheurs ont analysé toutes les attaques anti-réfugiés en Allemagne sur une période de deux ans, pour conclure que, dans les villes comme Altena où l’utilisation de Facebook était plus fréquente que la moyenne, le nombre de crimes haineux envers les réfugiés était plus élevé. Et ce, peu importe les conditions sociales ou politiques de la ville.

« Cette hausse de violence ne corrèle pas avec l’utilisation du web en général ou avec d’autres facteurs connexes, explique le New York Times. Cela n’a pas à voir avec l’internet en tant que plateforme ouverte pour la mobilisation ou la communication : c’est particulier à Facebook. »

Un des problèmes de Facebook est que, contrairement à la vraie vie, il est simple d’y vivre dans une bulle idéologique. Par exemple, une personne qui s’abonne à des pages qui publient de la propagande d’extrême droite et des théories du complot se verra proposer de suivre des pages similaires par les algorithmes de Facebook et, à un moment, ces pages prennent presque toute la place dans son fil d’actualité. Ce que l’étude de Müller et Schwarz montre, c’est que cet isolement peut devenir carrément dangereux.

En réponse aux résultats de la recherche de Muller et Schwarz, Facebook a simplement répondu que leur approche relativement à qui a sa place ou non sur Facebook évolue constamment avec les conclusions d’experts dans le domaine.

L’entreprise tente depuis plusieurs mois de trouver un moyen équitable de combattre les fausses nouvelles et les propos haineux. En plus de conclure des partenariats avec des agences de presse externes pour la vérification des faits, on a appris ce matin dans le Washington Post que la compagnie compte instaurer un système de cote de fiabilité de ses utilisateurs.

Pour plus d'articles comme celui-ci, inscrivez-vous à notre infolettre.

Ce système aura pour but, d’après Facebook, de contrer les faussetés qui se répandent sur sa plateforme. Comme l’explique Tessa Lyons, chef de produit responsable de cette initiative, de nombreuses personnes signalent que certaines publications sont problématiques simplement parce que l’information qui y est rapportée ne concorde pas avec leur opinion. Bien qu’on ne sache pas grand-chose sur les critères sur lesquels la compagnie se basera pour déterminer la fiabilité des gens, Mme Lyons affirme que ce ne sera pas un indicateur absolu de la crédibilité d’un utilisateur. « Par exemple, si quelqu’un nous a signalé une fake news et que c’est confirmé par un de nos contrôleurs de qualité, le feedback de cette personne-là pèsera plus lourd que celui de quelqu’un qui signale de façon indiscriminée que des articles sont des fakes news alors qu’ils n’en sont pas. »

Cette cote de fiabilité n’est qu’une seule d’une série de nouvelles mesures prises par Facebook afin de faire le ménage sur sa plateforme. La compagnie n’a pas connu une très bonne année jusqu’à maintenant, depuis que des recherches ont montré que les données de plusieurs millions d’utilisateurs avaient été usurpées par Cambridge Analytica et que Facebook avait été la plateforme de choix pour l’ingérence russe dans les élections américaines de 2016.

Billy Eff est sur internet ici et .

Plus de VICE
Chaînes de VICE