moderation

Une brève histoire de la censure sur YouTube

YouTube subit des injonctions à la censure depuis sa naissance. Le problème, c'est qu'il a beaucoup de mal à les gérer correctement.

par Jillian York
27 Mars 2018, 8:10am

Image : Shutterstock

YouTube s’est attiré bien des remontrances pour ses décisions de modération au cours des derniers mois. Comme toutes les autres plateformes d’hébergement de contenu, l’entreprise est rarement contrainte à la suppression de certains types de vidéos par la loi américaine. De la même manière, elle ne peut pas être tenue responsable de la plupart des images qui sont diffusées grâce à ses services. Son pouvoir sur l'expression de ses utilisateurs est considérable.

YouTube est né au milieu des années 2000, pendant le boom des blogs. À l’époque, il était révolutionnaire : soudain, n’importe qui pouvait partager ses propres vidéos avec le monde entier en un instant. Ses deux créateurs, Chad Hurley et Steve Chen, encore vingtenaires à l’époque, ont accepté de le vendre à Google pour 1,65 milliard de dollars un an seulement après son lancement. Une somme colossale pour l’époque. En 2006, TIME « vous » a désigné personne de l’année et déclaré YouTube « plateforme du peuple ». Le magazine le croyait capable de permettre la « construction d’un nouveau genre de compréhension internationale ». Il semblait alors en marche vers les plus hauts sommets.

Et puis, presque du jour au lendemain, YouTube a dû prendre des décisions difficiles concernant les types de contenu qu’il devait ou pouvait légalement héberger. Le Digital Millenium Copyright Act (DMCA) et la section 230 du Communication Decency Act (« CDA 230 »), deux des lois sur la régulation du contenu en ligne les plus importantes des États-Unis, avaient été votées seulement dix ans auparavant et n’avaient pas encore été appliquées de manière significative à la sphère internationale. Toutes deux allaient se heurter à YouTube et aux plateformes qui ont transformé la manière dont les internautes communiquent et partagent leurs créations.

YouTube a connu ses premières batailles peu de temps après son acquisition par Google. En 2006, la Société japonaise des droits des auteurs, des compositeurs et des éditeurs a obtenu la mise hors-ligne de plus de 30 000 contenus par le biais d’une requête DMCA, un genre de mise en demeure pour atteinte aux droits d’auteurs. Peu de temps après, la chaîne de télévision Comedy Central a déposé plainte pour atteinte au copyright et fait supprimer ses contenus de la plateforme.

Pendant que l’entreprise bataillait avec les entreprises et les artistes, de nombreux acteurs politiques utilisaient ses services pour attirer l’attention des internautes sur des problèmes locaux. Au Maroc, par exemple, le désormais célèbre « Targuist sniper » a déclenché un débat national sur la corruption en diffusant des vidéos d’agents de police demandant des pots-de-vin à des automobilistes. En Tunisie, des activistes ont utilisé YouTube pour partager des témoignages vidéo d’anciens prisonniers politiques. Les gouvernements des deux pays ont riposté en bloquant YouTube. En 2008, six pays avaient déjà censuré la plateforme, temporairement ou définitivement : le Brésil, la Chine, la Syrie, la Thaïlande, le Pakistan et la Turquie.

Menacé d’inaccessibilité dans de nombreux autres pays, YouTube avait alors décidé de s’opposer plus vigoureusement à certains types de contenus. L’une des premières décisions (controversées) de l’entreprise en ce sens fût la suspension du compte de l’Égyptien Wael Abbas. Abbas, un activiste anti-torture et blogger récompensé, avait uploadé une centaine de vidéos consacrées aux violences policières dans son pays pour attirer l’attention de la communauté internationale. Quelques semaines plus tard, prenant le contrepied des rumeurs qui liaient sa décision à des pressions du gouvernement égyptien, YouTube avait indiqué qu’il avait supprimé les vidéos suite à de nombreuses plaintes des utilisateurs.

La suspension d’Abbas a largement été perçue comme de la censure, à juste titre. Pourtant, la même année, après avoir été accusée d’avoir profité d’images d’enfants en train d’être battus, l’entreprise a indiqué par l’un de ses porte-paroles que la censure n’était pas son rôle.

En 2008, YouTube a apporté un changement majeur à ses règles d’utilisation en mettant en place un système de triple offense pour les contrevenants (hors entorses aux copyright). Tous les internautes qui se rendaient coupables d’une première offense voyaient leur ardoise effacée après six mois sans deuxième offense. En 2010, YouTube a donné la possibilité aux utilisateurs de contester ses décisions - et, ce faisant, assis son rôle d’arbitre du bon goût.

La même année, le sénateur américain Joseph Lieberman a demandé à YouTube de se débarrasser des vidéos sur lesquelles apparaissaient des logos d’Al-Qaïda ou d’autres groupes terroristes connus. La plateforme a refusé au motif que ces vidéos ne contrevenaient pas à ses règles sur la violence ou le contenu haineux. Plus tard, elle a décidé de changer ses conditions d’utilisation pour interdire « l’incitation à la violence ».

Au mois d’octobre 2010, un humoriste britannique controversé, Pat Condell, a téléversé une vidéo intitulée « Welcome to Saudi Britain » (« Bienvenue en Grande-Bretagne Saoudienne ») sur YouTube. Il s’y moquait des musulmans britanniques tout en dénonçant la « corruption » du régime saoudien. L’entreprise a désactivé la vidéo et envoyé un avertissement à Condell en invoquant ses règles de communauté, sans indiquer laquelle il avait brisé pour autant.

Les efforts d’arbitre de la liberté d’expression de YouTube ont été mis à rude épreuve lors du printemps arabe, un événement perçu au travers de ses services par les internautes du monde entier. Coincée entre les vidéos de manifestations violentes et les tentatives de censure étatiques décidées en conséquence, la plateforme n’a eu d’autre choix que revoir son approche de la modération.

« En temps normal, ce genre de violence violerait nos directives communautaires et nos règles d’utilisation et nous devrions les supprimer, avait déclaré Olivia Ma, alors directrice des informations de YouTube, en mai 2011. Cependant, l’une des closes de nos directives communautaires créé une exception pour les vidéos de nature éducative, documentaire ou scientifique… Dans ces cas précis, nous faisons des exceptions car nous comprenons que ces vidéos ont une valeur informative véritable. »

Croissance rapide

À la fin de l’année 2011, YouTube comptait déjà quelques 800 millions d’utilisateurs (contre plus d’un milliard aujourd’hui) et était considéré comme le troisième site le plus visité du monde par Alexa. L’entreprise était de plus en plus acculée entre les objectifs et les valeurs de nombreux acteurs concurrents. Pour ne rien arranger, de nombreux gouvernements menaçait le site de blocage pour obtenir des suppressions de contenus.

En 2012, Google a relevé une augmentation « alarmante » du nombre de demande de suppression de contenus venues de gouvernements, et notamment du gouvernement des États-Unis. Une bonne partie de ces demandes concernaient du contenu YouTube.

C’est à peu près à ce moment-là que la politique de la plateforme est devenue beaucoup plus inquiétante. Quelques semaines après l’attaque du complexe diplomatique américain de Benghazi, en Libye, YouTube a déclenché une controverse d’envergure. Les services de renseignement américains affirmaient que The Innocence of Muslims, un court-métrage anti-Islam produit par un Chrétien d’origine américano-égyptienne qui avait été lancé sur la plateforme, était partiellement responsable de l’attaque. Après un coup de téléphone de la Maison Blanche, YouTube a bloqué la vidéo en Libye et en Égypte, où des manifestations commençaient à se former (en dépit du fait que le court-métrage avait déjà été montré à la télévision égyptienne).

Cette décision, qui a été prise sans l’avis des gouvernements égyptien et libyen ou d’organisations civiles de ces pays, a été suivie par des demandes de suppression de la vidéo venues d’autres pays comme l’Arabie saoudite, la Malaisie et le Pakistan. Étrangement, YouTube a répondu favorablement à certaines de ces demandes et en a refusé d’autres, notamment celle du Pakistan - ce qui a abouti à son blocage général dans le pays.

Quand la guerre de Syrie s’est enflammée et que l’État islamique s’est imposé comme une force majeure au Moyen-Orient, les plateformes sociales ont adopté un rôle encore plus paternaliste, YouTube compris. Les appels à la censure des contenus violents et haineux étaient toujours plus nombreux et reçus favorablement par le site. Sans surprise, cette politique a fini par se retourner contre l’hébergeur.

Un excès de pouvoir ?

La deuxième partie des années 2010 a déjà été marquée par de nombreuses critiques pour YouTube. Ces critiques viennent d'individus qui estiment qu’il ne fait pas assez pour endiguer la propagation des contenus haineux, mais aussi de ceux qui pensent que les mesures de l’entreprise vont trop loin. D’un côté, YouTube a vraiment investi des ressources considérables dans la lutte contre les contenus extrémistes. En 2016, il a automatisé une partie de son processus de modération ; l’année dernière, il a annoncé un plan de « dissimulation » des contenus extrêmes qui ne contreviennent pas à ses règles. L’entreprise a également banni les publicités qui contiennent des messages discriminatoires ou « haineux » et étendu son programme de « trusted flagger » pour inclure des organisations non-gouvernementales de modération de contenus.

D’un autre côté, signalent les critiques de la plateforme, la politique de YouTube a eu un effet comparable à de la censure sur des contenus vitaux, particulièrement sur des vidéos venues du front syrien. Au cours des dernières annés, l’entreprise a censuré des comptes d’information politiquement biaisés mais factuels comme MEMRI, marqué des comptes qui utilisaient des jurons comme inadaptés à la publicité et masqué des contenus LGBTQ+ derrière des avertissements d’âge, même lorsque ceux-ci concernait la défense des droits des personnes queer.

Encore plus récemment, suite à des incidents au cours desquels des dommages bien réels ont été imputés à l’influence de YouTube, l’entreprise a adopté une posture encore plus pro-active. Après la mort de plusieurs jeunes ayant participé au Tide Pod challenge, elle a déclaré qu’elle travaillait à la suppression rapide de vidéos d’individus consommant les petits paquets de lessive. Elle a également banni certains groupes néo-nazis, notamment l’Atomwaffen Division. La tuerie de Parkland, en Floride, l’a poussée à interdir les chaînes dédiées à la démonstration et à la promotion d’armes à feu, mais aussi à s’engager dans la lutte contre les vidéos conspirationistes. Infowars, la chaîne du fameux Alex Jones, a reçu deux avertissements pour propagation de contenus de ce genre depuis. L’avenir nous dira si YouTube est prêt à lui faire parvenir un troisième et dernier avertissement.

Les entreprises comme YouTube subissent une épreuve difficile en 2018. Mises sous pression par des gouvernements décidés à faire disparaître des contenus précis, elles sont contraintes de prendre des décisions de censure qui aboutiront sans aucun doute à plus de censure. En même temps, ces plateformes doivent rendre des compte aux annonceurs, à leurs actionnaires et, dans une moindre mesure, à leurs propres utilisateurs. Difficile de trouver un équilibre entre toutes ces velléités souvent antagonistes.

C’est à cette intersection que les puissants de la tech se sont loupés, et c’est pour ça que leurs tentatives d’apparaître neutre ont été accueillies par des rires. Que cela plaise à ses dirigeants et à ses décideurs ou pas, YouTube est un arbitre du discours et pas une simple entreprise de la tech. De fait, ses décisions reflètent ses valeurs mais aussi celles de ceux qui créent et appliquent ses règles. Mais au fait, que sont ces règles ? On le cherche encore.