Facebook nous rappelle que les algorithmes sont trop tendres pour Internet

Laissée seule aux commandes de la section « Tendances », l’IA de Facebook a fait n’importe quoi, diffusant notamment une vidéo d'un mec en train de se masturber dans un McChicken.
7.9.16

Cette semaine, en cherchant « Facebook » dans votre moteur de recherche habituel pour vous connecter au service, vous avez peut-être pu constater de drôles de résultats. Il y était question, à première vue, du réseau social, d'une présentatrice de Fox News, de l'assassinat de Kennedy et d'un type ayant apparemment eu la ravissante idée de se filmer pendant un coït solitaire avec un sandwich au poulet. Autant de thématiques qui, à première vue, semblent bien difficiles à relier entre elles. Pourtant, la semaine dernière, quelqu'un y est bien parvenu. Et ce quelqu'un n'avait rien d'humain. Pour reprendre l'histoire à son origine, il faut remonter à mai dernier : le 10, le site américain Gizmodo publie le témoignage d'un ex-employé de Facebook, qui assure que l'entreprise « oublie » certains articles, notamment ceux qui la critiquent, et supprime carrément du fil d'actualité des posts à tendance droitière conservatrice.

Publicité

Au cœur du scandale : l'option « Tendances » (trending topics), un petit enclos en haut à droite de la page d'accueil mis en place aux Etats-Unis depuis 2014 (et toujours pas en France) qui, à la manière de Twitter, recense les sujets qui font l'actu et propose des liens vers des articles qui les traitent. Immédiatement questionné (à raison) sur ses méthodes de sélection des articles lors du lancement du service, Facebook s'est toujours retranché derrière son algorithme, en clamant que la machine choisissait seule les articles et mots-clés à mettre en tête de gondole en fonction des sujets les plus discutés sur le réseau. Manque de pot, la source de Gizmodo, un employé qui en a visiblement gros sur le coeur, fournit non seulement un témoignage du contraire mais amène avec lui un paquet de documents internes pour le prouver, que le Guardian publie le 12 mai. On découvre donc l'existence d'une équipe éditoriale « Tendances » composée d'anciens journalistes, dont le boulot est à la fois d'entraîner l'algorithme à différencier les véritables infos des hoax ou des sujets triviaux (en gros, faire de la veille journalistique), de le surveiller du coin de l'œil et de rattraper le coup quand il fait n'importe quoi. Le tout en suivant une série de règles éditoriales et déontologiques, qui expliquaient aux modérateurs quelles sources privilégier, comment hiérarchiser les sujets et quel type d'info identifier comme suspecte… comme dans toute entreprise de presse. Comme l'écrit le quotidien, « les lignes directrices montrent une intervention humaine – et par conséquent des décisions éditoriales - à chaque étape » de l'opération. Oups.

Megyn Kelly et #McChicken, propagande et mauvais goût A la suite de l'article du Guardian, alors que les conservateurs en remettent une couche pour dénoncer une censure de Facebook au profit des démocrates, le réseau met à jour sa charte éditoriale et limite le rôle de ses curateurs en expliquant que les contenus sélectionnés par l'algorithme sont seulement vérifiés par des employés humains avant d'être publiés. Tom Stocky, le responsable de la rubrique, se justifie en expliquant que l'intervention humaine avait uniquement pour mission « de laisser de côté les sujets doublons ou « poubelles », les hoax, ou les sujets sans sources suffisantes »… comme ceux pondus par les sites de droite ultra-conservateurs à la Breitbart, spécialistes de la propagande sur réseau social. Pendant ce temps, le débat atteint le Sénat américain et se transforme en (nécessaire) questionnement sur l'influence des géants de la technologie, qui contrôlent la diffusion des contenus dans l'impunité la plus totale, sur notre accès à l'information. Petit à petit, alors que les vacances estivales s'installent, le débat s'essouffle, tandis que Facebook conclut qu'il n'a détecté « aucun biais systématique » chez ses employés. Mais le 26 août, sans prévenir, le réseau retourne sa veste et annonce de nouveaux changements dans le système : l'équipe éditoriale (une quinzaine d'employés) est virée sans ménagement, raconte Quartz, et remplacée par une équipe d'ingénieurs, histoire de dissiper les doutes quant à la neutralité des contenus.

Le 27 août, l'algorithme est donc théoriquement seul aux commandes de l'outil « Tendances ». Et commence immédiatement à partir en vrille. Le 29, la catégorie trending topics inclut un lien (SFW) vers la sordide vidéo d'un type en train d'utiliser un McChicken comme outil masturbatoire, accompagné du hashtag #McChicken ; le lendemain, pendant plus de huit heures, la machine met en avant une histoire abracadabrantesque en provenance directe de sites conservateurs radicaux dans laquelle Megyn Kelly, égérie controversée de Fox News, aurait été virée de la chaîne après avoir « trahi » et apporté son soutien à Hillary Clinton. Les deux infos sont totalement fausses, et ce ne sont que les plus édifiantes des erreurs commises par l'algorithme durant ses trois premiers jours de boulot en tant que curateur de contenu. Eût-il été humain, l'employé de Facebook aurait été viré sur-le-champ. Depuis son petit exploit, le module « Tendances » est resté relativement calme, ce qui laisse penser que Facebook a redonné les rênes à des employés humains en essayant de faire profil bas. Le temps pour la presse américaine spécialisée d'essayer de comprendre ce qu'il s'est passé.

Publicité

*Logs on Twitter*
Me: Lol why is McChicken trending?
*Sees video*
Me: Steve PatrickAugust 28, 2016

Facebook, le média qui n'assumait pas de faire du journalisme

Comme nous l'explique Facebook lors de son post du 26 août, quelques heures avant de remplacer son équipe éditoriale par un crew d'ingénieurs, l'algorithme a pour but de faire remonter, de manière personnalisée, les sujets qui ont récemment connu un pic de popularité sur Facebook et sur une liste de médias identifiés comme légitimes par son équipe éditoriale. Premier problème : Facebook est un dépotoir à contenus viraux débiles, que les utilisateurs s'échangent entre eux au nom du LOL sans jamais y voir une quelconque plus-value informative. Zuckerberg et ses collègues voient peut-être leur réseau comme une plateforme d'échange de savoir au sein de laquelle tout le monde lit, partage et commente des articles de 40.000 signes du Monde Diplomatique, mais la réalité ressemble malheureusement plus souvent à la vidéo d'une sodomie de McChicken accompagnée d'emojis horrifiés. Corréler l'importance d'une information à sa popularité sur les réseaux sociaux (d'autant que la viralité est auto-réalisatrice) est d'une naïveté presque touchante de la part de Facebook.

A moins qu'il ne s'agisse d'une manière délibérée de refuser l'étiquette de média, ce que le réseau clame aussi fort qu'il le peut depuis le premier scandale de Gizmodo, en montrant bien que personne n'est aux commandes de la rubrique et qu'elle reflète sans filtre l'activité du site. Quand bien même, Facebook est au courant des (inquiétants) chiffres : selon un sondage du Pew Research Center, 63% des Américains s'informent grâce à son fil d'actualité, et la moitié des millennials le considèrent comme la source d'informations « la plus importante ». Impossible, dans ces conditions, de nier faire de l'information, même à son corps défendant.

Publicité

Pour Facebook, le dilemme est cornélien, d'autant que l'entreprise semble condamnée à la critique quoi qu'elle fasse : lorsqu'elle engage des journalistes pour modérer les contenus mis en avant, elle est immédiatement accusée de partisanisme ; lorsqu'elle laisse son algorithme refléter les goûts de sa communauté, elle est raillée pour son amateurisme. Comme l'explique Wired dans un long coup de gueule, tout le monde se plante dans cette histoire : Facebook, en premier lieu, qui a commis l'erreur de nous présenter sa section « Tendances » comme le produit d'une machine, imperméable à la subjectivité éditoriale ; le public, ensuite, qui voit une manipulation là où Facebook fait finalement la même chose que toute entreprise de presse, finit par ne plus savoir s'il préfère des contenus sélectionnés par des journalistes ou des contenus « neutres » mais carrément dégueulasses et réclame tout et son contraire. En 2014, déjà, Facebook était critiqué pour « ne pas avoir assez fait remonter » les émeutes de Ferguson, raison pour laquelle l'entreprise avait ensuite… embauché des journalistes. La quadrature du cercle. Et si l'erreur était tout simplement de trop faire confiance aux algorithmes ?

L'algorithme, un humain comme les autres

Dans un article à la chute presque extra-lucide, paru lors de l'annonce du remplacement de l'équipe éditoriale, Quartz concluait par ces mots : « Avec la supervision humaine disparue et un algorithme non testé aux commandes, le module « Tendances » va probablement connaître d'autres mésaventures en chemin et peut-être même des désastres dans un futur proche. » Le lendemain, la section « Tendances » offrait au monde la vidéo du McChicken, concrétisant magistralement la prophétie. Et il fallait s'y attendre, explique Wired : « tout sur Internet est un mélange d'automatisation et d'humain », et personne ne semble pourtant vouloir le reconnaître. En l'état actuel de notre progrès technique, les IA sont de super-calculatrices bien trop débiles pour faire la différence, dans la jungle d'Internet, entre un hoax et une véritable info – à vrai dire, même certains êtres humains ont encore du mal-, ou tout simplement entre le décent et l'indécent. Demander à un programme d'effectuer un travail de sélection et de hiérarchisation de l'information (un travail de journaliste, quoi), lorsque l'on sait qu'inculquer le bon sens à une machine est l'un des grands défis de l'intelligence artificielle, est irréaliste du strict point de vue technique. Pire, lui demander de rester « neutre » en le faisant est un non-sens total : la neutralité est un leurre qui n'existe qu'en l'absence de choix, qu'on soit un programme informatique ou un être humain. Et comme ce sont des êtres humains qui composent les algorithmes, ils le font fatalementen leur transmettant au passage leur subjectivité ontologique. Et une fois ce « biais » implanté dans les codes sources, il est extrêmement difficile de le faire disparaître, peu importe la capacité d'apprentissage du programme, comme l'explique une étude de l'université de Princeton. Un programme est forcément le reflet de ses créateurs.

Tay, l'IA adolescente lancée par Microsoft en mars dernier, qui était devenue nazie en moins de 24h.

Qu'on se le dise : non seulement les algorithmes, même les réseaux neuronaux les plus avancés, sont encore trop basiques pour prendre des décisions de bon sens, mais ils sont bardés de préjugés implantés (consciemment ou non) par leurs créateurs –et oui, au cas où vous vous demanderiez, les algorithmes racistes, xénophobes et sexistes sont déjà parmi nous, comme Microsoft a déjà pu le constater. N'en déplaise à Google et Facebook, qui contribuent à entretenir l'idolâtrie illusoire d'une intelligence artificielle parfaitement objective, en automatisant de plus en plus leurs services et en nous vendant périodiquement les derniers exploits de leurs réseaux neuronaux.

Pour reprendre la conclusion de Wired, le débat « humain VS algorithme » est donc stérile, car il ne correspond à aucune réalité pratique de ce qu'est Internet. En l'état, tant que nous ignorerons comment inculquer aux machines le sens du discernement, l'intelligence artificielle ne pourra fonctionner sans supervision. Si le public refuse de l'accepter, Facebook ferait mieux d'assumer une approche libertaire en laissant l'IA faire comme elle veut (comme Twitter, qui se fout royalement de poster des hoax toutes les semaines ou de modérer n'importe comment), trouver un compromis en créant deux rubriques parallèles « avec » et « sans » aide humaine, ou s'éviter des maux de tête et fermer pour de bon la section « Tendances ». Jusqu'à ce que son programme comprenne enfin qu'inciter des centaines de millions de gens à regarder un type violer un sandwich au poulet, c'est mal.