J’ai demandé au big data de quoi mon avenir sera fait

À en croire certains algorithmes prédictifs, je ne créerai pas de start-up et je ne m’inscrirai pas dans une salle de sport dans les années à venir.

|
04 Mai 2017, 5:00am

Photo via Flickr

Une jeune femme qui n'a rien à voir avec l'auteure et n'est probablement pas en train d'étudier des algorithmes prédictifs pour en savoir plus sur son avenir. Photo via Flickr.

Il est aujourd'hui tout à fait possible de prédire le futur en analysant les données du passé et du présent. C'est du moins ce qu'affirme la myriade d'entreprises commercialisant leurs algorithmes dans le domaine de la politique, des paris sportifs, de la justice, de la criminalité ou de la santé. Toutes estiment pouvoir déduire qui a la plus de chance de gagner un match, où des émeutes risquent le plus de se produire ou quelle maladie vous êtes susceptible de contracter dans le futur. Oubliez les boules de cristal, oubliez les questionnements existentiels, oubliez le mystère : les algorithmes prédictifs sont là pour vous. Ces formules mathématiques analysent des quantités astronomiques de données, mêlées à des variables afin d'obtenir une prédiction concernant une situation précise. Par exemple, un algorithme développé par l'USC Viterbi School Of Engineering, en se basant sur le son de la voix des couples en thérapie, estime à 80 % de fiabilité le futur de ces mêmes couples, dans les cinq ans à suivre.

Je me suis demandé ce qu'il était de mon cas. Qui serai-je dans cinq ans ? À quel âge vais-je mourir ? De quoi ? Pourquoi m'encombrer de terrifiants mystères s'il suffit d'avoir la bonne formule mathématique pour trouver les réponses ? Évidemment, ma quête s'est révélée un brin plus complexe – et elle ne m'a délivrée d'aucune angoisse.

Premièrement, parce que ces petites formules mathématiques valent une fortune et qu'aucune entreprise n'a accepté de me les faire essayer pour satisfaire ma simple curiosité. La start-up de stratégie politique LMP, par exemple, calcule quels sont les bureaux de vote où un candidat a le plus d'électeurs à gagner. Emmanuel Macron s'est offert leur logiciel pour sa pré-campagne En Marche ! pour un prix « à six chiffres ». « Dites-moi ou quelqu'un habite, je vous dirai pour qui il vote », m'a assuré son P.-D.G. lors de notre rencontre. « Alors, j'habite là, dites-moi pour qui je vais voter », ai-je naïvement demandé. Aucune réponse. Pareil du côté de Genepred, une start-up qui a mis au point un algorithme pour détecter les dispositions à certains cancers. « On peut faire un test ? Comment ça marche ? », ai-je demandé, un peu tremblante, pas sûre d'avoir vraiment envie de connaître la réponse.

Bien entendu, j'ai essuyé un autre râteau. On touche là du bout du doigt un des enjeux essentiels des algorithmes : ils sont partout autour de nous, mais personne ne veut expliquer comment le sien fonctionne – concurrence oblige. La CNIL vient ainsi de lancer une mission sur les enjeux éthiques des algorithmes et leur transparence, histoire que les citoyens puissent davantage savoir ce qui se trame dans les cerveaux de nos nouveaux amis les intelligences artificielles. Que par exemple quand une décision concernant votre futur est prise à l'aide d'un algorithme, que vous soyez au moins mis au parfum. Des lycéens qui voient leur choix d'orientation – ou « admission post-bac » – tranchés par un algorithme viennent à peine d'obtenir le droit de savoir comment ce dernier est construit.

De mon côté, mon orientation post-bac est réglée depuis longtemps, et j'en sais peut-être plus sur les algorithmes, mais toujours rien sur mon futur. C'était avant de recevoir l'aide de Hang Do Thi Duc. Cette jeune femme habite à New York et est la co-fondatrice de Data Selfie, une extension Chrome qui permet de visualiser toutes les données que vous confiez à Facebook. Et à partir du temps que je passe devant chaque publication, des commentaires que j'écris, des likes ou « wahou » que je dépose, à partir des pages que j'ai aimées, je vais en apprendre long sur mon futur.

Déception, d'abord : je ne suis visiblement pas près de créer une start-up dans les années qui viennent. Ni de m'inscrire dans un club de sport. Je ne vais pas non plus manger souvent au restaurant. Ou faire de l'escalade, du canoë, ou toute autre « activité de plein air ». Comment vais-je occuper le temps qu'il me reste sur Terre ? Je vais probablement faire chauffer ma carte bleue (je vais payer de moins en moins en cash, visiblement) dans des « achats impulsifs destinés à me faire plaisir ». Ces prédictions sont utilisées ensuite pour me catégoriser et me proposer de la publicité ciblée. Qu'un annonceur n'aille pas perdre son précieux budget en me proposant des mousquetons d'escalade ou des adresses de bons restaurants quand visiblement, je déteste ça.

Ce qui est intéressant ici, c'est de savoir comment ces prédictions sont réalisées. « On ignore comment fonctionnent les algorithmes de Facebook, car ils sont leur propriété intellectuelle exclusive », explique Hang Do Thi Duc. Encore des algorithmes secrets. « Mais on peut imaginer à peu près comment ils fonctionnent en utilisant deux intelligences artificielles, IBM Watson et Apply Magic Sauce. » IBM Watson est une intelligence artificielle qui scanne tout ce que vous écrivez et en déduit des traits de votre personnalité. À partir de ces mêmes traits de personnalité, cette petite maligne déduit votre comportement futur. Elle utilise le modèle des Big Five pour définir votre personnalité. Ce modèle a été conceptualisé en psychologie dans les années 1980 et évalue chaque personnalité à l'aune de cinq critères : l'Ouverture, la Conscienciosité, l'Extraversion, l'Agréabilité et le Neuroticisme (ou stabilité émotionnelle). Pour faire court, on l'appelle le modèle OCEAN. Ce modèle fait actuellement polémique car c'est celui qui aurait été utilisé par Cambridge Analytica, pour délivrer des messages ultra-individualisés pro-Trump aux électeurs américains sur Facebook.



Bref, à en croire IBM Watson, je ne monterai pas de start-up parce que ma personnalité n'est qu'à 47 % similaire à celle d'un leader. OK. Je ne le prends pas mal. J'ai comparé les résultats avec ceux obtenus par une autre intelligence artificielle, Apply Magic Sauce, développée par l'Université de Cambridge. Là aussi, il s'agit de s'offrir un petit voyage dans le fin fond de votre cervelet, mais en scannant tous vos likes Facebook. Apply Magic sauce m'apprend que je vais « fort probablement voter à gauche au second tour ». Parce que j'ai liké la page du New York Times, d'Urban Outfitters et d'Arianna Huffington, et que statistiquement parlant, les personnes ayant liké ces combinaisons de pages votent à gauche.

Pour ce qui est de ma vie amoureuse, aucune intelligence artificielle n'a su me répondre. Apply Magic Sauce me dit juste qu'il y a 52 % de chances que je finisse célibataire. Du coup, je me suis tournée vers un instrument du siècle dernier : un livre. Datacyclism, Qui sommes-nous quand personne ne nous regarde, écrit par l'un des fondateurs d'OK Cupid, Christian Rudder. Il y établit un constat sinistre – les hommes âgés de 20 à 40 ans ne voudraient sortir qu'avec des jeunes filles de 24 ans maximum.



« Ce n'est pas un sondage, c'est un constat érigé en observant des dizaines de millions de comportements en ligne. Une femme cherche, quel que soit son âge, à peu près un homme de son âge. Pour les hommes, une femme est au top au début de sa vingtaine. C'est tout. Les femmes les plus likées par les hommes ont toujours entre 20 et 24 ans », écrit l'auteur du livre, « même par les hommes de plus de 40 ans. Dès qu'elle est en âge légal de boire de l'alcool, une fille est déjà trop vieille ». Sans complexe, écrit noir sur blanc. Mais à en croire l'analyse de ma personnalité faite par Apply Magic Sauce, je ne suis pas concernée par ce souci puisque je suis un homme. Pour quelle raison ? Notamment parce que j'ai liké la page « Mathématiques ». OK. Bonjour le sexisme.

C'est là aussi le petit souci de nos amis les algorithmes prédictifs : ces derniers se basent sur la réalité présente pour effectuer des prédictions. Et comme la réalité n'est pas tout à fait égalitaire ni parfaite, ils tendent donc à reproduire des inégalités. Aux États-Unis, une enquête ProPublica a ainsi démontré que les algorithmes utilisés par la justice pour prévoir la récidive défavorisaient les noirs. Où s'arrête la prédiction, où commence la prophétie autoréalisatrice, voire la manipulation ? Ainsi s'achève mon aventure avec le big data.

Tout ça me colle le vertige, pensais-je, en retirant du liquide pour effectuer mes prochains achats. Ressentant comme une adolescente le besoin viscéral de faire précisément l'inverse de ces prédictions. Comme pour me convaincre que je suis encore la seule à décider de mon avenir.


Judith est sur
Twitter.