Facebook sta diventando un organo politico
via Shutterstock

FYI.

This story is over 5 years old.

Facebook sta diventando un organo politico

Se è vero che Facebook altera la notizie che contribuisce a diffondere, allora è necessario chiedere al social network un senso di responsabilità politica.
10.5.16

La scorsa settimana Micheal Nunez, technology editor di Gizmodo, ha inaugurato un'inchiesta sul ruolo di Facebook nel mondo del giornalismo con una serie di interviste piuttosto eloquenti ad alcuni ex-dipendenti del reparto Media del social network di Mark Zuckerberg.

Inizialmente partita in sordina, l'inchiesta è esplosa nella giornata di ieri, quando è stato pubblicato il second report sulla vicenda, questa volta incentrato sull'apparente tendenza di Facebook a "sopprimere le news relative al movimento conservatore."

Pubblicità

Non si tratta esattamente di una novità: era semplice immaginare che un titano della mole di Facebook mettesse mano al flusso di notizie amplificato dal social network—Quello che ancora mancava, però, erano una serie di fatti presentati nero su bianco: ora ce li abbiamo, e grazie ai dettagli emersi dai due reportage di Michael Muniz è possibile comprendere meglio quanto Facebook sia ormai diventato, volontariamente o meno, un vero e proprio organo politico.

TRENDING NEWS

L'oggetto dell'inchiesta sono le 'Trending News' di Facebook: non ancora disponibili in Italia, negli Stati Uniti da ormai qualche anno il social network mette a disposizione degli utenti una sezione della propria homepage—Il riquadro in alto a destra di Facebook, uno degli spazi web più ambiti in tutto internet—per indicare quali dovrebbero essere le 'notizie del giorno' che stanno venendo discusse dagli utenti.

Come molti altri aspetti di Facebook, l'impressione iniziale era che le 'Trending News' fossero gestite da un algoritmo che rilevava automaticamente le notizie più condivise e dibattute. Indubbiamente, le informazioni fornite da Facebook non lasciano spazio ad approfondimenti—Ma a quanto pare non è così: il progetto è stato accuratamente tenuto segreto e gestito dietro un folta cortina di fumo, e oggi la notizia è che le Trending News di Facebook sono gestite da un vero e proprio dipartimento di giornalisti che si occupa notte e giorno di selezionare le notizie e inserirle all'interno della lista.

Il progetto è stato accuratamente tenuto segreto e gestito dietro un folta cortina di fumo.

Il progetto Trending News ha, nel tempo, assunto importanza sempre maggiore per diversi motivi: prima di tutto, ormai per qualunque testata giornalistica del mondo, il traffico proveniente da Facebook è fondamentale, e la possibilità di essere inseriti in quel riquadro corrisponde a un privilegio non solo in termini di numeri duri e puri (i click: il motore immobile del giornalismo 3.0), ma anche in senso reputazionale—L'utente, che interpreta il social network come una piattaforma neutrale, tenderà a fidarsi delle testate presenti nelle Trending News.

Il progetto, però, è anche un punto fondamentale del piano di crescita di Facebook. Come segnalato da Micheal Nunez su Gizmodo, "Mark Zuckerberg non ha mai nascosto il suo obiettivo di voler monopolizzare il panorama della distribuzione di news online," si legge in apertura al primo report dell'inchiesta.

Pubblicità

"Quando le notizie saranno veloci e accessibili come tutti gli altri aspetti di Facebook, naturalmente le persone tenderanno a leggerne molte di più," ha detto Mark Zuckerberg durante una sessione di domande e risposte a giugno 2015. Inoltre, la recente decisione di rendere disponibili a tutte le testate la funzione Instant Articles di Facebook e gli investimenti mirati a coinvolgere maggiormente i grandi giornali nell'utilizzo delle nuovi funzioni del social network rendono chiaro in che misura Facebook voglia monopolizzare il mercato della distribuzione di notizie.

Nel frattempo, sono ormai mesi (se non anni) che l'industria dell'informazione non fa altro che urlare all'apocalisse, "Facebook ha divorato i media", ha affermato Wired lo scorso aprile, portando a sostegno il dato presentato da Mark Zuckerberg durante l'annuale keynote F8: ogni settimana 600 milioni di persone leggono le news su Facebook.

FILTER BUBBLE

È solamente alla luce di queste premesse che diventa chiaro, quindi, quanto fondamentale sia la trasparenza del social network nella gestione del meccanismo di diffusione delle notizie, e i dubbi erano presenti anche prima dell'inchiesta di Munez.

Il fenomeno della filter bubble è noto ormai da anni, e consiste nella tendenza delle grandi piattaforme di internet a sfruttare sistemi algoritmici per filtrare i contenuti a cui gli utenti vengono esposti per fornire loro solamente quei post e quei contributi a cui sicuramente saranno interessati.

Pubblicità

Sulla carta dovrebbe servire a migliorare l'esperienza delle persone su una rete ormai satura di informazioni, ma nella pratica si tratta dell'ennesima tecnica sfruttata per convincere i brand e le testate a pagare le piattaforme che permettono loro un potenziale così ampio di esposizione diretta con gli utenti. Per capirci: se hai una pagina Facebook e non paghi per sponsorizzare i post, ci sono ottime probabilità che nessuno vedrà ciò che pubblichi.

"Questi algoritmi di classificazione consistono in reti neurali e sistemi di machine learning: imparano a riconoscere delle forme secondo una loro interpretazione del mondo. Ogni singolo dato, è utilizzabile in senso utilitaristico—gli estremi di questo mercato operano all'interno della bubble; cercano di capire chi siamo per darci quello che vogliamo, quello che, secondo loro, è rilevante," mi ha spiegato qualche tempo fa Salvatore Iaconesi durante un'intervista. "Dubito, però, che si rendano conto del concetto di diversità culturale che la bubble rischia di compromettere. Quando finisce la diversità gli ecosistemi muoiono: è vero tanto per piante e animali quanto per le nostre culture."

Appena una settimana fa, Emily Taylor, esperta di internet governance, aveva anticipato durante un'intervista il caso dell'inchiesta di Gizmodo, "Una delle difficoltà che non riesco a superare nell'ambito dell'attuale situazione è che gli algoritmi non sono neutrali, e non sono il prodotto di una macchina. Sono progettati da esseri umani—e integrano i pregiudizi, gli ideali e il background culturale di queste persone."

Pubblicità

IL SISTEMA FACEBOOK

Se fino a poco tempo fa i dubbi che erano sorti riguardavano la neutralità robotica dei sistemi che regolano le interazioni su Facebook, questa inchiesta cambia completamente le carte in tavola: il problema non è l'algoritmo, ma gli esseri umani che lo progettano.

Secondo le interviste effettuate da Nunez, la dozzina di giornalisti che si dedica a Trending News è un gruppo di contractor, stipato nel seminterrato degli uffici newyorchesi di Facebook, "Per due mesi e mezzo abbiamo lavorato in una sala conferenze, ed era chiaro, ai tempi, che Zuckerberg avrebbe potuto smantellare l'intero progetto da un momento all'altro," ha spiegato a Nunez uno degli ex-news curator di Facebook—Tutte le fonti sono state mantenute anonime nel corso dell'inchiesta per "paura di violare gli accordi di non divulgazione che avevano firmato con Facebook."

Facebook is an increasingly powerful media entity and it needs to own up to that via Mathew Ingram9 maggio 2016

Il report cita anche dichiarazioni piuttosto forti, "Era un lavoro degradante—Non eravamo trattati come individui, ma come robot," e sono proprio queste frasi ad aver scatenato alcune delle critiche più accese nei confronti dell'inchiesta: per molti, infatti, non è e non deve essere una novità che il lavoro del giornalista sia ormai particolarmente degradante—Si tratta di un segnale dello stato dell'industria. Credo, però, che l'importanza di queste frasi sia da ritrovare non tanto nelle (giuste o meno) lamentele nei confronti delle condizioni di lavoro, quanto più nelle parole usate: perché Facebook ha bisogno di "trattare le persone come robot?"

Pubblicità

ALLENARE L'ALGORITMO

Il report parla di come, secondo gli ex-curator, nel corso del tempo il lavoro all'interno del dipartimento diventasse sempre più stressante, "Condividevamo documenti per verificare quanto velocemente ognuno di noi stese lavorando," spiega uno di loro, "Hanno anche provato a incoraggiare delle competizioni tra uffici per aumentare la produttività.

Ancora, si parla anche di come Facebook tentasse di oscurare il dipartimento ai riflettori pubblici—I capi uffici ricordavano ai dipendenti di non segnalare da nessuna parte che stessero lavorando per Facebook, "Credo volessero mantenere un'aura di magia attorno al progetto: nel nostro lavoro dovevamo essere quanto più impersonali possibile," racconta una fonte. "È per questo motivi che i titoli che appaiono in Trending News sembrano così distaccati e impostati."

"Credo volessero mantenere un'aura di magia attorno al progetto: nel nostro lavoro dovevamo essere quanto più impersonali possibile."

Come affermato da Munez, è chiaro che questo meccanismo di lavoro fosse attuato nel tentativo di far percepire il progetto come fortemente impersonale, e per dare l'impressione che l'intero sistema lavorasse in modo assolutamente neutrale e apolitico.

Il report menziona anche la costante decrescita degli occupati nel dipartimento, e pondera sul fatto che il lavoro svolto dal reparto non fosse altro che un preludio a una vera e propria automatizzazione totale del sistema—Sembra che il vero lavoro fosse quello di allenare un algoritmo che in futuro gestirà automaticamente questo progetto, "L'hanno praticamente resa una scienza," spiega uno degli ex-curator, "Eravamo schiavi dell'algoritmo."

Pubblicità

Sembra quindi chiaro che, per ovvie questioni di ottimizzazione, l'obiettivo sia quello di smantellare il reparto umano e assegnare il lavoro a un algoritmo che, però, in questo momento sta venendo letteralmente allenato da un gruppo di esseri umani—Come spiegato precedentemente da Emily Taylor, "Mentre gli algoritmi sono spesso tenuti segreti, è possibile capire quali possano essere questi ideali di partenza sulla base del funzionamento degli algoritmi stessi,"—Insomma: apocalisse robot o meno, queste macchine sono create da degli esseri umani, e per questo ereditano da essi tutti i pregi e i difetti.

FACEBOOK È UN ORGANO POLITICO?

Quindi, se Facebook sta allenando un algoritmo per svolgere il lavoro di selezione e distribuzione delle news sulle sue piattaforme digitali, non resta che chiedersi chi siano le persone che lo stanno allenando. È qui che la faccenda si fa inquietante.

"Il dipartimento Trending News è gestito da persone tra i 20 e i 30 anni, la maggior parte delle quali si sono laureato in college Ivy League e scuole private della East Coast come la Columbia University o la New York University," scrive Nunez nel report. "In precedenza hanno lavorato per testate come il New York Daily News, Bloomberg, MSNBC e il The Guardian—Alcuni di loro, dopo aver lasciato Facebook, hanno cominciato a lavorare per il New Yorker, per Mashable e o Sky Sports."

Si tratta di un taglio socio-demografico estremamente definito e portatore di inevitabile influenze culturali e che, per imposizione o meno, non può fare altro che garantire un apporto al lavoro tutt'altro che neutrale. Non sarebbe un problema se il dipartimento Trending News fosse una testata giornalistica vera e propria—Si tratta, invece, di una voragine logica quando ci si rende conto che Trending News si occupa della distribuzione delle notizie, e lo fa attraverso tecniche e su una piattaforma che vengono percepite dai suoi utenti come neutrali e apolitiche. In

"Sceglievamo le notizie che meritavano importanza," spiega uno degli ex-curator, "Non c'era un vero standard per capire quali notizie fossero adatte e quali no: era nostro ruolo deciderlo." I dipendenti del reparto dovevano, in ordine, scegliere quali articoli sarebbero finiti nel riquadro Trending News, scrivere un titolo, scegliere i media di accompagnamento (foto, video, etc) e infine decidere a quale testata avrebbe linkato ognuno di questi articoli.

Pubblicità

Il report menziona una lista di testate consigliate (il New York Times, il Time, Variety, etc) redatta per i dipendenti, e un'altra di testate non consigliate (World Star Hip Hop, The Blaze, Breitbart, etc). Per Facebook non si trattava di esplicita censura, ma solamente di indicazioni—Tra le altre, 'Twitter' doveva essere menzionato solamente come 'social media' in senso più ampio.

È proprio in questo senso che ci si domanda se, a questo punto, Facebook non sia diventato un vero e proprio organo politico con influenza su scala globale.

I curator, però, nei fatti erano in grado di 'disattivare' un trending topic—Il report afferma che i curator intervistati disattivavano determinate notizie ogni giorno e che i curator non ritenevano che queste azioni di 'blacklisting' fossero compiute in un contesto di abuso o di inappropriatezza.

È proprio in questo senso che ci si domanda se, a questo punto, Facebook non sia diventato un vero e proprio organo politico con influenza su scala globale—Pietro Minto, su Prismo, poco tempo fa si chiedeva cosa significherebbe associare Facebook a un'ipotesi di broglio elettorale relativa a Donald Trump.

CENSURA

La seconda puntata dell'inchiesta, però, parla chiaro: nel meccanismo fumoso che regola le Trending News, Facebook indicava la strada per quella che di fatto si trattava di censura. "Secondo un ex giornalista che lavorava al progetto, i dipendenti tendevano a evitare di far apparire nella sezione notizie relative al movimento conservatore," si legge nel report. Da Mitt Romney fino a Rand Paul, passando per i convegni CPAC: queste cose succedevano e venivano discusse su Facebook, ma quanto pare venivano volontariamente esclusive dalle Trending News.

Pubblicità

"I curator venivano istruiti dai superiore a forzare l'inserimento di alcune storie nella sezione, anche se non rispettavano gli 'standard' necessari—Inoltre, si scoraggiava l'inserimento di notizie che riguardavano Facebook stesso," scrive Nunez nel report. A seguito del primo report dell'inchiesta, un ex-curator ha contattato Gizmodo per discutere della tendenza da parte di alcuni curator a omettere volontariamente notizie relative al movimento conservatore, fornendo una vera e propria lista di vicende non trattate nella sezione e affermando che "Spesso cominciavo il mio turno per scoprire che notizie riguardo il CPAC, Mitt Romney o Glenn Beck non erano considerate 'trending' perché il curator non riconosceva la notizia come tale o rifletteva nel proprio lavoro un evidente bias contro Ted Cruz."

In my first piece as a private citizen, I take a look at Facebook's impact on the media in a four part series: Tony Haile9 maggio 2016

Alla luce del pool sociale da cui Facebook estraeva i propri contractor per il progetto, non stupisce di come il taglio politico fornito alle notizie fosse così evidente. Per un altro curator, "Il bias era assolutamente presente—Il nostro lavoro era svolto in maniera soggettiva: ciò che era 'trending' dipendeva solamente da chi stava lavorando in quel determinato turno—Spesso delle fonti particolarmente vicine al movimento conservatore uscivano con delle notizie rilevanti, e noi dovevamo trovare la stessa notizia su una fonte più neutrale."

Il report menziona che un curator di schieramento conservatore, "Descrive questo tipo di omissioni come cifra caratteristica stessa dei giudizi dei colleghi," secondo Nunez "non ci sono prove che Facebook imponesse o fosse a conoscenza della presenza di questo tipo di bias poltiico." Nel resto del report viene spiegato anche di come i curator fossero istruiti a inserire determinate notizie che che, anche se non erano particolarmente discusse o condivise, stavano venendo trattate dalle principali testate giornalistiche.

Alcune ore dopo la pubblicazione del secondo report, un portavoce di Facebook ha consegnato a testate come BuzzFeed e Techcrunch il seguente comunicato:

"Prendiamo queste accuse di bias molto seriamente. Facebook è una piattaforme fatta per le persone e per ospitare i punti di vista provenienti dall'intero spettro politico. I Trending Topic mostrato gli argomenti più popolari e gli hashtag che stanno venendo discussi su Facebook. Ci sono delle linee guida molto rigide a cui il team di revisione deve sottostare per assicurare la verificabilità e la neutralità delle notizie. Queste linee guida non permettono la soppressione dei punti di vista politici. Non permettono la prioritizzazione di un punto di vista invece che un altro o di una testata rispetto a un'altra. Queste linee guida non proibiscono l'inserimento di alcuna testata dalla sezione dei Trending Topic."

CAMPAGNA ELETTORALE Nel contesto di ormai evidente pervasività del social network e di potere di influenza su scala globale, la richiesta impellente diventa quindi quella di una maggiore trasparenza da parte di Mark Zuckerberg e soci.

Se in un certo senso è possibile garantire al social network ancora il beneficio del dubbio, proprio grazie alla confusione di fondo che impedisce di definire con precisione i meccanismi secondo cui il dipartimento Media di Facebook si manifesta, è evidente che questa inchiesta si tratta dell'ennesima goccia che fa traboccare il vaso.

La sensazione, visti gli ultimi sviluppi anche dal punto di vista strategico—Come l'accelerazione sul progetto Internet.org, con cui Facebook vuole portare i servizi base di internet in tutto il mondo—, è che Facebook stia attuando una vera e propria campagna elettorale su scala globale, ergendo giorno dopo giorni valori ben precisi a stendardo delle sue politiche aziendali, e cogliendo di sorpresa la governance tradizionale, non abituata a interfacciarsi con organismi così agili nel panorama trans-nazionale.