“Dove sarai quando comincerà la guerra tra razze?” è una frase estrapolata da un video di propaganda per Atomwaffen Division, un gruppo americano neo-Nazi che è stato collegato a diversi omicidi negli Stati Uniti. “Unisciti al tuo gruppo Nazi locale.” Tutto questo si poteva leggere in un video che YouTube ha rimosso un mese fa, insieme all’intero canale di Atomwaffen.
Ma la rimozione di quel video e di quel canale sembra rappresentare un caso fortuito: YouTube continua a ospitare copie esatte di quel video e altri provenienti da Atomwaffen. Grazie a un’indagine svolta con l’aiuto di un software, Motherboard ha scoperto che — nonostante YouTube sia riuscito a fermare gli estremisti islamici che caricavano video di propaganda — il titano dei video resta pieno di contenuti a sostegno di organizzazioni neo-Nazi violente e ben radicate, anche quando, in alcun casi, gli utenti hanno già segnalato la presenza di quei video alla piattaforma. Le clip delle operazioni di propaganda neo-Nazi, i discorsi pieni di odio, e le call to action di estremisti che chiedono agli spettatori un’azione diretta sono ancora sul sito — da settimane, mesi, a volte anni.
Videos by VICE
“La retorica che usano e l’incitamento alla violenza sono di natura decisamente estrema,” ha spiegato a Motherboard Joanna Mandelson, ricercatrice investigativa dell’Anti-Defamation League (ADL) del Center on Extremism.
Gli esempi di video neo-Nazi su YouTube includono:
- Un video che festeggia il primo anniversario del sito neo-Nazi Iron March dicendo, “Gas the K***s, guerra tra razze ora!,” e che è online dal 2012.
- Una “call to action” dal Nordic Resistance Movement, un gruppo neo-Nazi ben radicato in Svezia, Finlandia e Norvegia, e che è stato dichiarato fuori legge in Finlandia. Il video include la voce del narratore Robert Jay Mathews — un neo-nazi americano — e pianifica una “vittoria Ariana totale,” dopo che “le catene del pensiero ebreo” saranno spezzate, aggiungendo che [i neo-nazi] “supereranno la melma di giallo, nero e marrone.” Tutto questo, accompagnato da immagini di persone di colore che vengono prese a pugni.
- Una protesta e un discorso contro i rifugiati, che include un partecipante che impugna una bandiera di National Action — un gruppo neo-nazi che l’anno scorso il governo inglese ha dichiarato organizzazione terroristica. Altri video includono a loro volta striscioni di National Action.
- Diverse copie esatte dei video di Atomwaffen, inclusa una clip che invoca una “rivoluzione bianca,” una che mostra dei supporter di Atomwaffen che distribuiscono dei poster di propaganda in un’università americana, e diverse in cui incoraggiano gli spettatori a unirsi ai loro gruppi neo-Nazi locali. Questi video sono stati caricati lo stesso giorno in cui YouTube ha bannato l’account originale di Atomwaffen, a febbraio.
Probabilmente, molti se non tutti questi video sarebbero “incriminabili” grazie alla policy sull’hate speech di YouTube, relativa “a contenuti che promuovono la violenza o hanno la funzione primaria di incitare all’odio contro individui o gruppi sulla base di determinati attributi,” inclusa la razza o l’origine etnica, la religione e l’orientamento sessuale.
Motherboard ha costruito un tool per monitorare YouTube e creare un database di date in cui la piattaforma ha rimosso determinati video: abbiamo limitato le clip monitorate alla propaganda di alcuni radicati gruppi neo-Nazi e di estrema destra, come Atomwaffen, invece che porre l’attenzione sulle persone appartenenti alla cosiddetta “alt-right.” La maggior parte dei video sono stati scoperti semplicemente cercando i nomi delle organizzazioni su YouTube, o a volte attraverso i “video suggeriti.”
Per effettuare al meglio questa analisi, nell’arco di una settimana Motherboard ha tracciato anche i video pro-ISIS caricati dai supporter del gruppo e poi distribuiti attraverso una rete di canali Telegram. In genere, YouTube rimuove questi video entro qualche ora, inclusi quelli che non contengono immagini di violenza, ma solamente esempi di hate speech.
“Non c’è dubbio che alcuni social media e piattaforme di sharing video, incluso YouTube, abbiano fatto passi da giganti negli ultimi mesi, non solo per la quantità di video a tema terrorismo rimossi, ma anche per la tempestività,” ha spiegato a Motherboard Raphael Gluck del gruppo di ricerca JihadoScope.
Ma YouTube continua a giocare a guardie e ladri con il materiale neo-Nazi. YouTube ha rimosso soltanto due video che Motherboard stava monitorando: due clip identiche di un discorso dell’organizzazione terrorista National Action.
Se, da un lato, gli uploader pro-ISIS spesso utilizzano varie tecniche per bypassare il rilevatore di violazione dei termini di YouTube — come rimuovere l’audio dalle clip, o inserire i video in box con bordi neri — alcuni dei video dei neo-Nazi, inclusi quelli che sono online al momento della scrittura di questo articolo, sembrano essere copie esatte delle clip precedentemente rimosse. YouTube è consapevole della presenza di molte clip neo-Nazi, perché sono già state segnalate come offensive dagli utenti e perché alcune delle loro funzionalità, come i commenti, i like o la presenza nei video suggeriti, sono state disabilitate.
“Il seguente contenuto è stato identificato dalla comunità di YouTube come inappropriato o offensivo per una parte del pubblico,” recita un banner su un video duplicato di Atomwaffen.
L’anno scorso, YouTube ha annunciato che avrebbe cominciato a usare il machine learning per identificare i contenuti legati al terrorismo, cercando di rilevare i dettagli simili. In un blog post risalente a dicembre, la CEO di YouTube Susan Wojcicki ha spiegato che il 98 percento dei video rimossi per estremismo violento sono segnalati dall’algoritmo di machine learning della piattaforma.
YouTube ha confermato a Motherboard che la piattaforma sta applicando queste nuove tecniche ai contenuti di hate speech. (Quando abbiamo fatto altre domande, YouTube ci ha reindirizzato al blog post di dicembre.) Sfruttare il machine learning per, dicono, identificare i loghi dei gruppi neo-Nazi sulle bandiere e sugli striscioni potrebbe portare ottimi risultati, ma sembra che YouTube non ci sia ancora pienamente riuscito, o perlomeno non ai livelli di efficienza riportati con l’estremismo islamico.
I termini di servizio di YouTube potrebbero sembrare funzionali sulla carta, “ma se non vengono effettivamente messi a regime, diventano il problema,” ha spiegato Mendelson di ADL.
Uno dei ricercatori ha già provato che usare un metodo algoritmico per identificare le immagini di estrema destra può essere efficace. L’ex hacker dell’NSA Emily Crose ha costruito NEMESIS, un programma che rileva automaticamente i simboli di odio nei post sui social media, nelle immagini e nei video. In un esempio, NEMESIS ha recuperato dei simboli dell’alt-right su degli scudi trasportati durante una marcia.
“Penso che saremo anche in grado di dimostrare che è possibile, per un’azienda, creare un sistema che fa ciò che fa NEMESIS, e farlo su scala sempre maggiore,” ha spiegato al telefono a Motherboard Crose, che ha passato del tempo a lavorare anche alla moderazione di Reddit e per questo motivo comprende le problematiche legate alla gestione di grandi community.
Su richiesta di Motherboard, Crose ha processato una piccola selezione di video attraverso NEMESIS. Anche se due di questi video, incluso uno dal Nordic Resistance Movement, non hanno fatto scattare alcun segnale — Crose ha detto che il suo team non si è concentrato sulle immagini provenienti dai gruppi europei —, NEMESIS ha rilevato delle immagini neo-Nazi, come svastiche e altri simboli, nei video dell’Iron March.
Sotto, un esempio di come NEMESIS rileva i simboli dell’estrema destra nei video.
È chiaro che il compito più difficile non sia rilevare un’immagine in particolare. Invece, “la parte difficile è capire se quell’immagine sta venendo utilizzata in un contesto di propaganda o educativo,” ha spiegato Crose.
Questo potrebbe essere il motivo per cui i contenuti di estrema destra sono maggiormente problematici per YouTube: alcuni di questi video, anche se offensivi, potrebbero essere atti legittimi di libertà di espressione, e avrebbero bisogno di un essere umano per capire davvero se si tratta di video che dovrebbero essere rimossi o meno. Nel post di dicembre, Wojcicki ha spiegato che il piano di YouTube è di incrementare il numero di persone coinvolte nella moderazione di YouTube in tutto il mondo a 10.000.
Ciò detto, le clip di Atomwaffen e molti altri video monitorati da Motherboard risultano ancora online.
“Il vero problema non riguarda la tecnologia, ma le intenzioni dietro di essa,” ha detto Crose.
Dopo la pubblicazione di questo articolo, YouTube ha rimosso alcuni dei video segnalati e monitorati da Motherboard.
Questo articolo è apparso originariamente su Motherboard US.