​Immagine: Getty Images/Image Source​
Immagine: Getty Images/Image Source

La Commissione Europea vorrebbe spiare tutti i tuoi messaggi per combattere la pedopornografia

Ancora una volta, pensiamo che l'unica soluzione a un problema sia compromettere la privacy di tutti—ma non è così.
Riccardo Coluccini
Macerata, IT

Quando utilizzi una app di messaggistica come Whatsapp, o le chat segrete di Messenger e Telegram, i messaggi sono cifrati: puoi leggerli solamente tu e la persona con cui stai parlando. In alcuni casi, però—come ad esempio quando si vuole impedire la condivisione di materiale pedopornografico e in generale agire contro gli abusi sui minori—le autorità e le piattaforme digitali vorrebbero poter leggere, filtrare, e segnalare i messaggi. Ora, la Commissione Europea ha ufficializzato una strategia che come effetto collaterale ha proprio questo: attaccare la crittografia dei messaggi per spiarne il contenuto.

Pubblicità

Avere un filtro che legge i nostri messaggi sarebbe come trovarsi a parlare non solo con la persona a cui stavamo scrivendo ma letteralmente in una chat a tre, con l’occhio ad esempio di Facebook o Google che legge i nostri messaggi.

Il problema della pedopornografia e dell’abuso sui minori è in costante aumento. INHOPE è un network globale, co-finanziato dalla Commissione Europea e diffuso in 43 nazioni, che fornisce alle persone un modo sicuro per segnalare materiale legato alla violenza sessuale sui minori. Le segnalazioni che riceve vengono analizzate e poi inviate alle forze dell’ordine competenti, che fanno poi richiesta di rimozione alle aziende tecnologiche su cui sono caricati i contenuti. 

Nel suo report annuale del 2019 INHOPE indica alcune statistiche sul fenomeno: il numero di immagini e video illegali individuati dal network è salito da 148.041 nel 2017 a 320.672 nel 2019 e lo scorso anno le vittime erano per il 91% ragazze e per il 7% ragazzi. Inoltre, l'età media si sta abbassando: il 92% delle vittime è di età inferiore ai 13 anni. 

Per i dati italiani, tra gennaio e dicembre 2019 Save the Children ha inoltrato al Centro Nazionale per il Contrasto della Pedopornografia su Internet (C.N.C.P.O.) 1.440 segnalazioni di presunto materiale pedopornografico. E nei primi 6 mesi del 2020 le segnalazioni inviate sono state già 1.272.

IMAGE1_inhope stats.png

Dati statistici su età delle vittime di pedopornografia e aumento dei casi di immagini e video individuati. Immagine: INHOPE

In Italia, lo scorso aprile, Wired Italia ha pubblicato un’inchiesta su uno dei tanti gruppi Telegram in cui uomini e ragazzi si scambiavano immagini di ragazze e donne prese direttamente dai social network e foto intime diffuse senza il consenso della persona interessata. In alcuni casi, veniva condiviso anche materiale pedopornografico. A luglio, la Polizia Postale ha arrestato tre persone per possesso e distribuzione di materiale pedopornografico e altre nove persone sono state denunciate ad agosto in due indagini diverse.

Pubblicità

Secondo un report di Europol, ci sarebbe stato anche un aumento nella condivisione di materiale pedopornografico ed episodi di violenza e sfruttamento di minori nel periodo del lockdown dovuto alla pandemia di COVID-19. 

Quando la pedopornografia finisce online, registrata e condivisa istantaneamente, il dolore e la violenza subiti dalle vittime non fanno altro che perpetuarsi più facilmente.

Nel caso dei contenuti pedopornografici e di abuso sui minori, alcune piattaforme agiscono già da tempo su base volontaria, filtrando le immagini inviate per vedere se corrispondono a quelle già note di abusi che sono state segnalate o dalle autorità di polizia o da reti di associazioni che si occupano di violenze sui minori. 

Questo monitoraggio è semplice nelle chat e mail non cifrate: le immagini e i messaggi passano infatti sui server delle aziende, lì con tecnologie tipo PhotoDNA di Microsoft o quelle sviluppate da Facebook e Google è possibile calcolare l’hash dell’immagine—una stringa identificativa unica per ogni file che permette la facile comparazione con altre foto—e segnalare così gli account che condividono materiale pedopornografico. Inoltre Facebook, grazie all’uso di algoritmi di machine learning, dichiara di essere in grado di segnalare account che inviano molte richieste di amicizia a minori o che si comportano in modo sospetto. 

La strategia della Commissione Europea prevede fino ad ora tre diversi aspetti. Lo scorso 10 settembre ha annunciato la proposta di un regolamento provvisorio che dovrebbe restare in vigore fino al 2025 se approvato dal Parlamento Europeo. Questo regolamento serve per garantire che le attività già svolte su base volontaria dalle piattaforme siano considerate ancora legali dopo il 20 dicembre 2020—data in cui, per l’entrata in vigore del nuovo codice delle comunicazioni elettroniche, queste piattaforme cadranno sotto una definizione diversa per cui sarebbe illegale fare una scansione del genere dei contenuti.

Pubblicità

Ci sono anche alcune richieste specifiche per salvaguardare gli utenti, come ad esempio la necessità che questi sistemi commettano pochissimi errori, che sia previsto anche l’intervento umano e non solo del software, che i contenuti innocui vengano prontamente eliminati dai server, e soprattutto che le piattaforme pubblichino dei report annuali sui dettagli delle azioni intraprese.

Questo regolamento è provvisorio proprio perché a luglio la Commissione aveva annunciato una strategia più audace. Tra gli 8 punti strategici ci sono: definire nel 2021 una legge che richieda il filtro dei contenuti obbligatorio per bloccare materiali pedopornografici, avviare degli studi sui vuoti normativi e best practices, creare una forte rete tra gli stati membri per condividere efficaci misure di prevenzione, finanziare un Innovation Hub and Lab dell’Europol per sviluppare le capacità tecnologiche dei vari stati, e mappare le soluzioni tecniche per individuare e segnalare i contenuti di abuso su minori nei casi in cui vengano trasmessi in canali di comunicazione cifrati.

E su quest’ultimo punto, il giornale Politico ha ottenuto la copia di un documento relativo proprio a una bozza preliminare di valutazione delle tecnologie per aggirare la crittografia. Il documento—che è descritto come una base per la discussione—è stato redatto consultando diversi esperti tra cui esponenti dei servizi segreti britannici (GCHQ), di Google e Microsoft, e un ex dipendente di Facebook ora ricercatore allo Stanford Internet Observatory.

Pubblicità
IMAGE2_valutazioni E2EE.png

Tabella di valutazione delle tecnologie per aggirare la crittografia. Immagine: Web Archive/Politico

Sono state analizzate tre diverse categorie di soluzioni: una prevede che la maggior parte delle operazioni venga svolta sui dispositivi, la seconda prevede che il matching delle immagini avvenga su un server apposito, mentre la terza confida in particolari protocolli di crittografia che permettano di salvaguardare sia la privacy che la possibilità di bloccare i contenuti. Allo stato attuale, quest’ultima soluzione è parecchio irrealizzabile da un punto di vista tecnico. 

Le soluzioni più promettenti, secondo il documento, sono quelle che prevedono l’hashing del contenuto prima che venga cifrato: sostanzialmente è come pensare di mettere un filtro che monitora ogni nostra foto e video al momento dell’invio, ne calcola un codice univoco e fa il confronto con una lista di immagini pedopornografiche già note salvate su un server. Filtri simili a quelli che sono già stati duramente criticati durante la discussione sulla direttiva copyright—e purtroppo ci ricordiamo come è andata a finire

Patrick Breyer, parlamentare europeo del Partito Pirata tedesco, mette in guardia dai potenziali rischi legati al filtraggio delle nostre conversazioni online, ai falsi positivi e sulla possibilità che siano delle soluzioni inefficaci e persino controproducenti. Inoltre, si legge in un suo comunicato stampa: “Particolarmente colpiti sarebbero proprio i messaggi che gli adolescenti scambiano tra di loro—hanno il diritto di pretendere che la propria vita sessuale sia rispettata.”

Pubblicità

Per di più, prosegue Breyer, “rimarrebbero comunque aperte questioni fondamentali per la protezione dei minori, ad esempio per quanto riguarda la prevenzione di abusi, il finanziamento insufficiente dei servizi di terapia ed esperti forensi sovraccaricati dai casi.” 

Save the Children—che insieme a Telefono Azzurro fa parte del network di INHOPE per l’Italia—ha contribuito alla fase di consultazione per la strategia della Commissione Europea. 

Brunella Greco, referente della Hotline di Save the Children, contattata via mail da Motherboard, valuta positivamente la proposta della Commissione, ribadendo però che l’abuso e lo sfruttamento sessuale sono “fenomeni complessi che coinvolgono più attori e che richiedono una risposta multisettoriale e multiagenzia.”

“Il primo aspetto importante che sottolineiamo è l’esplicito riferimento al fenomeno online,” ha spiegato Greco, “e aggiungiamo noi all’importanza di considerare sempre come strettamente connessi l’online e l’offline, oramai sempre più indistinguibili, anche in termini di conseguenze sulle vite dei più giovani, e non solo.”

Allo stesso tempo, però, Save the Children riconosce che rimangono comunque contraddizioni e anche ulteriori rischi. “È possibile accettare limitazioni alla libertà di espressione degli adulti, a favore dei diritti di protezione dei minori, che implicano delle limitazioni in tal senso negli ambienti digitali?,” ha aggiunto Greco. “Non sono domande semplici dalle risposte univoche e definitive. La complessità e la velocità dell’innovazione digitale chiedono una costante attenzione e un continuo necessario bilanciamento dei diritti di protezione e di partecipazione per agire nel superiore interesse del minore.”

Pubblicità

Un punto da cui partire viene individuato da Greco: “l’interesse del minore, secondo il nostro punto di vista, deve rimanere il principio fondamentale,” ma gli ambienti digitali sono spesso considerati “largely age-blind (or implicit adult) space”—ovvero prodotti e sviluppati per utenti adulti. “Per ‘ambiente sicuro’ allora dovremmo far riferimento non solo ai comportamenti e alle condotte, ma anche alla possibilità di pensare ad ambienti digitali a misura di bambini/e di ragazzi/e,” ha chiarito Greco.

Inoltre, oltre alle competenze digitali, è importante affrontare con i più giovani il discorso della sessualità. “L’educazione alla sessualità e all’affettività è fondamentale per prevenire forme di abuso e per permettere a bambini/e e ragazzi/e di essere in grado di effettuare scelte che migliorino la qualità della loro vita,” ha concluso Greco.  

Un approccio che dovrebbe quindi smettere di stigmatizzare la sessualità—e le varie forme in cui si declina, come il sexting—e iniziare anche con percorsi educativi direttamente dalle scuole e in famiglia.


Se sei entrato in contatto con materiale pedopornografico o hai assistito ad episodi di violenza su minori o hai subito abusi, contatta i seguenti indirizzi e numeri di telefono: