riconoscimento facciale italia
Immagine delle telecamere: Wikimedia Commons. Foto del manichino e composizione: Motherboard

Il riconoscimento facciale in Italia è un buco nero

Da una serie di documenti ottenuti da Motherboard, sembra che i sistemi di sorveglianza sofisticata annunciati dai Comuni negli ultimi anni non siano attivi, perché illegali. Eppure, le telecamere continuano a moltiplicarsi.
30 luglio 2020, 10:19am

Non ci facciamo più nemmeno caso: passeggiamo per le strade delle nostre città e le videocamere di sorveglianza sono diventate un normalissimo e anonimo arredo urbano. Sono ovunque, spesso munite di uno scolorito cartello informativo che ci avvisa degli estremi di legge che permettono a quelle telecamere di trovarsi lì.

Dal 2009, una legge in materia di sicurezza pubblica ha dato in mano ai Comuni la possibilità di installare videocamere per la tutela della “sicurezza urbana” negli spazi pubblici. Da quel momento il numero di telecamere cittadine è esploso. Questo sistema doveva essere una forma di esteso piano di controllo del territorio, ma ora potrebbe trasformarsi in un trampolino di lancio per la diffusione del riconoscimento facciale. Una tecnologia talmente invasiva che diverse associazioni, inclusa Amnesty, ne hanno richiesto la messa al bando

In Italia abbiamo già diversi sistemi di riconoscimento facciale a metà, opachi, e in alcuni casi già resi illegali dai provvedimenti del Garante della Privacy.

Una piccola cittadina come Macerata conta più di 80 telecamere—di cui circa 40 per la lettura delle targhe dei veicoli—e ci sono città, come Firenze, dove le telecamere installate arrivano a essere più di 800. E sempre più spesso queste telecamere vengono installate con lo scopo di utilizzare sistemi di video-analisi, come il riconoscimento facciale, in un secondo momento. Lo scorso giugno, Udine ha infatti annunciato l’installazione di 67 nuove telecamere e l’intenzione di adottare in futuro filtri che possano distinguere le persone in base all’età, al sesso, o persino agli abiti indossati.

Come se non bastasse, ci sono Comuni che chiedono di inserire quelle dei privati nella rete di videosorveglianza a disposizione delle forze dell’ordine, come avviene ad esempio a Milano con l’Anagrafe Telecamere o a Piacenza; lo scopo è mappare la posizione delle telecamere private che riprendono aree esterne aperte al pubblico.

Le immagini raccolte da tutte queste telecamere, unite a quelle dei negozi, possono già essere sfruttate nelle indagini grazie al sistema di riconoscimento facciale utilizzato dalla polizia scientifica, il SARI.

Nel 2017, senza alcun tipo di consultazione preventiva con il Garante e senza un minimo di dibattito pubblico, il Ministero dell’Interno ha acquistato un doppio sistema di riconoscimento facciale. La prima componente serve per rendere più veloce la ricerca di immagini all’interno del database AFIS che contiene tutte le persone che sono già state segnalate in passato. Se la polizia sta indagando un furto e ottiene un frame dalle videocamere di sorveglianza con il volto del sospetto, può usare SARI Enterprise per cercare all’interno di quel database una lista di persone, ciascuna con una propria percentuale di compatibilità, che possono coincidere con il ricercato. 

Il secondo sistema, chiamato SARI Real-Time, è pensato per essere utilizzato in occasione di eventi e manifestazioni pubbliche. Dopo la rivelazione dell’acquisto, il Garante privacy aveva emesso un provvedimento nel luglio 2018 concedendo la possibilità di usare SARI Enterprise: il sistema non è altro che un upgrade della ormai obsoleta ricerca manuale tra le foto segnaletiche.

Nel provvedimento, però, non si trovano riferimenti alla parte sul sistema real-time. In un’inchiesta di Wired, in cui erano state analizzate le carte inviate tra Garante e Ministero, sembra evidente che il Ministero volesse evitare indagini interne. Sono passati due anni da quel provvedimento, ma su SARI Real-Time non si sa più nulla, e di fatto dovrebbe essere sospeso visto che manca l’autorizzazione del Garante.

Lo scorso febbraio, Sky Tg24 ha riportato che la versione Real-Time non è in funzione perché ancora in fase di perfezionamento. Grazie a una richiesta FOIA, Motherboard può confermare che il sistema Real-Time non è mai entrato in funzione: “Il sistema [….] non è mai stato impiegato in ambito operativo,” si legge nella risposta scritta inviata dalla Direzione Centrale Anticrimine della Polizia di Stato. 

Questo teatrino, però, si ripete puntualmente a livello locale anche in altre parti d’Italia. Le autorità competenti acquistano la tecnologia, spendono soldi pubblici, ma non prevedono alcuna forma di analisi preventiva dei rischi finendo così con il dover bloccare il sistema solo dopo che inchieste giornalistiche allertano il Garante della Privacy. È accaduto con SARI ma, in forma ancora più grave, è accaduto con il Comune di Como, come rivelato da un’inchiesta di Wired Italia dello scorso giugno.

L’indagine giornalistica, infatti, ha spinto il Garante ad aprire un’inchiesta che ha portato a un provvedimento indiscutibile nei confronti del Comune di Como: il Comune non può usare le immagini dei volti raccolte, perché non c’è alcuna legge che lo permetta. 

In questo caso, l’installazione delle telecamere con “videosorveglianza innovativa” era stata ritenuta fondamentale per garantire la sicurezza urbana del parco cittadino—si sa, i parchi sono per definizione pericolosi.

In altri casi, invece, il riconoscimento facciale sembra essere solamente una buzzword buona per rincorrere il futuro ad ogni costo. A Torino, a marzo 2018 la Sindaca ha comunicato in un post su Facebook l’inizio dei lavori per l’installazione nei giardini Madre Teresa di Calcutta di telecamere “ad elevata tecnologia in grado di riconoscere i volti e direttamente collegate alla centrale delle autorità competenti.”

L’installazione rientra tra gli interventi del progetto “AxTO—Azioni per le periferie torinesi” che prevede l’installazione di videocamere in una decina di zone considerate a rischio nelle periferie e della possibilità per i cittadini di condividere direttamente i video fatti con il proprio smartphone.

Dai documenti ottenuti da Motherboard con una richiesta FOIA, però, si apprende una storia diversa sull’attivazione del riconoscimento facciale: “non risulta che gli impianti collocati nei giardini Madre Teresa di Calcutta lo consentano,” scrive la polizia municipale di Torino che si occupa della gestione del sistema di videosorveglianza.

Eppure, nei documenti si legge che il sistema “prevede l’utilizzo di tecnologie di nuova generazione, in grado anche, laddove vi sia un accordo in tal senso con la Città, di generare alert alle centrali operative delle forze dell’ordine in presenza di cause predeterminate previste dai rispettivi algoritmi.” E nel disciplinare tecnico ottenuto, si legge che il sistema dovrebbe presentare anche degli algoritmi di videoanalisi, rinviando però al successivo progetto esecutivo per capire quali siano. 

Motherboard ha inviato richieste di commento al Comune, chiedendo di chiarire se i sistemi siano attivi e se ci siano risultati da poter condividere riguardo l’efficacia del sistema. Al momento della pubblicazione di questo articolo non abbiamo ancora ricevuto risposta. 

Potenzialmente, se il riconoscimento facciale fosse attivo, saremmo di fronte ad un caso simile a quanto avvenuto a Como: il sistema sarebbe illegale.

Al momento, la maggior parte delle telecamere cittadine installate in Italia non sembra avere sistemi di riconoscimento facciale collegati ma, indirettamente, possono essere utilizzate con il sistema della Polizia scientifica. E questo dovrebbe farci preoccupare.

Recentemente si è scoperto che negli Stati Uniti, a Detroit, in due casi, l’algoritmo di riconoscimento facciale ha spinto la polizia ad arrestare le persone sbagliate—entrambe persone non bianche. Da anni infatti questi algoritmi sono criticati per la loro incapacità di riconoscere volti diversi da quelli del maschio bianco, e in uno dei casi di Detroit l’errore è stato scoperto solamente perché i poliziotti, durante l’interrogatorio, hanno detto non troppo a bassa voce tra di loro: “il computer deve essersi sbagliato.”

In Italia potremmo avere sotto al naso situazioni simili a quelle di Detroit: anche lì l’algoritmo offre una lista di possibili match partendo dai frame delle videocamere di sorveglianza. Noi però non possiamo sapere quante volte venga usato SARI e nemmeno quante volte si sia sbagliato. Non abbiamo la minima idea nemmeno delle capacità del sistema visto che ogni singolo tentativo di ottenere informazioni sull’accuratezza dei risultati e sul tasso di errori va a sbattere contro un muro. Persino le interrogazioni parlamentari sono inutili: quella del 2018 dell’onorevole D’Incà su dati di accuratezza, falsi positivi, e statistiche non ha mai trovato risposta. 

Le uniche valutazioni pubblicamente disponibili di uno degli algoritmi di SARI risalgono al 2016. In quello studio l’algoritmo è stato testato su 3 diversi database: uno contenente foto di volti scattate frontalmente, il secondo con volti in diverse posizioni ma comunque in un ambiente controllato, e l’ultimo con facce prese direttamente dal web.

Se nel caso del secondo dataset la probabilità che l’algoritmo sputi fuori il soggetto ricercato tra i primi dieci risultati è quasi del 95 percento, quando ci spostiamo sulle immagini prese dal web e quindi in posizioni casuali—simili in parte alle immagini che si possono estrarre dalle videocamere di sorveglianza—l’accuratezza del sistema scende a poco sopra l’80 percento. Nel caso invece del primo dataset la probabilità di individuare il ricercato tra i primi 10 risultati scende a circa il 77 percento: questo database è quello che contiene più volti di persone non bianche. 

Nel database della polizia scientifica in cui SARI cerca i volti, 8 schedati su 10 sono stranieri, come ha rivelato un’inchiesta di Wired del 2019. E questo dovrebbe farci preoccupare ulteriormente. 

Motherboard ha chiesto all’azienda se sono state prodotte valutazioni più recenti o se l’algoritmo è stato aggiornato rispetto a quello testato nel 2016. Al momento della pubblicazione dell’articolo non abbiamo ricevuto risposte.

Allo stesso modo, abbiamo inviato richieste alla Polizia per ottenere valutazioni recenti degli algoritmi del sistema SARI ma ci è stato comunicato che quei dati sono dati tecnici delicati che non possono essere divulgati.

Un portavoce dell’Autorità per la protezione dei dati personali ha dichiarato che “il Garante monitora con attenzione i sistemi di videosorveglianza che ipotizzano il riconoscimento facciale, al fine di evitare eventuali abusi, ribadendo a tutti i soggetti coinvolti sia i rischi legati a tale tecnologia, sia l’esigenza di una adeguata base normativa.”

La sicurezza urbana va spesso a braccetto con le tesi sulla “qualità della vita” e del decoro e, di conseguenza, richiama quella teoria che si è dimostrata fallimentare negli anni nota come “broken window policing.” L’idea originaria è quella di applicare tolleranza zero anche nei confronti di azioni minori, come potrebbero essere i graffiti o appunto i vetri rotti, per evitare così che quei singoli episodi producano crimini più gravi. Dopo decenni di politiche punitive e incarcerazioni di massa, però, sappiamo che si tratta di un tritacarne che colpevolizza la povertà, senza risolvere alcun problema. E nel 2020 in Italia è quasi impossibile contare quanti occhi artificiali ci guardano e perché.