FYI.

This story is over 5 years old.

Tecnologia

Questa IA sa predire correttamente le sentenze della Corte dei Diritti dell'Uomo

Ma sostituire i giudici umani è "impossibile" al momento, dicono i ricercatori.
Immagine: Wikimedia

Nel 2015, la Corte Europea dei Diritti dell'Uomo—che esamina i casi di presunta violazione dei diritti umani in UE—ha ricevuto il doppio delle denunce ricevute l'anno prima. Molte di queste sono state scartate o perché erano state compilate male, o perché riguardavano argomenti su cui la corte si era già espressa, o semplicemente perché non stavano a galla. Solo il 15 percento di tutte le applicazioni ha ottenuto una sentenza della corte nel 2015.

Pubblicità

In parole povere, le denunce di violazione dei diritti umani presentate alla corte sono in crescita in Europa e la corte deve vagliarne migliaia e migliaia per trovare le poche che sono effettivamente meritevoli del tempo e degli sforzi dell'istituzione.

Ora, un gruppo di ricercatori della University College London (UCL) ha confezionato un algoritmo che può predire la legittimità di una denuncia per lesione dei diritti umani, con un'accuratezza del 79 percento. Questa tecnologia, dicono i ricercatori, potrebbe automatizzare la catena burocratica, analizzando le domande e mettendole in ordine di priorità per i giudici umani della corte.

"È importante dare priorità ai casi in cui è più probabile che sia avvenuta una violazione dei diritti umani di una persona," ha detto in un'intervista Nikos Aletras, informatico alla UCL e co-autore di un paper che descrive il progetto, pubblicato su PeerJ Computer Science.

"La corte ha una coda infinita di casi che non sono ancora stati processati ed è piuttosto facile da dire se alcuni di questi hanno una probabilità di violazione alta, mentre altri bassa," ha aggiunto Vasileios Lampos, collega di Aletras e co-autore del paper a sua volta. "Se un tool può discernere classi diverse e stabilire la priorità dei casi con un'alta probabilità, le persone otterranno giustizia prima."

L'approccio usato dal team è semplice, nei limiti imposti dal campo del deep learning, in continua evoluzione. Hanno prima allenato una rete neurale di Natural Language Processing su un database di sentenze della corte, che contiene i fatti sui casi, le circostanze, le leggi applicabili, e i dettagli su chi le presenta, come il paese di origine. In questo modo, il programma "ha imparato" quali di questi aspetti sono più facilmente correlati a una particolare sentenza..

Pubblicità

"Le leggi non sono strutturate abbastanza bene perché una macchina impari a prendere decisioni"

Poi, il team ha somministrato al programma le decisioni della corte per i diritti umani che non aveva mai visto prima e gli ha chiesto di indovinare le sentenze del giudice, sulla base delle parti costituenti dell'archivio della corte. Il risultato è che quasi ogni sezione—dai dettagli sul richiedente ai fatti concreti della denuncia—aveva un'accuratezza simile, circa del 73 percento. Quando l'IA ha esaminato l'analisi compiuta dalla corte sulle circostanze di ogni caso, però, il livello di accuratezza è salito al 76 percento.

Questo è un particolare importante, secondo i ricercatori, perché indica che le sentenze dei giudici sono legate strettamente alle circostanze dei singoli casi e non solo ai fatti oggettivi e alle leggi. Questo è perché, sostengono, per prendere decisioni fatte di sfumature sulla vita di altre persone, servono ancora gli esseri umani, e perché non possiamo affidare lo stesso compito ai computer—non ancora, almeno.

"È lo stesso discorso che si fa quando si parla di sostituire insegnanti e dottori; al momento è impossibile," ha detto Lampos. "Le leggi non sono strutturate abbastanza bene perché una macchina impari a prendere decisioni. Non credo i giudici non seguano solo un insieme specifico di regole quando prendono una decisione, e lo dico in quanto cittadino e scienziato informatico. Corti diverse interpretano diversamente le stesse leggi, e questo succede ogni giorno."

Aletras e Lampos ammetto che buona parte delle promesse future del loro lavoro, per quanto riguarda la possibilità di filtrare le denunce in entrata, si affida sulla precisione con cui le sentenze di corte riflettono le denunce nel loro stato originario. È impossibile saperlo al momento, dicono, ma assumono che le corti abbiano interesse a presentare i fatti e le circostanze dei casi nel modo più neutrale possibile, rendendo le decisione della corte un "buon proxy" per le richieste della gente.

Il prossimo passo sarà sperimentare diversi tipi di machine learning sullo stesso problema, per vedere se l'accuratezza può migliorare ulteriormente, dicono, e avere accesso alle denunce esposte alla corte dei diritti umani.

Se tutto va bene, i diritti umani potrebbero essere in parte difesi dalle macchine, prima o poi.