Esta IA pode prever com precisão o resultado de julgamentos de direitos humanos
Mas calma: por enquanto é impossível substituir juízes humanos por robôs. Por enquanto, ok. Crédito: Wikimedia.

FYI.

This story is over 5 years old.

Tecnologia

Esta IA pode prever com precisão o resultado de julgamentos de direitos humanos

Mas calma: por enquanto é impossível substituir juízes humanos por robôs. Por enquanto, ok.

Em 2015, o Tribunal Europeu de Direitos Humanos, responsável por julgar violações de direitos humanos na União Europeia, recebeu o dobro de denúncias do que o ano anterior. Muitas delas foram descartadas porque não foram concluídas corretamente ou porque tratavam de situações já julgadas pela corte ou simplesmente porque a queixa não se sustentava. No ano passado, apenas 15% de todas as submissões receberam uma sentença do tribunal.

Publicidade

Em resumo, as denúncias feitas ao tribunal aumentam a cada dia na Europa, e o tribunal precisa analisar dentre milhares de submissões quais são as mais urgentes. Para ajudar no processo, uma equipe de pesquisadores da Universidade College London (UCL), na Inglaterra, desenvolveu um algoritmo capaz de prever se uma denúncia diz respeito a uma violação de direitos humanos ou não, com precisão de 79%. Essa tecnologia, afirmam os pesquisadores, pode automatizar o cronograma por meio da análise das denúncias e priorizando-as para os juízes do tribunal de direitos humanos.

"É muito importante priorizar os casos nos quais a violação dos direitos humanos seja mais provável", afirmou Nikos Aletras, um cientista da computação da UCL e co-autor do artigo que descreve o trabalho publicado na semana passada pela PeerJ Computer Science.

"O Tribunal tem uma fila enorme de casos que ainda não foram processados; podemos garantir que muitos deles têm grandes probabilidades de violação, porém, outros nem tanto", acrescentou Vasileios Lampos, colega de Aletras e co-autor do artigo. "Se uma ferramenta puder separar em classes e priorizar os casos com a maior probabilidade, então as pessoas verão a justiça ser feita mais rapidamente."

A abordagem utilizada pela equipe é bastante simples: segue o avanço rápido da área de aprendizado rápido. De início, eles treinaram uma rede neuronal de Processamento de Linguagem Natural em um banco de dados de decisões do tribunal, que contém fatos sobre o caso, as circunstâncias que os acompanham, as leis aplicáveis e detalhes sobre o requerente, tais como seu país de origem. Dessa forma, o programa "aprendeu" quais desses aspectos são mais prováveis de serem correlacionados com uma decisão judicial em particular.

Publicidade

"As leis ainda não estão bem estruturadas para que uma máquina tome uma decisão."

Em seguida, a equipe alimentou o programa com decisões inéditas do tribunal e questionou quais seriam as decisões do juiz, com base nas partes constituintes do registro. Constatou-se que quase todas as seções – de detalhes a respeito do requerente aos fatos da denúncia – tiveram uma taxa de precisão de 73%. Quando a IA verificou as críticas do tribunal no que diz respeito às circunstâncias dos casos, essa precisão passou a ser de 76%.

Isso é muito importante, de acordo com os pesquisadores, porque indica que as decisões dos juízes estão mais ligadas às circunstâncias dos casos individuais do que os fatos ou as leis. É por isso, afirmam, que os seres humanos ainda precisam tomar decisões flexíveis sobre a vida de outros humanos e por que os computadores ainda não são confiáveis para fazer esse tipo de trabalho – ainda.

"É o mesmo que querer substituir professores ou médicos: é impossível no momento", afirmou Lampos. "As leis ainda não estão bem estruturadas para que uma máquina tome uma decisão. Acredito que os juízes não seguem um conjunto de regras específico quando tomam uma decisão, e digo isso como cidadão e cientista da computação. Os tribunais diferentes têm interpretações diferentes das mesmas leis, e isso ocorre o tempo todo."

As próximas etapas do projeto consistem em testar tipos novos de aprendizagem automática para esse mesmo problema. A intenção é verificar se a precisão pode ser ainda maior e ter acesso às denúncias do tribunal de direitos humanos. Se tudo der certo, os direitos humanos poderão ser, em parte, apoiados pelas máquinas.

Tradução: Amanda Guizzo Zampieri