Publicité
Motherboard

Cette IA peut prédire l’issue d’un procès pour violation des droits de l’homme

Même si les machines ne remplaceront jamais des juges humains, elles peuvent déterminer quels cas sont les plus urgents à traiter.

par Jordan Pearson
24 Octobre 2016, 9:00am

En 2015, la Cour européenne des droits de l'homme, dont la mission est d'assurer le respect des engagements souscrits par les États signataires de la Convention européenne des droits de l'homme, a reçu deux fois plus de plaintes que l'année précédente. Nombre d'entre elles ont été rejetées pour cause de dossiers incomplets, parce qu'elles avaient déjà été jugées par un tribunal local, ou simplement parce qu'elles ne tenaient pas la route. 15% seulement des plaintes reçues ont effectivement été jugées par la cour en 2015.

Parce que les plaintes relatives aux droits de l'homme sont de plus en plus nombreuses en Europe, le tribunal doit passer au crible des milliers de demandes avant de dénicher celles qui méritent un examen approfondi.

Ce problème pourrait être résolu grâce à une équipe de chercheurs de l'University College de Londres (UCL) ; en effet, celle-ci a mis au point un algorithme qui peut prédire avec 79% de réussite si une plainte relative aux droits de l'homme est légitime, ou non. Selon les chercheurs, cette technologie pourrait permettre d'automatiser l'analyse des demandes faites à la Cour européenne des droits de l'homme, et de les hiérarchiser avant examen par des juges humains.

« Il est important que les cas faisant intervenir une violation des droits de la personne soit traités en priorité, » explique Nikos Aletras, chercheur en informatique à l'UCL et co-auteur de l'article publié dans PeerJ Computer Science.

« Le tribunal a une pile de dossiers en attente absolument colossale. Grâce à notre système, nous pouvons déterminer lesquels ont une grande probabilité de faire intervenir une violation des droits de l'homme, et lesquels ont une faible probabilité d'aboutir, » ajoute Vasileios Lampos, collègue d'Aletras et co-auteur du papier. « Si la cour disposait d'un outil permettant de discriminer entre les classes de cas et en hiérarchiser par ordre de priorité, alors les cas urgents seraient traités plus tôt, au bénéfice des victimes. »

L'approche utilisée par les chercheurs est une méthode de deep learning assez conventionnelle. Ils ont d'abord entrainé un réseau de neurones de traitement du langage naturel (TALN) sur une base de données de décisions de justice. Celle-ci contient un ensemble de faits et de circonstances concernant les affaires jugées, les lois applicables dans ce contexte, et des informations sur le plaignant (comme son pays d'origine, par exemple). De cette façon, le programme a appris à tisser des corrélations entre ces données et les décisions de justice.

« Les lois ne sont pas structurées de telle sorte que les machines puissent prendre des décisions. »

Ensuite, l'équipe a « nourri » le programme à l'aide de décisions de justice sur les droits de l'homme qu'il n'avait jamais vues auparavant, et lui a demandé de deviner la décision du juge sur la base des éléments constitutifs du dépôt de plainte. Lorsque l'IA a effectué des prédictions à partir des faits seuls, elle a obtenu un taux de réussite de 73%. Dans le cas où elle avait accès au contexte et aux circonstances de l'affaire, cette précision a atteint les 76%.

Ce détail est important, car il montre que les décisions de justice sont plus étroitement liées aux circonstances entourant les cas qu'aux faits bruts ou aux lois en tant que telles. Selon les chercheurs, cette observation indique que les humains sont encore essentiels dans le dispositif judiciaire lorsqu'il s'agit de prendre des décisions nuancées, qui nécessitent de tenir compte de la vie et de la situation des humains impliqués. C'est aussi pour cette raison qu'on ne peut toujours pas faire confiance aux machines en matière de justice.

« C'est comme remplacer les enseignants ou les médecins par des ordinateurs : à l'heure actuelle, c'est tout bonnement impossible, » affirme Lampos. « Les lois ne sont pas structurées de telle manière que les machines puissent prendre des décisions. Je pense que les juges ne suivent pas une méthode parfaitement objective dans leur travail, et c'est une bonne chose. Différents tribunaux peuvent avoir une interprétation différente d'une même loi ; cela arrive tous les jours. »

Aletras et Lampos admettent que leur travail dépend entièrement de la façon dont les dossiers de plainte ont été constitués dans leur pays d'origine. À l'heure actuelle, il est impossible d'évaluer l'objectivité de ces dossiers. Les chercheurs supposent néanmoins que les tribunaux locaux ont tout intérêt à présenter les faits et les circonstances de la manière la plus neutre possible, afin que les plaintes aient une grande probabilité d'être traitées.

Les chercheurs envisagent maintenant de tester de nouvelles méthodes de machine learning, afin de voir si la précision du système pourrait être encore améliorée. Lorsque celle-ci sera suffisamment élevée, les algorithmes pourront être adoptés par la Cour européenne des droits de l'homme.