Le système de justice québécois n’a pas la réputation d’être très « techno ». Résumé des causes judiciaires, le plumitif peut être consulté autant par des avocats, par des assureurs que par le grand public. Or, cet outil a le défaut de ne pas toujours être intelligible et même d’être la cause d’erreurs d’interprétation. Et si l’intelligence artificielle pouvait améliorer la situation ?

« Nous avons fait 20 entrevues avec des étudiants en voie d’obtenir leur diplôme de premier cycle universitaire. Ils devaient expliquer ce qu’ils lisaient et on s’est rendu compte qu’ils avaient du mal à comprendre, qu’ils étaient perdus et incertains en raison du nombre élevé d’abréviations qui, d’ailleurs, ne sont pas toujours les mêmes d’un district judiciaire à l’autre », explique Eve Gaumond, 25 ans, étudiante à la maîtrise en droit à l’Université Laval.

Un projet pandémique

Eve Gaumond et Nicolas Garneau, 32 ans, étudiant au doctorat en informatique, ont donc décidé de joindre leurs expertises pour simplifier cet outil. La pandémie a d’ailleurs précipité les choses pour les deux visionnaires. « J’ai dû revenir d’un voyage d’études en Europe en raison des mesures sanitaires et mon projet de doctorat a bifurqué vers la vulgarisation des plumitifs, mais j’avoue qu’au départ, je ne pensais même pas développer une solution technique », explique Nicolas Garneau.

Verbaliser les articles du Code criminel

En collaboration avec le Laboratoire de cyberjustice, l’Observatoire international sur les impacts sociétaux de l’IA (OBVIA) et la Société québécoise d’information juridique (SOQUIJ), ils ont lancé la première phase de leur projet qui consiste à développer un prototype d’application pour clarifier le plumitif criminel. Pour ce faire, ils ont extrait les données de huit districts judiciaires et ont entraîné l’algorithme à verbaliser les articles du code. « Il ne s’agit pas de faire de la traduction comme avec des outils de traduction en ligne. Notre prototype verbalise », souligne l’informaticien.

Le but ultime est que l’intelligence artificielle puisse accomplir cette tâche sans commettre d’erreurs d’interprétation.

C’est le principal enjeu, verbaliser, mais sans erreurs. Le nerf de la guerre est l’exactitude, imaginez les conséquences si on donne le mauvais chef d’accusation à une personne. C’est pour cela qu’il faut continuer de faire de la recherche fondamentale.

Eve Gaumond, étudiante à la maîtrise en droit à l’Université Laval

En ce moment, la seule façon de s’assurer que cette composante de l’application accomplisse son travail correctement est de valider le tout avec un juriste en chair et en os.

Les deux chercheurs ignorent si et quand leur système pourra être déployé sur l’internet. « Il faut des ressources et cela dépend de la volonté de la SOQUIJ. C’est à cet organisme de voir ce qu’il compte faire avec les preuves que nous lui apportons, mais il est certain que nous ne souhaitons pas que notre projet finisse sur une tablette », explique la spécialiste du droit. En attendant que leur système soit utilisé à grande échelle, les deux chercheurs ont amélioré l’aspect visuel du design informatique. « Uniquement en améliorant le graphisme, la disposition des éléments et en remplaçant plusieurs abréviations par des phrases complètes, on peut rendre la lecture plus agréable et efficace », constate Nicolas Garneau.

Un pas à la fois

Des projets de maillage entre l’intelligence artificielle et le domaine du droit commencent à peine à se concrétiser. Un retard qui s’expliquerait par la frilosité du milieu envers les technologies. « Il faut prendre le temps de s’assurer que les choses soient faites correctement parce que les erreurs peuvent être lourdes de conséquences. Toutefois, cela risque de changer dans les prochaines années et en grande partie en raison de la pandémie qui a obligé le système à revoir certaines façons de faire », estime Eve Gaumond.