L’intelligence artificielle va révolutionner la justice et le droit. Ses capacités inimaginables constituent une menace aux droits fondamentaux, mais elles permettent aussi un accès plus équitable à la justice. Des chercheurs se sont penchés sur la question du 5 au 7 mai au congrès Time World 2022, à l’Université de Montréal.

Publié le 8 mai
Mathieu Perreault
Mathieu Perreault La Presse

Faux et usage de faux

En 2020, une mère a déposé en preuve, dans une cause de garde d’enfants en Grande-Bretagne, un enregistrement audio où son ex-mari proférait des menaces. Les avocats du père, qui habitait Dubaï, ont examiné l’enregistrement et ont réussi à prouver qu’il s’agissait d’une manipulation par un logiciel d’intelligence artificielle (IA). « C’est le premier exemple que je vois de l’utilisation d’un deepfake », explique Benoît Dupont, criminologue à l’Université de Montréal, dont la conférence s’intitulait « L’IA peut-elle menacer l’intégrité de la justice ? ».

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DE MONTRÉAL

Le criminologue Benoît Dupont de l’Université de Montréal

« La remise en cause de la fiabilité de ce qui est mis en preuve au tribunal est l’un des trois grands enjeux de l’IA pour le système de justice. Les autres sont le risque que des algorithmes d’IA menacent accidentellement la justice par des biais non prévisibles, et la possibilité d’une cyberattaque qui modifierait les systèmes d’IA de manière à introduire des biais. »

Médiation

La première application des systèmes d’IA en justice sera la médiation dans les cas de consommation, de constats d’infraction et de petites créances, selon Karim Benyekhlef, professeur de droit à l’Université de Montréal. « Je pense qu’on verra ça d’ici 2025 », dit MBenyekhlef, qui travaille sur des plateformes de médiation en ligne depuis les années 1990, à l’époque dans des cas de noms de domaine internet.

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DE MONTRÉAL

Karim Benyekhlef, professeur de droit à l’Université de Montréal

« Il y a déjà un système d’IA pour le Tribunal administratif du logement qui propose de la jurisprudence. Il suffirait de le modifier un peu pour que des propositions de médiation soient ajoutées. Je travaille avec la Saskatchewan pour des plateformes d’IA pour les conflits en consommation, la contestation des constats d’infraction et les cas de normes du travail. Et un de mes collaborateurs en Utah a des projets pilotes de propositions de médiation par IA dans quatre comtés. » MBenyekhlef a aussi fait des plateformes informatiques de médiation, sans IA, pour l’Office de protection du consommateur au Canada et pour un tribunal administratif qui s’occupe des conflits dans le monde de la copropriété en Ontario.

Justice augmentée

Selon MBenyekhlef, on n’arrivera pas de sitôt, et peut-être jamais, à des jugements définitifs établis par l’IA. « Je préfère parler de justice augmentée : on augmente le pouvoir du justiciable, dit le juriste montréalais. On va aiguiller les décisions quantitatives, par exemple quelle somme en dommages-intérêts a été accordée dans d’autres causes pour un frigo défectueux, pour la perte d’une jambe, sans lier le juge. L’IA par exemple n’aurait jamais pu générer le jugement légalisant le mariage homosexuel, parce que l’analyse est basée sur le passé. Un juge peut évaluer l’évolution du contexte sociopolitique. » Cette évolution constante de la justice la distingue d’autres domaines où l’IA est actuellement utilisée, comme le marketing. « C’est une technologie fantastique pour des environnements stables et prévisibles, mais en justice, il y a beaucoup de circonstances individuelles, d’inférences à faire à partir de cas qui ne sont pas totalement similaires », ajoute M. Dupont.

Probation

L’intelligence artificielle sera par ailleurs utilisée pour des évaluations de probation ou de libération conditionnelle, où actuellement des algorithmes sèment déjà la controverse. « On utilise des algorithmes manuels basés sur des calculs actuariels, qui pourraient être automatisés, dit M. Dupont. Mais on s’inquiète déjà que des biais soient introduits par les algorithmes. » Le contrôle a priori et a posteriori des biais introduits par les algorithmes d’IA nécessitera beaucoup de main-d’œuvre pour analyser les rapports et détecter les biais, selon Vincent Gautrais, professeur de droit de l’Université de Montréal. « On peut par exemple s’inspirer de l’équivalent de la Commission d’accès à l’information en Grande-Bretagne, qui est bien financée par un système de redevances, dit MGautrais. Les gros bogues, on les découvre par accident, mais il faut un système de surveillance. »

Cela n’exclut pas un système préalable d’analyse des biais possibles. L’UNESCO, par exemple, travaille actuellement sur un système d’analyse préalable des impacts de l’IA sur les droits de la personne, note Catherine Régis, professeure de droit de l’Université de Montréal. « L’analyse des impacts d’un projet sur les droits de la personne est déjà utilisée, il suffirait de l’appliquer aux projets d’IA, dit Me Régis. C’est un peu comme une analyse d’impact environnemental. »

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DE MONTRÉAL

Catherine Régis, professeure de droit de l’Université de Montréal

Surveillance

L’encadrement de la reconnaissance faciale sera un enjeu majeur pour le droit, selon Céline Castets-Renard, professeure de droit à l’Université d’Ottawa. « Les commissaires à la protection de la vie privée du Canada l’ont dit [la semaine dernière], il faut mieux encadrer cette application de l’IA, dit MCastets-Renard. On pourrait imaginer par exemple qu’il soit possible de l’utiliser dans le périmètre autour du lieu d’un crime, mais pas partout dans la ville pour ce qui est de ce même crime. L’utilisation des bases de données commerciales de visages pose aussi problème. » L’Union européenne est justement en train de travailler sur un texte encadrant l’utilisation de l’IA par les compagnies, dont les points de contention majeurs sont la reconnaissance faciale et l’utilisation de « scores sociaux » donnant accès à certains produits et services, selon la juriste d’Ottawa.

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DE TOULOUSE

Céline Castets-Renard, professeure de droit à l’Université d’Ottawa

En savoir plus

  • 93 milliards US
    Marché mondial de l’IA en 2021
    SourcE : FINANCIAL POST
    300 milliards US
    Marché mondial de l’IA prévu en 2026
    SourcE : FINANCIAL POST