À l’heure de ChatGPT et de l’intelligence artificielle générative, il est encore trop rare que des gens intéressés par les défis technologiques tentent de mobiliser à la fois l’espace public et les instances législatives. Un tel effort s’est vu dernièrement alors que plus de 75 personnalités ont signé une lettre publique soutenant qu’il y a urgence à adopter la Loi sur l’intelligence artificielle et les données (LIAD).1

Cette loi, qui en est encore à l’étape de projet – le C-27 –, fait partie d’un effort de modernisation des lois canadiennes sur la protection de la vie privée. Encouragés par la lettre signées par 75 personnes – chercheurs en intelligence artificielle, universitaires et PDG d’entreprises technos, notamment –, nous souhaitons appeler à un développement davantage imputable et démocratique de la LIAD.

La lettre demande « à nos représentants politiques de soutenir la LIAD avec conviction. Alors que le comité parlementaire permettra des améliorations et amendements, nous estimons que la proposition actuelle est bien orientée ». Pour notre part, nous craignons que la loi telle qu’elle est rédigée et les efforts visant à précipiter son adoption ne limitent le débat en mettant l’accent sur l’innovation, tout en évitant des discussions plus significatives sur les droits, les préjudices et les implications sociopolitiques plus larges de l’intelligence artificielle.

De fait, bien peu dans le projet de loi actuel fait en sorte de contraindre les « systèmes à fort impact » de se conformer aux droits de la personne. Cela est d’autant plus inquiétant que l’étude détaillée du projet de loi revient au Comité permanent de l’industrie et de la technologie plutôt qu’au Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique. Cette assignation risque d’aggraver le déséquilibre qui favorise une approche axée sur le développement économique. La LIAD est déficiente à ce titre et il faudrait des mécanismes de protection permettant de mieux protéger les citoyens.

Défaillances de la loi

Pendant trop longtemps il a été supposé que l’intelligence artificielle (IA) servait le bien collectif, et ce, malgré de nombreuses preuves du contraire. Comment, et surtout qui peut aujourd’hui définir ce qui est responsable et « socialement bénéfique » ? Le problème ici est bien celui entrevu dans un rapport du Centre interuniversitaire de recherche sur la science et la technologie (CIRST)2, à savoir que le réseau des acteurs canadiens de l’IA est « tissé serré » en plus d’être à la fois juge et partie. Dans le cadre du projet de loi C-27 et des appels à précipiter son adoption, cela signifie que ces acteurs sont à la fois promoteurs et bénéficiaires d’une loi permissive qui n’offre pour l’instant qu’une coquille vide sans autres obligations significatives.

Le Canada a certes besoin d’une loi encadrant l’intelligence artificielle, mais la LIAD n’est pas prête.

Tel que soulevé par des chercheurs de l’Université métropolitaine de Toronto, du CDR et du CIGI, le projet de loi ne s’applique entre autres pas à l’utilisation de l’IA par les institutions gouvernementales fédérales et laisse ainsi la porte ouverte aux abus tels que l’utilisation illégale par la Gendarmerie royale du Canada de la technologie de reconnaissance faciale de Clearview AI.

En l’occurrence, nombre d’éléments cruciaux seront rédigés après que le projet de loi sera adopté en sorte que moins de transparence en découle et en découlera, ce qui ne saurait surprendre puisque la LIAD ne contient qu’une quinzaine de pages alors que son équivalent européen en compte plus d’une centaine. Autre défaillance majeure, le commissaire chargé d’appliquer la loi ne dispose pas de l’indépendance nécessaire, étant sous la direction du ministère chargé du développement économique.

Déficit de consultations publiques

De manière aussi importante se trouve le problème d’un déficit de consultation qui semble vouloir s’accélérer plutôt que de se résorber dans l’urgence d’une panique morale. Dans leur lettre, les auteures et auteurs évoquent un sondage commandité par le Conseil consultatif canadien en matière d’IA auquel ils sont pour beaucoup associés. Les sondages représentent certainement la forme la plus rustre de consultation. Jamais ils n’encouragent la participation citoyenne et/ou la délibération.

Quant à lui, le projet de loi a été élaboré dans l’absence de réelles consultations publiques, ce qui a empêché les groupes de la société civile, les chercheurs et les communautés historiquement marginalisées d’y contribuer substantiellement. Le gouvernement ayant raté l’occasion de consulter la population au moment opportun, il lui demande maintenant d’absorber son erreur en donnant son aval à un projet de loi incomplet et axé sur l’autogouvernance.

L’aspect factice du consensus en passe d’être construit est inquiétant et l’État ne devrait pas s’en satisfaire. D’autres voix existent qui sont sans doute plus critiques et qui méritent d’être entendues. S’il est indispensable de légiférer quant aux risques représentés par l’IA, encore faut-il le faire de manière réflexive, réellement inclusive et de sorte à préserver les droits des citoyens face à son déploiement.

* Cosignataires : Fenwick McKelvey, Université Concordia ; Joanna Reden, Université Western Ontario ; Luke Stark, Université Western Ontario

1. Lisez la lettre « Il y a urgence à adopter la Loi sur l’intelligence artificielle et les données » 2. Consultez le rapport du CIRST Qu'en pensez-vous? Exprimez votre opinion