(Toronto) Si on comprend assez bien le rôle de l’intelligence artificielle dans les suggestions de film de Netflix et les commandes vocales d’Alexa, on connaît moins sa part dans l’application de la loi, l’évaluation des candidats à l’immigration, les programmes militaires et dans d’autres domaines.

Malgré son statut de chef de file dans l’intelligence artificielle, le Canada n’a pas encore mis en place un régime réglementaire pour traiter les problèmes de discrimination et d’imputabilité auxquels les systèmes robotiques seront confrontés.

Plusieurs chefs d’entreprise réclament une réglementation.

« Nous avons besoin du gouvernement, nous avons besoin d’une réglementation au Canada », soutient Mahdi Amri, responsable des services d’intelligence artificielle chez Deloitte Canada.

L’absence de cadre juridique spécifique à l’intelligence artificielle mine la confiance dans la technologie et, potentiellement, l’imputabilité de ses fournisseurs, selon un rapport qu’il a co-écrit.

« En gros, il y a cette idée que les machines prendront toutes les décisions et que les humains n’auront rien à dire, et nous serons gouvernés par une obscure boîte noire quelque part », raconte-t-il.

Si on ne retrouve encore les seigneurs-robots que dans le domaine de science-fiction, l’intelligence artificielle est de plus en plus impliquée dans les décisions qui ont des conséquences graves pour les individus.

Depuis 2015, les services de police de Vancouver, d’Edmonton, de Saskatoon et de London, ont mis en place ou expérimenté un système visant à prédire les crimes.

Selon une étude de Citizen Lab, le système fédéral d’immigration et de protection des réfugiés s’appuie sur des décisions fondées sur des algorithmes pour déterminer si un candidat est vraiment marié ou s’il représente un risque à la sécurité publique. L’organisme dit qu’une telle pratique viole les droits de la personne.

L’armée canadienne a aussi procédé à des essais d’intelligence artificielle, ce qui a incité les pionniers canadiens de ce domaine, comme Geoffrey Hinton et Yoshua Bengio, à mettre la population en garde contre les dangers des armes robotiques et l’idée de confier à des machines des décisions de vie et de mort. Ils réclament un accord international sur le déploiement des armes-robots.

« Quand on utilise un système de boîte noire, on ne connaît pas les normes qui y ont été intégrées ou les données utilisés qui risquent de perpétuer des biais », souligne Rashida Richardson, directrice de la recherche sur les politiques à l’Institut AI Now de l’Université de New York.

Elle a évoqué des « cas d’horreur », dont celle d’une stratégie policière visant à prédire des crimes à Chicago. Le problème est que sur la liste des criminels potentiels, on retrouvait une majorité de Noirs n’ayant jamais été arrêtés. Le même groupe démographique était « visé par des politiques policières discriminatoires ».

Selon Mme Richardson, il est temps de passer d’une ligne directrice noble à une réforme juridique. Selon un rapport de l’Institut, les gouvernements nationaux devraient « superviser, vérifier et contrôler » l’utilisation de l’intelligence artificielle dans des domaines comme la justice pénale, les soins de santé et l’éducation, car « les structures de gouvernance interne de la plupart des entreprises technologiques ne garantissent pas l’imputabilité des systèmes ».

Carolina Bessega, cofondatrice et directrice scientifique de Stradigi AI, une entreprise montréalaise, estime que ce vide réglementaire décourage les sociétés d’utiliser l’intelligence artificielle, ce qui freine l’innovation et l’efficacité, en particulier dans les hôpitaux et les cliniques.

« Actuellement, c’est comme une zone grise, et tout le monde a peur de prendre la décision d’utiliser l’intelligence artificielle pour améliorer le diagnostic ou pour recommander un traitement pour un patient », déplore Mme Bessega.

Elle appelle à une réglementation « très stricte » en matière de traitement et de diagnostic. Elle souhaite aussi que la responsabilité de toute décision définitive revienne à un professionnel, et non à un logiciel.

Les détracteurs accusent le Canada d’être à la traîne aux États-Unis et à l’Union européenne. Si aucune juridiction n’a mis en place un cadre juridique complet, le Congrès et la commission ont écrit de nombreux rapports sur le sujet.

« Il n’existe au Canada aucun cadre juridique pour guider l’utilisation de ces technologies ou leur articulation avec les droits fondamentaux liés à la régularité de la procédure, à l’équité administrative, aux droits de la personne et à la transparence du système judiciaire », avaient dit Citizen Lab, la Commission du droit de l’Ontario et d’autres organismes en mars.

Le ministre de l’Innovation, des Sciences et du Développement économique, Navdeep Bains, a déclaré à la Presse canadienne en avril qu’un rapport à ce sujet doit être remis « dans les mois à venir ». Quand on lui a demandé si le gouvernement était ouvert à une législation sur la transparence et la responsabilité en matière d’intelligence artificielle, il a répondu : « Nous devons prendre du recul pour déterminer quels sont les principes directeurs fondamentaux ».

Selon lui, les changements législatifs qui devront être apportés devront faire l’objet d’un examen, non seulement de son ministère, mais de l’ensemble du gouvernement.

En même temps, rappelle un porte-parole du ministère, « l’intelligence artificielle et autres technologies de rupture demeurent soumises aux lois et aux réglementations en vigueur couvrant la concurrence, la propriété intellectuelle, la confidentialité et la sécurité ».

À compter du 1er avril 2020, les ministères qui souhaitent déployer un système de décision automatisé doivent d’abord effectuer une « évaluation d’impact algorithmique » et afficher les résultats en ligne.