(Ottawa) Les représentants des grandes entreprises technologiques affirment qu’un projet de loi du gouvernement libéral qui commencerait à réglementer certains systèmes d’intelligence artificielle (IA) est trop vague.

Les dirigeants d’Amazon et de Microsoft ont déclaré mercredi aux députés lors d’une réunion du comité de l’industrie de la Chambre des communes que le projet de loi C-27 ne faisait pas suffisamment de différence entre les systèmes d’IA à haut et à faible risque.

Les entreprises soutiennent que respecter la loi telle qu’elle est rédigée présentement coûterait cher.

Nicole Foster, directrice de l’intelligence artificielle mondiale et des politiques publiques canadiennes chez Amazon, a avancé que l’utilisation de la même approche pour toutes les applications est « très peu pratique et pourrait par inadvertance étouffer l’innovation ».

L’utilisation de l’IA par un agent de la paix est considérée comme ayant un impact élevé dans tous les cas, a-t-elle soulevé, même lorsqu’un agent utilise la correction automatique pour remplir une contravention pour une infraction au Code de la route.

« Les lois et réglementations doivent clairement différencier les applications à haut risque de celles qui présentent peu ou pas de risque. Il s’agit d’un principe fondamental qu’on doit respecter, a-t-elle insisté. On doit être très prudents avant d’imposer des fardeaux réglementaires sur les applications d’IA à faible risque qui peuvent potentiellement apporter des gains de productivité indispensables aux entreprises canadiennes, grandes et petites. »

Microsoft a donné un exemple de la façon dont la loi ne semble pas distinguer le niveau de risque introduit par certains systèmes d’IA. Un système d’IA utilisé pour approuver l’hypothèque d’une personne et gérer les détails sensibles concernant ses finances serait considéré comme ayant le même risque que celui utilisé pour optimiser les itinéraires de livraison des colis à l’aide de données publiques.

PHOTO ADRIAN WYLD, LA PRESSE CANADIENNE

Le ministre fédéral de l’Industrie François-Philippe Champagne

Le ministre de l’Industrie, François-Philippe Champagne, a donné quelques informations sur les amendements que le gouvernement compte apporter au projet de loi pour assurer qu’il soit au goût du jour.

Malgré ces détails supplémentaires, les entreprises ont affirmé que les définitions contenues dans le projet de loi restaient encore trop ambiguës.

Amanda Craig, directrice principale des politiques publiques au Bureau de l’IA responsable de Microsoft, a mis en garde que ne pas faire de différence entre les deux « disperserait le temps, l’argent, le talent et les ressources des entreprises canadiennes-et pourrait signifier que les ressources limitées ne sont pas suffisamment concentrées sur les risques les plus élevés ».

Le projet de loi C-27 a été déposé en 2022 et vise à cibler ce qui est décrit comme les systèmes d’IA « à incidence élevée », mais le gouvernement a annoncé qu’il modifierait le projet de loi afin d’introduire également de nouvelles règles pour l’intelligence artificielle générative, comme le « ChatGPT ».

L’urgence d’agir

Le professeur montréalais Yoshua Bengio, surnommé l’un des « parrains de l’IA », a déclaré lundi devant un comité des Communes qu’Ottawa devrait mettre en place immédiatement une loi, même imparfaite.

Le directeur scientifique de Mila, l’Institut québécois d’intelligence artificielle, affirme qu’une machine « surhumaine », aussi intelligente qu’un être humain, pourrait être développée d’ici vingt ans, voire quelques années.

Les systèmes avancés pourraient à terme être utilisés pour des cyberattaques, a-t-il ajouté, et la loi doit anticiper ce risque.

L’IA présente déjà des risques.

Les vidéos modifiées par l’IA et l’hypertrucage, générées pour donner l’impression qu’une personne réelle fait ou dit quelque chose qu’elle n’a jamais fait, peuvent être utilisées pour propager de la désinformation, a déclaré Yoshua Bengio.