(Ottawa) Les législateurs mettent carrément la sécurité nationale à risque en tardant à adopter le projet de loi visant à encadrer le développement et l’utilisation de l’intelligence artificielle, estime le professeur Yoshua Bengio, expert et sommité internationale en la matière.

Selon lui, les élus doivent comprendre que la vitesse à laquelle évolue le développement de l’intelligence artificielle est telle qu’ils sont engagés dans une véritable course contre la montre pour adopter les garde-fous réglementaires essentiels pour éviter que cette avancée technologique tombe entre les mains d’acteurs malveillants.

« Grouillez-vous ! Grouillez-vous, parce qu’on va payer collectivement le prix de l’inaction. »

M. Bengio va livrer ce message sans équivoque ce lundi devant le comité permanent de l’industrie de la Chambre des communes qui examine le projet de loi C-27 visant notamment à réglementer l’utilisation de l’intelligence artificielle.

Dans un avenir pas très lointain, l’intelligence artificielle atteindra des niveaux de compétences cognitives comparables à ceux des humains dans plusieurs domaines. Certes, cela ouvre des perspectives prometteuses dans de nombreux secteurs, notamment la santé, l’environnement et la productivité. Mais il importe d’encourager toute cette innovation en limitant les risques et les préjudices à la société.

Il faut que les législateurs se dépêchent de conclure parce que la technologie avance vite et ça prend du temps pour mettre en œuvre les garde-fous réglementaires.

Yoshua Bengio, directeur scientifique de Mila

« La technologie évolue vite, et les mauvaises utilisations pourraient arriver sans que l’on crie gare. C’est urgent de légiférer », a affirmé M. Bengio dans une entrevue avec La Presse avant son témoignage tant attendu.

Des exemples ? Les technologies soutenant l’intelligence artificielle pourraient se retrouver entre les mains de terroristes ou d’agents étrangers pour mener des attaques et des cyberattaques ou pour fabriquer des armes létales et dangereuses.

Encadrement

Si, dans la présente mouture, les législateurs ont surtout mis l’accent sur la protection des consommateurs, il faut y inscrire aussi des risques à la sécurité nationale, selon M. Bengio, qui est professeur au département d’informatique et de recherche opérationnelle de l’Université de Montréal et directeur scientifique de Mila.

« L’encadrement de l’utilisation de l’intelligence artificielle, ça devient un enjeu de sécurité nationale pour les pays démocratiques. Il faut que, dans la liste des risques à haut impact, on rajoute dans la loi les items de sécurité nationale. Et ce sont des risques qui arrivent avant même le déploiement commercial de l’intelligence artificielle. Il faut que la loi s’applique aux développeurs pendant tout le processus et la durée du développement », a argué l’expert.

D’où l’importance, selon lui, que le gouvernement fédéral donne aux régulateurs de l’intelligence artificielle la souplesse nécessaire pour ajuster le tir rapidement au besoin dans « un cadre agile » afin de bien protéger le public. C’est d’ailleurs un des amendements qu’il compte proposer aux élus qui sont membres du comité parlementaire lundi.

Il y a une chose que je trouve dommage dans la proposition actuelle, c’est qu’il faudrait attendre pratiquement deux ans après que la loi est passée avant que les règlements entrent en vigueur.

Yoshua Bengio, directeur scientifique de Mila

« On a déjà des problèmes avec les deep fakes, par exemple, pour influencer les élections, et la technologie peut bouger vite. Dans le projet de loi, il y a déjà un certain nombre d’éléments de base qui pourraient être mis en œuvre tout de suite dès la sanction royale », a-t-il souligné.

Responsabilisation

L’expert, qui a déjà témoigné devant un comité du Congrès américain, fait aussi sienne l’idée proposée par d’autres collègues universitaires de créer un registre, comme les autorités américaines sont en voie de le faire.

PHOTO ROBERT SKINNER, ARCHIVES LA PRESSE

« Le fardeau de démontrer qu’un système est sécuritaire devrait être sur les compagnies qui les fabriquent », estime M. Bengio.

Un tel registre imposerait aux grandes entreprises qui œuvrent dans ce secteur et qui fabriquent des systèmes d’une forte puissance de calcul (par exemple, 10⁠26 opérations par seconde) de le déclarer aux autorités gouvernementales en fournissant les explications de leur système et les mesures de sécurité qu’ils ont adoptées pour éviter « les risques excessifs ».

Selon Yoshua Bengio, cet outil obligerait les entreprises à une forme de responsabilisation. Aucune entreprise canadienne ne tomberait sous le coup du registre aujourd’hui tandis qu’il y en aurait deux dans le monde, dont une aux États-Unis. Mais dans les 12 prochains mois, il pourrait y en avoir une poignée et « il faut bien qu’on commence quelque part et qu’on mette cela comme balises. On pourrait utiliser les mêmes critères que les Américains car de toute façon, on veut s’harmoniser avec les Américains ».

Aux yeux de M. Bengio, la création d’un registre constitue un outil important pour protéger la sécurité nationale. « On obtient une forme d’imputabilité des entreprises. Mais c’est aussi une façon d’assurer une plus grande sécurité nationale. Le fardeau de démontrer qu’un système est sécuritaire devrait être sur les compagnies qui les fabriquent. Ça ne devrait pas être le gouvernement qui doit faire la recherche pour vérifier que les systèmes des compagnies sont sécuritaires. »