Je ne pouvais pas aborder le sujet de l’encadrement de l’IA en 2024 sans contacter les responsables de Mila – Institut québécois d’intelligence artificielle, fondé par le professeur Yoshua Bengio, dont les mises en garde ont résonné aux quatre coins du monde en 2023.

J’ai rapidement demandé à Yoshua Bengio s’il pensait que cette année allait être celle du point de bascule en matière d’encadrement de l’IA.

Des progrès sont en cours. Les États européens ont fini par conclure un premier accord à la fin de l’année dernière au sujet d’un cadre législatif. Le Parlement canadien étudie un projet de loi qui va dans ce sens. Aux États-Unis, un décret présidentiel a été signé par Joe Biden en octobre 2023 et on s’attend à ce que divers États légifèrent en 2024.

« J’aimerais qu’il y ait un point de bascule. Il faudrait que beaucoup plus de pays fassent des législations pour encadrer, pour éviter le plus possible les dérapages dont on parle. On n’y est pas, mais ça commence », m’a-t-il répondu.

« On est encore à une étape très fragile sur le plan réglementaire. Il y a beaucoup à faire.

« Les propositions sur la table, par exemple en Europe ou au Canada, sont à mon sens insuffisantes pour se protéger des plus grands risques. Par exemple, la proposition canadienne ne dit rien, zéro, sur les risques pour la sécurité nationale ou la démocratie. »

PHOTO CHARLES WILLIAM PELLETIER, ARCHIVES COLLABORATION SPÉCIALE

Valérie Pisano, PDG de Mila

Valérie Pisano, PDG de Mila, a pour sa part une très bonne idée de ce qui doit être fait, sans tarder, en 2024 au sujet de l’encadrement et de la sécurité. Elle voit, par-dessus tout, deux initiatives cruciales.

Premièrement, « mettre l’obligation de sécurité sur les épaules des compagnies qui déploient ces technologies-là. Comme on le fait en aviation, en biotech, dans le secteur médical ».

Ensuite, il faut accélérer la recherche sur les façons d’assurer la sécurité des systèmes d’intelligence artificielle.

Tant Valérie Pisano que Yoshua Bengio ont insisté sur le fait que les sociétés qui conçoivent les outils d’intelligence artificielle sont actuellement incapables de démontrer que leurs systèmes sont sécuritaires. C’est, selon eux, très problématique.

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Yoshua Bengio, fondateur et directeur scientifique de Mila – Institut québécois d’IA

Les scientifiques ne savent pas comment entraîner une IA qui ne se retournerait pas contre les êtres humains… Qui ne pourrait pas être utilisée par des malfaiteurs, des terroristes, etc., à des fins dangereuses pour la société, pour l’humain, pour la démocratie. On ne sait pas comment mettre des garde-fous technologiques.

Yoshua Bengio, fondateur et directeur scientifique de Mila – Institut québécois d’IA

Aux yeux de ces deux experts, 2024 doit absolument être une année charnière en matière de gestion de risque.

« On a une bonne idée des chantiers qu’on doit lancer sur le plan de l’emploi, sur le plan de l’éducation, sur le plan de la réglementation et de la sécurité, explique Valérie Pisano ; 2024 devrait être l’année où on commence vraiment à construire chacun de ces chantiers pour être en avant sur ces questions-là, indépendamment de la vitesse à laquelle on pourrait devoir faire face à des choix difficiles. »

En l’écoutant, j’ai repensé à la métaphore des grenouilles et des nénuphars.

Ces « choix difficiles » nous paraissent pour l’instant lointains et on peut douter de l’urgence de la situation si on oublie à quel point une mare peut, à un moment donné, se recouvrir de nénuphars du jour au lendemain.

La nature exponentielle des progrès en intelligence artificielle fait que nous n’avons pas de temps à perdre.