Comment réglementer l’intelligence artificielle (IA) ? Alors que les exemples de dérive se multiplient, différents pays et territoires autour du monde tentent de répondre à cette question.

Quand l’IA clone la voix

PHOTO OLIVIER JEAN, ARCHIVES LA PRESSE

Fernand Boissonneault, 91 ans, a été piégé par des fraudeurs qui ont utilisé l’intelligence artificielle pour clôner la voix de son fils.

Un appel téléphonique contenant une voix très réaliste de son fils prétendument détenu par les policiers a failli pousser un homme de Trois-Rivières à payer une fausse caution de 5800 $ à des fraudeurs le mois dernier. Il s’agit potentiellement d’un cas d’hypertrucage mené avec l’IA. Cela démontre une fois de plus que la technologie de l’IA évolue très rapidement et a maintenant le pouvoir d’influencer des comportements bien réels, dit Benjamin Prud’homme, vice-président, Politiques publiques, Société et Affaires mondiales de Mila-Institut québécois d’intelligence artificielle. « Les exemples se comptent maintenant par milliers. Avec l’IA générative, on peut créer des vidéos, de l’audio… Ça veut dire que quelqu’un peut créer de faux messages, rendre la fraude plus efficace, créer des textes, créer de fausses images qui montrent des choses explosives politiquement. L’urgence [de réglementer l’IA] a décuplé », dit-il.

Lisez « Hypertrucage audio : Berné par la fausse voix de son fils »

2024, année charnière

PHOTO DENIS BALIBOUSE, ARCHIVES REUTERS

Le sujet de l’intelligence artificielle s’est imposé au Forum économique mondial qui s’est tenu à la mi-janvier à Davos, en Suisse.

M. Prud’homme remarque que 2023 a vu une forte accélération de la priorité des gouvernements quant à la réglementation de l’IA, laissant présager un moment charnière pour 2024 et 2025. « La loi sur l’IA de l’Union européenne s’en vient, les États-Unis ont adopté un ordre exécutif de la Maison-Blanche en octobre dernier, et le Canada est en train d’élaborer une loi sur l’IA, donc ça bouge. » Les technologies d’IA présentent des avantages, notamment pour améliorer le système de santé et faire face à la crise climatique, dit-il. « Mais comme elles posent aussi des risques sur des enjeux de sécurité nationale, on ne peut plus les ignorer. Plus les capacités des systèmes d’IA augmentent, plus les occasions et les risques augmentent également. »

Courir après l’innovation

PHOTO STEVE MARCUS, ARCHIVES REUTERS

Le vice-président de Samsung Electronics Co., Han Jong-hee, discute des technologies liées à l’intelligence artificielle lors d’une conférence de presse au Consumer Electronics Show (CES) de Las Vegas le 8 janvier dernier.

Pierre Larouche, professeur à la faculté de droit de l’Université de Montréal, note que les gouvernements donnent l’impression d’être à la traîne par rapport à l’évolution technologique, et de chercher à montrer aux citoyens qu’ils sont au fait de ce qui se passe. « Bien que nous ne soyons pas dans un vide juridique total, le cadre actuel est loin d’être prêt à appliquer efficacement des régulations à l’intelligence artificielle (IA) », dit-il. Il remarque que des intérêts commerciaux souhaitent avoir la plus grande marge de manœuvre possible. « Un élément du cadre juridique qui pourrait être rapidement adapté est la responsabilité civile, dit M. Larouche. Envoyer un message clair aux entreprises travaillant sur ces services qui indiquerait que négliger les régulations pourrait entraîner des conséquences financières graves. »

Réglementer comme des pharmaceutiques ?

PHOTO KIRILL KUDRYAVTSEV, ARCHIVES AGENCE FRANCE-PRESSE

La réglementation est demandée par l’industrie elle-même, ce qui montre qu’elle n’est pas capable de s’autoréguler, affirme Pierre Larouche, professeur à la faculté de droit de l’Université de Montréal.

M. Larouche donne l’exemple de l’industrie pharmaceutique, qui est très encadrée, avec certains médicaments puissants vendus uniquement sur ordonnance. « L’industrie pharmaceutique sait qu’une sortie précipitée d’un produit peut entraîner des conséquences graves sur le plan financier, conséquences qui peuvent se chiffrer dans les milliards de dollars. Avec l’IA, les risques pourraient être encore plus importants, incitant les entreprises à réfléchir davantage à leurs actions. » La réglementation est demandée par l’industrie elle-même, ce qui montre qu’elle n’est pas capable de s’autoréguler, note-t-il. « Cela donne l’impression que les gouvernements sont incapables d’agir, ce qui reflète une certaine indécision. »

Culture à changer

PHOTO DADO RUVIC, ARCHIVES REUTERS

Des produits sont parfois lancés sans considération suffisante pour les conséquences.

Jusqu’ici, le projet de loi devant le Parlement canadien semble manquer d’incitations pour pousser l’industrie à changer, dit M. Larouche. « C’est une industrie qui est souvent laissée à elle-même, qui expérimente et voit ce qui fonctionne. » Les limites de cette attitude sont devenues évidentes au cours des dernières années avec les réseaux sociaux, où des produits sont parfois lancés sans considération suffisante pour les conséquences. « Le grand défi réside dans le changement de mentalité de l’industrie technologique. Il faut l’inciter à penser aux conséquences de ses actions. Les erreurs doivent avoir des conséquences, et les entreprises doivent agir avec prudence. En ce sens, je ne suis pas certain que le gouvernement canadien soit assez clair sur ce point. »

Ramifications internationales

PHOTO DADO RUVIC, ARCHIVES REUTERS

L’aspect mondial de l’IA fait en sorte qu’il doit être réglementé le plus possible à l’international.

L’aspect mondial de l’IA fait en sorte qu’il doit être réglementé le plus possible à l’international, note Benjamin Prud’homme. « Ça va prendre une entente internationale et des réglementations nationales. Sinon, il pourrait y avoir de l’évasion de l’IA, un peu comme l’évasion fiscale. Il y a tout l’aspect géopolitique. Si la Chine et les États-Unis ne font pas partie de l’équation, cela va avoir moins d’impact. » Une conférence sur l’IA et les droits de la personne organisée par l’ONU doit se tenir en février, note-t-il. « L’ONU devra faire beaucoup de compromis pour que les près de 200 pays soient d’accord. La négociation internationale, c’est long. En parallèle, les États-nations doivent aller de l’avant. L’UE peut élever la barre. Les géants américains de l’IA devront se conformer à ce que l’UE décidera s’ils veulent pouvoir rejoindre ce marché de 400 millions de personnes. Donc ça pourrait en faire bénéficier tout le monde, même si ça ne réglera pas tous les problèmes. »