Alors que s’ouvre jeudi le Forum public sur l’encadrement de l’intelligence artificielle, La Presse a rencontré l’innovateur en chef, Luc Sirois, qui pilote l’exercice. Parce que l’IA, avec ses bienfaits et ses risques, va prendre de plus en plus de place dans nos vies, il faut un ingrédient indispensable, plaide-t-il : la confiance.

La Presse : Pourquoi faudrait-il encadrer l’intelligence artificielle (IA) ?

Luc Sirois : L’intelligence artificielle, c’est une technologie extrêmement puissante. Il y a des bénéfices incroyables, il va y avoir des avantages tellement importants dans tous les domaines de la société. Je viens du secteur de la santé et là, l’intelligence artificielle peut nous aider à mieux diagnostiquer d’avance les maladies. Il y a 3000 publications nouvelles dans le secteur de la santé qui sortent chaque semaine, un médecin, une personne humaine ne peut pas arriver à tout absorber. Maintenant, on voit avec ChatGPT et des outils en éducation que les professeurs ont peur que les élèves trichent. Mais si on regarde ça du bon côté, ça peut aider, avec une patience et une disponibilité infinies, les élèves avec leurs devoirs, les aider à comprendre la matière, à pratiquer des exercices en mathématiques, à faire du raisonnement. Mais ce qu’on ne veut pas, c’est que le médecin ou le professeur se fassent donner de l’information dans laquelle il y a des erreurs. On va vouloir avoir confiance qu’il y a eu de la validation sur ce que l’IA suggère. Qui est derrière cette IA ? Quelles sont ses intentions ? Ce sont deux exemples concrets : il faut soutenir l’innovation, l’utiliser, mais il faut avoir confiance.

Avez-vous des exemples d’interactions avec l’IA qui vous ont particulièrement inquiété ?

Ça peut inventer des informations qui ont l’air tellement réalistes. Si on n’est pas averti, si on ne vérifie pas, c’est une interaction inquiétante. Mais rappelez-vous, il y a huit mois, ça n’existait pas. Projetons-nous dans six mois, un an. On va aller vraiment plus loin, il faut se donner des balises. L’intelligence artificielle va être présente partout, comme à l’époque en éducation est arrivée la calculatrice. Ça a changé la façon dont on enseignait les mathématiques. On pouvait se mettre la tête dans le sable, puis se dire : « Ah non, on va l’interdire la calculatrice ». Mais elle était là pour de bon.

Pour l’IA, moi, ce qui m’inquiète, c’est pour la démocratie. Quand tu as des robots qui peuvent générer du faux contenu, de la fausse information, influencer les opinions des électeurs…

La nomination d’un comité ne suscite généralement pas beaucoup d’effervescence chez le citoyen. Pourquoi le vôtre devrait-il nous interpeller ?

Je pense qu’il y a deux raisons. D’abord, toutes les nations du monde se posent la question. Nous, ça fait longtemps qu’on voit venir ça, l’importance d’avoir un cadre éthique et faire les choses de façon responsable avec des chefs de file comme Yoshua Bengio. On est en avant de la parade, on a lancé en 2017 la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Tout le monde y fait référence, et c’est au Québec que ça s’est fait.

L’autre raison, que je trouve fascinante, c’est qu’au lieu de faire seulement un comité, on a lancé une grande réflexion collective.

Il n’y a pas un leader de la société civile qui n’avait pas le goût de réfléchir à ça – les syndicats, l’Autorité des marchés financiers, la Commission de l’accès à l’information, le système de santé, la présidente du Conseil supérieur de l’éducation. On parle de plus de 200 leaders experts qui ont travaillé pendant des heures, des jours là-dessus avec nous pour se prononcer sur les dangers, les occasions, les balises.

Luc Sirois, innovateur en chef du Québec

Ça, c’est assez exceptionnel, tous ces leaders qui réfléchissent sur cette question-là. Ce qu’on fait, c’est unique, parce qu’on le fait de façon collective, ouverte à tous, intelligente et posée.

Les appels au contrôle de l’IA se multiplient et on a l’impression que ça tombe dans l’oreille d’un sourd, en l’occurrence ici les grandes entreprises qui la développent et l’utilisent. La pause de six mois demandée en mars dernier, notamment par Yoshua Bengio et Elon Musk, n’a jamais été respectée. Est-ce ce que cela ne vous décourage pas ?

D’abord, cette grande réflexion, ce comité de travail, ces recommandations, ç’a été déclenché par l’appel en mars dernier. Bon, au Québec, on n’est pas capable d’empêcher les grandes entreprises, mais on a pris l’appel au sérieux. Je trouve un réconfort dans le code de conduite volontaire lancé par Ottawa le mois dernier.

Mais aucune grande entreprise n’y a adhéré…

Eh bien, au début de l’aviation, c’était le Klondike. Au début de l’industrie pharmaceutique, les gens vendaient de l’huile à serpent. Au début, chacun peut faire ce qu’il veut, mais à un moment donné, les entreprises qui vont être celles qui vont être responsables, qui vont amener de la confiance en mettant en place des technologies qui ont été validées, qui respectent des principes importants de protection, de transparence, de confiance, de validation, ce sont à elles que le public va faire confiance.

Sans présumer des conclusions de votre comité, dont le rapport devrait être publié fin 2023, qu’est-ce que vous espérez que tout ça va apporter ?

On a parlé de tous ces experts, ces leaders-là qui se réunissent, mais il y a aussi 422 contributions écrites. Je m’attendais à une expression de peur, comme à l’époque de l’arrivée de la 5G, où les gens brûlaient des antennes. Mais le feedback des Québécois était très équilibré, on nous disait de faire attention, qu’on veut les bons côtés, être une nation innovante, mais on ne veut pas mettre des cadenas partout.

Quand je lis la synthèse de tout ça, ça me donne tellement confiance dans l’humanité puis dans l’intelligence humaine. C’est la combinaison de l’intelligence de 422 personnes qui font de leur mieux pour s’exprimer de façon constructive sur quelque chose.

Les tâches des travailleurs vont changer. Le rêve de tout le comité de travail, c’est d’être capable d’être assez agile pour voir les choses venir, mettre des éléments en place comme de la formation à vitesse grand V, la gestion des conventions collectives, la requalification.

Luc Sirois, innovateur en chef du Québec

Il faut aussi que les gens soient équipés, pour être capables de savoir s’ils ont affaire à des robots, qu’ils aient le droit de parler à des humains. Il y a toute une série d’outils technologiques, puis d’outils sociaux qui doivent être mis en place, que les gens puissent se protéger et puis être des citoyens responsables.

Je dis souvent aux gens qu’il y a plus de réglementations autour d’une brosse à dents aujourd’hui que sur l’intelligence artificielle. Les gens ont confiance que s’ils se mettent ce morceau de plastique dans la bouche, ce n’est pas du plastique nocif, il y a des normes qui ont été respectées.

Est-ce que c’est à l’innovateur en chef de faire des recommandations sur l’IA ? Votre mandat, c’est d’abord l’innovation, pas le contrôle…

C’est drôle parce qu’on demande à l’innovateur en chef, dont le mandat est d’être le motivateur de l’innovation, d’encadrer une innovation. Mais oui, c’est pertinent parce qu’on ne veut pas mettre des cadenas partout, puis être les cancres du monde, être les derniers à profiter des avantages de cette technologie. Mais il faut être prudent.

Nos enfants passent des heures avec l’intelligence artificielle. On veut être rassuré qu’il s’agisse d’IA bien élevée, de confiance, qui a été validée, qu’elle respecte des normes d’intégrité, de qualité de l’information, de bienveillance.

Au Québec, on est particulièrement bienveillant, alors on est bien équipé pour avoir ce discours-là. Et on est aussi particulièrement innovant, et c’est la tension entre ces deux fronts-là qui nous amène à un bon équilibre.

Pour des considérations de concision et de clarté, les propos ont été modifiés.

Le comité sur l’encadrement de l’IA en bref

  • Mandaté par le ministre Pierre Fitzgibbon en mai 2023, le Conseil de l’innovation du Québec, mené par l’innovateur en chef, Luc Sirois, a lancé une vaste « Réflexion collective sur l’encadrement de l’intelligence artificielle ».
  • Six thèmes seront abordés, notamment le cadre de gouvernance, les impacts sur le travail, l’utilisation par l’État et les investissements en recherche et dans le privé.
  • Les travaux se déroulent en trois phases : consultations d’experts, forums publics et rédaction du rapport avec recommandations au gouvernement.
  • Le mandat devrait se terminer d’ici la fin de l’automne.
  • Le Conseil a lancé en juillet dernier un appel aux contributions publiques « pour assurer une grande diversité de points de vue », tant auprès d’experts que de représentants de la société civile ; 422 personnes y ont répondu.