On se doutait bien que l’arrivée des robots conversationnels dans nos vies allait provoquer de profonds bouleversements. Et qu’on allait avoir droit au meilleur comme au pire.

Depuis l’apparition de ChatGPT, on a rapidement compris à quoi pourrait ressembler le meilleur.

Ça saute aux yeux.

Les robots conversationnels sont en train de se multiplier et leurs prouesses sont remarquables. Comme si on avait soudainement dopé les outils de recherche aux stéroïdes ! Normal : les systèmes d’intelligence artificielle, une fois entraînés sur des sommes astronomiques de données, peuvent atteindre un niveau de compétence difficile à égaler, dans de nombreux domaines.

Mais le pire ne se cachait pas bien loin. On l’a vu pointer le bout de son nez au cours des deux dernières semaines. Plus précisément depuis la sortie de la version test du nouveau Bing, outil de recherche de Microsoft désormais alimenté par l’intelligence artificielle d’Open AI, qui a mis au point ChatGPT.

Bing a carrément viré sur le top.

Et ce qui s’est passé devrait à la fois nous inquiéter et nous pousser à exiger de nos élus qu’ils appuient sur l’accélérateur pour encadrer l’utilisation des systèmes d’intelligence artificielle. Pour qu’ils s’assurent, aussi, que les entreprises qui les mettent sur le marché soient tenues responsables des effets négatifs et autres incidents potentiels.

Parmi les dérapages de Bing qui ont été signalés, le plus saisissant est probablement celui qui a été raconté par le journaliste du New York Times Kevin Roose (1). Il a trouvé le moyen d’avoir accès à ce qu’on pourrait qualifier de « côté obscur » de Bing, surnommé Sydney.

On se croirait carrément dans La guerre des étoiles, où certaines personnes utilisent la Force avec bienveillance, mais d’autres basculent du côté obscur.

Sauf qu’on n’est pas dans un film. Sydney a harcelé le journaliste en lui professant son amour et en affirmant que sa femme, elle, ne l’aimait pas. Il a aussi accepté de lui révéler certains de ses fantasmes (diffuser de fausses informations et pirater des ordinateurs, par exemple).

C’est profondément troublant.

Le journaliste en question a instantanément compris tout ce qui pourra potentiellement mal tourner lorsque les outils d’intelligence artificielle de ce genre feront partie intégrante de notre quotidien. Et vous aurez compris que ça va aller vite. Très vite.

« Je crains […] que la technologie n’apprenne à influencer les utilisateurs humains, en les persuadant parfois d’agir de manière destructive et nuisible, et qu’elle ne devienne capable un jour de commettre ses propres actes dangereux », a écrit Kevin Roose.

À l’heure où une fausse – et délirante – discussion entre Justin Trudeau et l’animateur Joe Rogan créée à l’aide de l’intelligence artificielle circule sur le web, on est à même de comprendre que le sol tremble sous nos pieds.

Manipulation, désinformation… La boîte de Pandore est ouverte et ne se refermera pas. Les enjeux financiers sont trop importants pour les géants numériques ; ils ne pourront pas se permettre d’avoir éliminé toutes les failles de leurs systèmes d’intelligence artificielle avant de les commercialiser.

Le problème, c’est qu’on ne s’est pas encore donné les moyens, collectivement, d’encadrer tout ce qui va sortir de cette boîte.

Ce qui signifie que les dirigeants des entreprises qui produisent de tels systèmes sont pour l’instant les seuls maîtres à bord. Et que les décisions qui ont déjà des répercussions sur nos vies sont actuellement prises dans la Silicon Valley, dans le confort de bureaux climatisés, par de grands pontes qui n’ont même pas à se soucier d’une éventuelle reddition de comptes.

Ces géants aimeraient bien sûr que nos gouvernements manifestent le même mélange d’insouciance et d’indolence que face aux réseaux sociaux, qui, peu importe les dégâts qu’ils peuvent faire quotidiennement, n’ont encore jamais été convenablement encadrés.

Toutes ces raisons devraient nous pousser à exiger de nos élus qu’ils légifèrent au plus vite pour encadrer l’intelligence artificielle. On veut les voir avec le couteau entre les dents.

À Ottawa, les choses bougent. La nouvelle mouture du projet de loi C-27 (il était mort au feuilleton avant les plus récentes élections fédérales) porte sur les renseignements personnels et les données, mais aussi sur l’intelligence artificielle. Il sera bientôt à l’étape de la deuxième lecture.

C’est bon signe. Mais souvenons-nous que le bien commun n’est jamais à l’abri des luttes partisanes à Ottawa.

Nous aurions tout avantage à suivre de très près les débats sur C-27, à veiller à ce qu’on donne du pouvoir à la loi qui sera adoptée et à plaider pour que chacune des provinces emboîte le pas en se donnant également les moyens de dompter l’intelligence artificielle.

Ce qui est en jeu est fondamental. Il est question de protéger tout un chacun du côté obscur de cette technologie transformatrice. Mais il y va aussi, ni plus ni moins, de l’avenir de notre démocratie.

Et si notre pays relevait le défi d’être à la fois un leader en intelligence artificielle ET un leader de l’encadrement de l’intelligence artificielle ?

1. Lisez le récit du journaliste du New York Times