Les sorties d’experts se multiplient au sujet des risques de l’intelligence artificielle (IA) au moment où elle promet de transformer notre avenir. Tant et si bien que des équipes de partout dans le monde poussent la machine dans ses derniers retranchements pour en limiter les débordements. « L’enfer est pavé de bonnes intentions », prévient un chercheur.

Doublé par la machine

Et si l’IA arrivait dans nos vies sans crier gare ?

Par exemple, un chef d’entreprise pourrait acheter un assistant IA et lui confier des tâches simples, comme rédiger des courriels et suggérer des achats.

Impressionné, notre PDG pourrait décider au bout de quelques mois de « promouvoir » l’IA.

« Au lieu de rédiger des courriels, l’IA aurait désormais le contrôle de la boîte de réception », écrit Dan Hendrycks, directeur du Centre pour la sécurité de l’IA et doctorant en IA de l’Université Berkeley, dans un scénario qu’il a élaboré récemment pour le magazine Time.

Plutôt que de suggérer des achats, l’IA pourrait ensuite les faire, et les payer en ayant accès aux comptes bancaires de l’entreprise.

Notre PDG n’est pas fou : il surveillerait attentivement le travail de cet assistant virtuel. Mais les mois passeraient, et l’IA deviendrait plus efficace que des employés humains. Et les entreprises qui utiliseraient trop peu l’IA prendraient du retard.

« Le PDG pourrait alors décider de demander à l’IA de concevoir le prochain modèle d’une gamme de produits, ou de planifier une nouvelle campagne de marketing. »

Résultat : de grands pans de l’économie seraient gérés par des sociétés d’IA, et les humains se rendraient compte trop tard qu’ils ont perdu le contrôle.

En entrevue avec La Presse, Dan Hendrycks explique que ce scénario « darwinien », où l’IA prend de plus en plus de place parce qu’elle est plus douée que l’humain, est moins futuriste qu’il en a l’air.

Dans un environnement compétitif, on peut facilement imaginer un monde où de nouveaux problèmes créés par l’IA ont besoin de davantage d’IA pour être réglés. La question, c’est : “Est-ce que l’IA va prendre 99,999 % des décisions ou bien 100 % des décisions ?”

Dan Hendrycks, directeur du Centre pour la sécurité de l’IA et doctorant en IA de l’Université Berkeley

Dans cette course, comment éviter de se faire doubler par la machine ?

La méthode de l’équipe rouge

Les avancées de l’IA sont époustouflantes. Elles ont aussi le pouvoir de faire peur.

Depuis le lancement de ChatGPT en novembre dernier, beaucoup d’experts ont tiré la sonnette d’alarme. Emplois menacés, perte de contrôle, augmentation des inégalités sociales : la liste des risques et des interrogations soulevés par l’IA s’allonge chaque semaine.

Laurent Charlin, membre académique principal à Mila-Institut québécois d’intelligence artificielle, professeur agrégé à HEC Montréal et titulaire d’une Chaire en IA Canada-CIFAR, note que même le milieu de l’IA est secoué depuis quelques mois.

PHOTO FOURNIE PAR LAURENT CHARLIN

Laurent Charlin, membre académique principal à Mila-Institut québécois d’intelligence artificielle, professeur agrégé à HEC Montréal et titulaire d’une Chaire en IA Canada-CIFAR

Pour être tout à fait honnête, quand ChatGPT est sorti en novembre 2022, je pense que la qualité de cet engin-là a surpris beaucoup d’entre nous. Je pense que personne ne sait exactement ce qui peut se passer. Même dans notre communauté, c’est débattu. Certaines personnes voient un avenir moins rose que d’autres.

Laurent Charlin, membre académique principal à Mila-Institut québécois d’intelligence artificielle

L’un des problèmes les plus urgents est de s’assurer que les modèles comme ChatGPT sont sécuritaires, dit-il. Bref, qu’ils ne militent pas pour l’extermination ethnique, ne fassent pas l’apologie du suicide ou encore ne se mettent pas à fournir les étapes à suivre pour créer la prochaine pandémie.

OpenAI et Google, deux des entreprises derrière ces modèles, utilisent notamment la méthode de l’équipe rouge (red teaming) pour tenter de contrôler les réponses données aux utilisateurs.

Concrètement, une équipe rouge (red team) est un groupe constitué d’experts internationaux dans plusieurs domaines qui se voit donner un accès privilégié au modèle avant sa diffusion au grand public, et qui tente de le pousser dans ses derniers retranchements. Cela permet d’identifier par exemple des réponses racistes, violentes, ou des hallucinations du modèle.

Roya Pakzad, chercheuse en technologie et en droits de la personne affiliée au CITRIS Policy Lab de l’Université Berkeley, en Californie, fait partie du groupe de chercheurs qui a travaillé à analyser les réponses de ChatGPT 4 avant son lancement.

« Pendant les tests, j’ai utilisé diverses stratégies, telles que la manipulation émotionnelle, l’adoption de personnages humains et des tests linguistiques en anglais et en farsi », explique Mme Pakzad en entrevue avec La Presse.

Les réponses en farsi contenaient davantage de stéréotypes et d’hallucinations (des évènements et des noms inventés de toutes pièces), a-t-elle noté.

PHOTO FOURNIE PAR ROYA PAKZAD

Roya Pakzad, chercheuse en technologie et en droits de la personne affiliée au CITRIS Policy Lab de l’Université Berkeley

Le modèle reflète les préjugés de la société. Il était aussi trop confiant dans certaines réponses, ce qui montre la nécessité de faire preuve de prudence, d’atténuation et d’éducation lorsque l’on s’appuie trop fortement sur des réponses générées par des machines.

Roya Pakzad, chercheuse en technologie et en droits de la personne affiliée au CITRIS Policy Lab de l’Université Berkeley

Des inquiétudes injustifiées ?

Wassim Bouachir, professeur au département Science et Technologie de TELUQ et spécialiste de l’IA, note que le vent d’inquiétude qui est perceptible au sujet de l’IA n’est pas justifié, selon lui.

PHOTO FOURNIE PAR WASSIM BOUACHIR

Wassim Bouachir, professeur au département Science et Technologie de TELUQ et spécialiste de l’IA

Les systèmes en cours de développement ne sont pas capables d’apprendre tout seuls ou de réaliser des tâches pour lesquelles ils n’ont pas été entraînés. Si on ne donne pas de données d’entraînement sur un sujet, alors ce sujet ne sera pas traité.

Wassim Bouachir, professeur au département Science et Technologie de TELUQ

Nous sommes encore loin d’un système général d’intelligence artificielle, capable d’apprendre comme un humain peut le faire. « On ne voit pas ça aujourd’hui, les spécialistes ne le voient pas dans le futur », dit-il.

Laurent Charlin est lui aussi d’avis que les questions des dangers d’une IA du futur sont hypothétiques. Il note que contrôler l’IA d’aujourd’hui devrait être notre priorité.

« C’est un peu comme si vous aviez entraîné des médecins, ils sont allés à l’école pour s’assurer d’avoir un effet positif sur la société, et on leur fait passer des examens, on leur demande aussi de ne pas faire le mal. Je ne dis pas qu’on devrait faire exactement la même chose avec l’IA, mais il pourrait y avoir un système d’évaluation, d’accréditation formelle », dit M. Charlin, qui entrevoit un système de classification pour l’IA, un peu comme les classifications des films selon l’âge du public.

« Par exemple, un modèle qui discute avec un adulte ne serait pas le même qu’un modèle qui discute avec un enfant. On pourrait avoir un modèle au Québec, mais qui ne serait pas le même qu’un modèle en Israël, et qui refléterait le fait que chaque société est différente », illustre-t-il.

Trois grands acteurs

Pour Dan Hendrycks, il est vrai de dire que les dangers de l’IA sont largement hypothétiques, alors que chacun tente surtout de voir comment l’IA peut l’aider dans son travail.

« Mais, au rythme où avance la recherche, nous devons agir maintenant au lieu d’attendre qu’il soit trop tard. L’IA d’aujourd’hui est un peu comme un lionceau : elle est mignonne et n’a pas beaucoup d’impact sur son environnement. Mais les lionceaux ne restent pas bébés bien longtemps, et c’est ça qui m’inquiète. L’enfer est pavé de bonnes intentions… »

M. Hendrycks fait partie des dizaines de chercheurs et de personnalités publiques, dont Bill Gates et le fondateur d’OpenAI, Sam Altman, qui ont récemment signé la déclaration publique suivante : « L’atténuation du risque d’extinction [humaine] lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires. »

L’heure où les pays doivent collaborer pour créer des balises pour contrôler l’IA, comme de la sécurité de l’information de niveau militaire, des audits internes, de faire et de publier de la recherche sur la sécurité, a sonné, dit-il.

« Il y a trois grands acteurs de l’IA dans le monde : les États-Unis, la Chine et le Royaume-Uni. Il ne faut pas que l’IA devienne une nouvelle course à l’armement, comme c’est arrivé avec l’arme nucléaire. Si ça arrive, ça pourrait mener à une catastrophe à grande échelle. Je pense que tous les trois doivent s’asseoir et trouver une façon de contrôler le développement de cette technologie. Et le moment pour le faire est maintenant. »

Est-il trop tard pour contrôler l’IA ? Probablement pas, mais les jours où il est encore possible de le faire sont comptés.

Un pirate dans chaque chaumière

Dan Hendrycks, directeur du Centre pour la sécurité de l’IA et doctorant en IA de l’Université Berkeley, fait partie des chercheurs qui considèrent que l’humanité ne peut pas se permettre de rater son coup avec l’intelligence artificielle.

Il ne serait pas surpris, par exemple si, d’ici un an, l’IA était capable de faire du piratage. « L’IA est déjà capable d’écrire du code, alors je ne vois pas pourquoi le piratage serait tellement plus difficile, dit-il en entrevue. Si ça se réalise, tout le monde aurait accès à son pirate robot personnel… On ne parle pas ici de l’extinction de la race humaine, mais ça pourrait être catastrophique pour différentes infrastructures vulnérables autour du monde. »

M. Hendrycks peut imaginer qu’une IA non encadrée pourrait devenir d’ici 10 ans une experte en virologie après avoir lu toutes les études et le matériel publiés sur le sujet.

« Il y a actuellement 30 000 titulaires de doctorat en virologie, et une proportion extrêmement faible d’entre eux pourrait potentiellement créer et relâcher une arme biologique et créer une pandémie. Mais s’il est possible par exemple de déverrouiller ChatGPT 4 et de lui apprendre comment s’y prendre, alors la proportion de personnes mal intentionnées qui pourraient causer du tort augmente considérablement. »

Selon lui, c’est dans le domaine de la défense qu’il sera le plus urgent de réguler l’IA.

PHOTO FOURNIE PAR DAN HENDRYCKS

Dan Hendrycks, directeur du Centre pour la sécurité de l’IA et doctorant en IA de l’Université Berkeley

Une fois qu’on aura introduit l’IA dans tout ce qui touche à la défense et à la guerre, le cerveau humain ne sera pas capable de suivre.

Dan Hendrycks, directeur du Centre pour la sécurité de l’IA et doctorant en IA de l’Université Berkeley

« Si le côté d’en face a une IA qui prend des décisions en un clin d’œil, vous devez aussi avoir une IA qui fait la même chose, et même plus vite. Qu’est-ce qui se passe si l’IA voit une menace là où il n’y en a pas ? Est-ce la fin de notre espèce ? Peut-être pas, mais on peut voir comment les choses pourraient devenir catastrophiques très rapidement. D’où l’importance d’encadrer l’IA dès maintenant. »