Êtes-vous prêt pour la révolution ? Les récents progrès de l’intelligence artificielle, comme illustrés par les succès du robot conversationnel ChatGPT, nous forcent à réfléchir à notre avenir. Allons-nous prendre le changement par la main ou nous prendra-t-il par la gorge ? C’est ce que se demande notre éditorialiste Alexandre Sirois. Chose certaine, s’avouer vaincu serait la pire des stratégies…

Ceci n’est plus de la science-fiction

« Dès lors que l’intelligence artificielle prendra de meilleures décisions que nous sur nos carrières, voire nos relations, nous devrons revoir notre conception de l’humanité et de la vie. »

C’est ce que l’historien israélien Yuval Noah Harari a prédit il y a cinq ans, dans un livre intitulé 21 leçons pour le XXIe siècle.

Il joue tout particulièrement au futurologue dans les premiers chapitres de ce livre, qui portent sur « le défi technologique ». Il entrevoit un avenir où les humains vont se fier à des algorithmes pour décider dans quelle discipline ils vont étudier ou pour quelle entreprise ils iront travailler.

Et même pour choisir les personnes qu’ils vont épouser !

En somme, il décrit un monde où « l’autorité » passerait des humains aux ordinateurs.

Quand j’ai lu ce livre il y a quelques années, j’ai trouvé ces chapitres absolument fascinants.

Mais j’ai eu tendance, à l’époque, à associer ces idées à de la science-fiction.

Elles se retrouvaient à mes yeux dans la même catégorie que le scénario futuriste du film 2001 : l’odyssée de l’espace. Dans ce long métrage de Stanley Kubrick, un ordinateur doté d’intelligence artificielle prend le contrôle d’un vaisseau spatial et tente d’en éliminer les membres d’équipage.

Or, comme plusieurs, j’ai testé le robot conversationnel ChatGPT au cours des dernières semaines. Et j’ai maintenant l’impression qu’il y a davantage de science et moins de fiction que je le pensais dans les propos de l’historien Yuval Noah Harari.

Sommes-nous véritablement sur le point d’assister à une révolution ? Jusqu’à quel point notre société va-t-elle être ébranlée par les changements majeurs qui s’annoncent ? Quel impact les nouveaux outils alimentés par l’intelligence artificielle auront-ils sur nos décisions ? Et, plus largement, sur nos vies ? J’ai cherché à le savoir en m’entretenant avec une dizaine d’experts de la question.

À commencer par Yoshua Bengio, professeur titulaire à l’Université de Montréal et sommité mondiale en intelligence artificielle.

PHOTO ALAIN ROBERGE, ARCHIVES LA PRESSE

Yoshua Bengio, professeur titulaire à l’Université de Montréal et sommité mondiale en intelligence artificielle

« Peut-on parler de révolution, Monsieur Bengio ?

– Éventuellement, oui. Ça va se faire graduellement. L’intelligence artificielle va transformer non seulement nos économies, mais aussi notre quotidien. Et même, plus profondément, l’idée qu’on se fait de ce qu’est un être humain, de ce qu’est l’intelligence, et même, éventuellement, la conscience. C’est radicalement transformateur. »

Un moment charnière

L’informaticien n’est pas surpris de voir à quel point l’apparition de ChatGPT a été perçue comme un moment charnière dans le développement de l’intelligence artificielle.

Il souligne que la science avance par petits pas. Et qu’à un certain moment, un de ces pas est jugé fondamental. Il compare le phénomène à un vase qu’on remplirait d’eau, un millimètre à la fois. Un jour, il va déborder.

« À un moment donné, ça devient utilisable. On atteint un certain niveau de performance qui fait qu’on va retrouver ça dans nos téléphones. On passe un seuil qui fait que les compagnies veulent s’en emparer parce qu’elles voient que c’est suffisamment bon pour apporter une plus-value », décrit-il.

Avec ChatGPT, donc, le vase commence à déborder. D’ailleurs, même si ce robot est toujours en développement et que sa version actuelle est imparfaite, il connaît un succès phénoménal.

Il a franchi le cap du million d’utilisateurs en cinq jours après son lancement, en novembre 2022. Certains, sur les réseaux sociaux, n’ont pas manqué de rappeler qu’il a fallu dix mois à Facebook pour en faire autant, cinq mois à Spotify et trois ans et demi à Netflix.

Mais à quoi sert ChatGPT ?

Demandons-lui !

« Quelle est ton utilité, ChatGPT ?

– Je peux être utilisé pour de nombreuses tâches liées au traitement du langage naturel, telles que la réponse à des questions, la traduction, la génération de texte, la rédaction automatique, la compréhension de commandes vocales et bien plus encore. Je peux aider les gens à accéder rapidement à l’information, à automatiser certaines tâches de saisie de données et à améliorer la qualité de la communication. Les entreprises peuvent également utiliser mes capacités pour améliorer les chatbots et les assistants virtuels, ainsi que pour créer des systèmes de recommandation plus sophistiqués. »

Impressionnant, n’est-ce pas ? Que vous testiez sa créativité ou son efficacité, vous serez à coup sûr étonné. Autant pour un poème sur les changements climatiques à la manière de Gilles Vigneault que des leçons d’espagnol ou un résumé de la crise d’Octobre !

La plupart des robots conversationnels sont capables d’aligner des phrases préprogrammées. Mais ChatGPT fait beaucoup, beaucoup mieux. Il analyse le langage naturel et est en mesure de le recréer pour répondre à nos questions, grâce à des réseaux de neurones qui fonctionnent un peu comme le cerveau humain.

Impressionnant pour tout le monde

Les ingrédients de son succès ? Nous avons demandé à Joëlle Pineau, directrice de la recherche en intelligence artificielle au laboratoire Fair de Meta (anciennement Facebook), de nous l’expliquer.

À la base, « on pense qu’il s’appuie sur beaucoup de données, qui sont amassées directement sur l’internet », mais aussi dans plusieurs autres sources comme des livres et des balados, dit-elle.

Il ne faut toutefois pas sous-estimer le travail humain derrière la machine.

PHOTO ALAIN ROBERGE, ARCHIVES LA PRESSE

Joëlle Pineau, directrice de la recherche en intelligence artificielle au laboratoire Fair de Meta

Ce sont des humains qui vont annoter des conversations pour indiquer lesquelles sont bonnes, moins bonnes, ou même toxiques.

Joëlle Pineau, directrice de la recherche en intelligence artificielle au laboratoire Fair de Meta

Ce sont aussi des humains qui veillent sur le classement des réponses, de façon à ce que le système en vienne à offrir les meilleures possibles.

PHOTO KARENE-ISABELLE JEAN-BAPTISTE, ARCHIVES COLLABORATION SPÉCIALE

Olivier Blais, cofondateur de Moov AI

« ChatGPT est l’un des rares outils d’intelligence artificielle qui sont aussi impressionnants pour monsieur et madame Tout-le-Monde que pour l’expert. C’est vraiment quelque chose de révolutionnaire », affirme Olivier Blais, cofondateur de l’entreprise montréalaise Moov AI, qui offre des services de consultation en intelligence artificielle.

Il parle avec l’enthousiasme d’un enfant dans un magasin de bonbons.

On est déjà rendu au point où l’intelligence artificielle « va fournir de l’information pour être capable de prendre des décisions éclairées. Et ça va s’améliorer encore plus », précise-t-il.

Comme plusieurs experts consultés, il cite spontanément le secteur de la santé quand on lui demande des exemples concrets pour comprendre qui pourrait le plus bénéficier de cette révolution.

Il imagine très bien qu’un outil comme ChatGPT pourrait être responsable du service de consultation de la ligne 811.

« En ce moment, si on utilise ChatGPT, c’est très général et pas nécessairement fiable. Par contre, quand on va l’adapter à un corpus, ce sera différent. Pour les soins de santé, on pourrait lui fournir toutes les transcriptions du 811 » et ainsi obtenir des résultats « plus probants et plus fiables ».

Un robot pour remplacer des pros

C’est pour cette raison qu’à peu près tous ceux qui s’y connaissent en intelligence artificielle s’entendent pour dire que le monde de l’emploi va être bouleversé.

Même que depuis l’apparition de ChatGPT, le statut de professions qu’on pouvait croire à l’abri semble désormais plus précaire.

On a longtemps craint que les voitures intelligentes puissent mettre les chauffeurs de taxi au chômage, par exemple. Ou que l’intelligence artificielle appliquée dans les commerces fasse disparaître une bonne partie des humains (en vacances à Seattle en famille l’été dernier, j’ai visité une épicerie Amazon Go et je n’ai pas eu besoin de passer à la caisse pour payer).

Mais là, la liste vient de s’allonger. Est-ce qu’on aura besoin désormais de moins de médecins ? De moins de journalistes ? De moins de professeurs ?

Est-ce que les machines, du haut du savoir qu’elles auront accumulé en étant alimentées par des quantités astronomiques de données, en viendront à prendre de meilleures décisions que nous ?

« Je vous rassure, on n’y est pas encore », répond Foutse Khomh, professeur titulaire au département de génie informatique et génie logiciel de Polytechnique Montréal.

PHOTO TIRÉE DU SITE EB DE POLYTECHNIQUE MONTRÉAL

Foutse Khomh, professeur titulaire au département de génie informatique et génie logiciel de Polytechnique Montréal

Le risque de se faire remplacer à court terme, du moins pour des tâches qui nécessitent notre créativité ou notre compréhension de la complexité des interventions humaines et sociales… on en est encore loin.

Foutse Khomh, professeur titulaire au département de génie informatique et génie logiciel de Polytechnique Montréal

Mais les avancées dans ce domaine poussent le professeur Khomh, tout comme la directrice générale de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique, Lyse Langlois, à sonner l’alarme. Au cours de l’entrevue virtuelle qu’ils nous ont accordée, ils ont tous les deux insisté : il faut veiller à ce que le développement se fasse de façon « reponsable » en intelligence artificielle.

Mais c’est bien sûr beaucoup plus facile à dire qu’à faire.

Quand l’intelligence artificielle dérape

Professeure adjointe au département de management de l’Université Laval, Gaëlle Cachat-Rosset nous prévient dès le début de notre entrevue : elle va nous soumettre à un test, comme elle le ferait avec ses étudiants.

Elle nous demande d’inscrire les mots « un infirmier » dans Google traduction et de les traduire en… hongrois !

Le résultat : nővér.

Puis, elle nous dit d’essayer de le traduire de nouveau, cette fois pour revenir au français.

Étrangement, l’outil de traduction automatique de Google, alimenté par l’intelligence artificielle, nous propose le mot sœur. On aurait aussi pu obtenir le mot infirmière, explique la professeure.

« Ça donne un féminin ! Vous êtes parti d’un mot masculin que vous avez traduit dans une langue qui n’a pas de pronom de genre. Et lorsqu’on retraduit à partir du hongrois, on voit à quel point les stéréotypes de genre associés au métier apparaissent. »

Gaëlle Cachat-Rosset s’est spécialisée dans les recherches sur les questions de diversité et d’inclusion dans les organisations. Avec le recours à l’intelligence artificielle qui se généralise, elle a du pain sur la planche.

Des biais amplifiés

Elle nous explique que nous avons – hélas – une trop faible conscience du risque auquel on s’expose en laissant l’intelligence artificielle prendre davantage de décisions pour nous.

Et elle nous dit qu’il existe déjà de nombreux exemples de dérives liées à la discrimination, aux biais et aux stéréotypes perpétués par les systèmes basés sur l’intelligence artificielle comme ChatGPT.

Un des plus (tristement) célèbres, c’est celui de l’entreprise Amazon, qui avait décidé de recruter des employés à l’aide de l’intelligence artificielle dès 2014. Or, le géant du numérique a rapidement constaté que ce système excluait les femmes du processus pour des postes comme ceux de développeurs en informatique. C’est qu’il avait été nourri avec les CV des employés précédents, qui étaient en grande majorité des hommes. Il en a conclu qu’un bon employé était forcément un homme.

Lorsque l’intelligence artificielle apprend des données historiques d’une organisation ou de celles de notre société, elle a tendance non seulement à reproduire les biais qui peuvent exister, mais aussi à les amplifier, parce qu’elle cherche la ligne la plus droite pour avoir un résultat performant.

Gaëlle Cachat-Rosset, professeure adjointe au département de management de l’Université Laval

Une autre experte, Sandra Rodriguez, nous a aussi cité l’exemple du recrutement vicié chez Amazon. Cette sociologue des nouveaux médias est aussi directrice de création d’œuvres immersives qui utilisent l’intelligence artificielle. Elle vient tout juste d’en concevoir une pour nous permettre « d’apprendre ce qui se cache sous le capot » de cette nouvelle technologie.

Comment on fabrique l’intelligence artificielle, en somme.

Ce projet, que l’Office national du film du Canada va présenter à Montréal d’ici quelques mois, permet d’avoir une conversation avec un double numérique du célèbre linguiste américain Noam Chomsky.

Un robot conversationnel a donc été créé à partir de « traces numériques » de cet expert trouvées sur le web, dont de nombreux textes et des interventions publiques. Ce robot permet aussi à ceux qui vont le questionner de comprendre que toutes ses réponses « sont menées par des algorithmes ». Et de voir comment elles sont créées.

De fil en aiguille, notre conversation avec Sandra Rodriguez aborde les travaux de Kate Crawford, auteure du Contre-atlas de l’intelligence artificielle. On explique entre autres dans cet essai que « les systèmes d’IA sont finalement conçus pour servir les intérêts dominants ». Et qu’il est urgent de se poser des questions sur la façon dont ils sont produits et adoptés.

« Kate Crawford a dit que la technologie n’est pas en soi bonne ou mauvaise, mais qu’elle n’est jamais neutre, dit Sandra Rodriguez. Il faut toujours qu’on garde une antenne bien allumée qui se pose des questions sur l’intelligence artificielle comme : qui l’entraîne et sur quelle base ? »

Des décisions lourdes de sens

Le sociologue Jonathan Roberge, professeur titulaire, Centre urbanisation, culture société de l’INRS, partage les mêmes préoccupations.

S’il ne s’inquiète pas outre mesure de voir l’intelligence artificielle influencer nos décisions sur diverses plateformes numériques (les recommandations de Netflix ou de Spotify, par exemple), il affirme que plus « les systèmes plus névralgiques » seront touchés, « plus ça va être problématique ».

En éducation, en défense ou en matière de justice, par exemple.

Que vous ne regardiez pas vraiment le meilleur film, un soir, ce n’est pas si grave. Mais que vous alliez en prison pour huit ans à la suite de la décision d’une intelligence artificielle alors qu’un humain vous aurait donné une peine beaucoup moindre… On n’est pas dans la même portée sociale.

Jonathan Roberge, sociologue et professeur titulaire, Centre urbanisation, culture société de l’INRS

Et ça non plus, ça ne relève pas de la science-fiction. Déjà, aux États-Unis, certains se fient à l’intelligence artificielle pour les décisions en matière de mise en liberté sous caution. Et cette nouvelle façon de procéder, en raison des biais des algorithmes, est loin de faire l’unanimité. Les résultats obtenus au New Jersey ont notamment été dénoncés.

Le sociologue estime lui aussi qu’on vient de franchir un cap quant à l’utilisation de l’intelligence artificielle pour nos décisions. « C’est tellement efficace et facile à mettre en opération dans différents systèmes que, par pression économique, ça va se répandre, prédit-il. Que ce soit dommageable ou intéressant pour les sociétés contemporaines, ça n’a presque plus d’importance. »

Le génie est sorti de la bouteille. Et il n’y retournera plus.

Il faut donc le dompter.

Pour éviter de frapper un mur

Alors, le jour où les ordinateurs mèneront le monde, c’est pour quand ?

« Je pense qu’on ne verra jamais ça », nous répond Catherine Régis, professeure titulaire à la faculté de droit de l’Université de Montréal.

Mais les développements en intelligence artificielle nous forcent à réfléchir de toute urgence à la façon avec laquelle on veut travailler avec les machines, réplique-t-elle.

« On n’a pas encore assez articulé ou défini ce qu’on veut déléguer à la machine et ce qu’on veut garder pour l’être humain », estime-t-elle. Or, si on n’y parvient pas assez rapidement, « on va se ramasser devant un mur ».

Ses propos me font penser à ce que disait Winston Churchill au sujet du changement : mieux vaut le prendre par la main avant qu’il nous prenne par la gorge.

Parlant de le prendre par la main, tant Catherine Régis que Céline Castets-Renard – pour sa part professeure titulaire à la faculté de droit de l’Université d’Ottawa – affirment avec aplomb qu’il est plus que temps pour nos gouvernements de légiférer à ce sujet.

La déclaration de Montréal pour un développement responsable de l’intelligence artificielle, adoptée en 2018, a fait grand bruit. Mais il s’agit simplement d’un cadre éthique. C’est loin d’être suffisant.

« C’est de l’éthique, et les entreprises n’en ont rien à faire. Il faut du droit. Je travaille avec des professeurs en éthique, très sérieux, et ils en viennent au même constat que moi », dit Céline Castets-Renard.

Un projet de loi sur la protection des renseignements personnels et sur l’intelligence artificielle (C-27) est actuellement à l’étude à Ottawa. C’est un pas dans la bonne direction, de toute évidence.

PHOTO TIRÉE DU SITE WEB DE L’UNIVERSITÉ DE MONTRÉAL

Catherine Régis, professeure titulaire à la faculté de droit de l’Université de Montréal

Il faut aller vers des cadres contraignants non seulement à l’échelle locale, mais aussi à l’échelle internationale.

Catherine Régis, professeure titulaire à la faculté de droit de l’Université de Montréal

Car les algorithmes qui vont modifier nos vies chaque jour davantage ne connaissent pas de frontières. Ceux qui alimentent les réseaux sociaux comme Facebook, Twitter et TikTok en sont la preuve. Des géants américains et chinois nous imposent leurs règles.

Parallèlement, ce qui est crucial, c’est de braquer nos projecteurs sur tous les enjeux soulevés.

Y réfléchir et en parler.

À peu près tous les experts que nous avons interviewés nous l’ont dit.

Le peu de débats sérieux dans nos sociétés sur ces enjeux contraste avec l’ampleur des changements annoncés et des dérives potentielles.

On ne peut pourtant pas compter sur l’intelligence artificielle pour s’en occuper à notre place !

Définir les orientations de cette nouvelle technologie, c’est notre rôle à nous, les humains.

« Je ne pense pas qu’il faut plus de débats, mais il faut plus de conversations qui vont nous permettre d’explorer les tensions entre les différentes propriétés des systèmes », affirme Joëlle Pineau.

Les tensions ? Elle explique que si on développe un modèle en intelligence artificielle, on pourra par exemple le rendre plus performant, mais on risque de se retrouver avec plus de biais. Et vice versa. Ou mettre l’accent sur la sécurité… au détriment de la vie privée. Ou encore l’inverse.

Des choix doivent donc être faits.

« Il faut qu’on décide comment on va construire cette nouvelle réalité sociotechnologique », dit-elle.

Même son de cloche du côté de Yoshua Bengio. S’il est très enthousiaste quant à la façon dont l’intelligence artificielle peut « accélérer la science », il soutient malgré tout qu’une « réflexion complète » s’impose.

« Je pense qu’il faut une refonte complète de quel genre de société on a besoin, des enjeux environnementaux, mais aussi des enjeux d’abus de la technologie, de contrôle, de pouvoir concentré grâce à la technologie », dit-il.

Et d’ajouter, pour compléter sa mise en garde : « La technologie peut libérer, mais elle peut aussi être un outil de concentration du pouvoir de la richesse. Et ça, c’est carrément le contraire de la démocratie. »