Le robot conversationnel ChatGPT de l’entreprise OpenAI est sans doute la technologie qui a le plus fait écarquiller les yeux en 2022. Plusieurs tentent d’anticiper les effets que les systèmes d’intelligence artificielle (IA) comme ChatGPT auront sur la vie humaine. Comme c’est toujours le cas lorsque l’IA fait de nouvelles percées, l’emballement et le battage médiatiques rendent une appréhension juste et sobre de ses capacités et de ses impacts presque impossible.

Même en écartant les scénarios fantaisistes souvent évoqués par ceux qui ont passé beaucoup de temps à écrire du code et à consommer de la science-fiction, on doit reconnaître que des technologies d’IA comme ChatGPT ou encore des générateurs d’images comme DALL-E ou Midjourney sont des technologies perturbatrices. Elles modifient substantiellement des pratiques sociales bien établies.

ChatGPT a été conçu sur la base d’une approche hybride combinant l’apprentissage automatique supervisé et l’apprentissage par renforcement.

ChatGPT – très énergivore – dispose d’une gigantesque puissance de calcul et a eu accès à une très volumineuse base de données textuelles dans la première phase de son entraînement.

Dans un second temps, il a bénéficié de la rétroaction de juges humains qui ont évalué la qualité de ses réponses à des requêtes. Notons que si ChatGPT évite mieux que ses prédécesseurs de donner des réponses racistes, misogynes ou homophobes, c’est que des règles de conduite ont été ajoutées par les programmeurs afin que le logiciel se tienne loin de ce genre de propos. Il n’a pas appris l’art du raisonnement moral.

L’agent conversationnel d’OpenAI produit des textes particulièrement bien construits d’un point de vue syntaxique et parfois surprenants d’un point de vue sémantique. Par exemple, sa réponse à la question soumise par l’éditorialiste Alexandre Sirois⁠1 sur « les impacts de ChatGPT sur le monde du travail » se rapproche d’une réponse qu’une personne assez bien informée aurait pu donner. Il s’agit toutefois d’une réponse convenue. Cela n’est nullement surprenant. Un algorithme d’apprentissage automatique « apprend » en repérant des régularités statistiques dans de très grands ensembles de données. ChatGPT excelle à en quelque sorte synthétiser des informations contenues dans ses données d’entraînement. Contrairement à ce que plusieurs commentateurs ont affirmé, ChatGPT n’apprend pas en continu comme le font les animaux humains et non humains. Ce n’est que lorsqu’OpenAI sortira la nouvelle version de son modèle que l’on pourra constater une amélioration.

Les algorithmes de traitement des langues naturelles comme ChatGPT transformeront les tâches de ceux qui sont appelés à produire du contenu. Dans la plupart des cas, les êtres humains ne seront pas tout simplement remplacés par la machine. Des programmes comme ChatGPT pourraient produire des brouillons, des résumés ou encore des pistes de réflexion. Dans plusieurs champs d’activité, l’IA pourra être utilisée comme une procédure heuristique dont l’objectif sera de générer des propositions à évaluer et à réviser, un matériau brut à partir duquel travailler.

La raison principale pour laquelle il faut éviter de succomber à la frénésie entourant chaque nouvelle percée de l’IA est que les algorithmes ne comprennent strictement rien aux données et symboles qu’ils manipulent.

Ils sont en outre dépourvus de tout sens commun qui leur permettrait de réagir adéquatement dans des situations inédites et de corriger certaines de leurs réponses initiales. Comme le veut l’expression maintenant consacrée, les puissantes IA inductives comme ChatGPT sont des perroquets stochastiques ; leurs prouesses sont basées sur les généralisations statistiques que leur permet leur vertigineuse puissance de calcul.

Réponses inventées

En plus, les robots conversationnels ont la fâcheuse tendance à baratiner, à inventer de toute pièce des réponses en s’appuyant sur les corrélations qu’elles repèrent dans les données. Deux exemples probants ont été donnés récemment par Alain McKenna⁠2. Le journaliste du Devoir a voulu tester ChatGPT en lui soumettant deux questions de philosophie politique, à savoir ce que Hobbes et Rousseau pensaient du principe de la séparation des pouvoirs. ChatGPT a soutenu que Hobbes recommandait la séparation des pouvoirs politiques. Il s’agit évidemment d’une mauvaise réponse. Hobbes est légendairement connu pour avoir défendu la nécessité de la concentration des pouvoirs aux mains d’une autorité politique unique afin de maintenir la paix entre des êtres humains intrinsèquement égoïstes et violents.

De façon tout aussi préoccupante, ChatGPT a aussi donné une mauvaise réponse à la question portant sur Rousseau. La réponse du robot conversationnel relève toutefois ici davantage du baratin et de l’approximation que de l’erreur franche. On se souviendra que selon Harry Frankfurt, le baratineur se distingue du menteur en ne se souciant pas de la vérité ou de la fausseté de ses affirmations. Alors que le menteur connaît la vérité et la nie sciemment, le baratineur est indifférent à la qualité épistémique de son propos ; il mêle le vrai, le faux et l’approximatif afin d’atteindre son but sans considération aucune pour la rigueur et la vérité.

Or, si Rousseau est, contrairement à Hobbes, un démocrate radical, il partage avec ce dernier une aversion pour la fragmentation du pouvoir politique. Chez Rousseau, le peuple est souverain d’une façon plus directe que dans un régime de démocratie représentative. Les citoyens doivent exercer le plus souvent possible leur souveraineté, en « volant aux assemblées » et en votant pour ou contre des propositions politiques. Les citoyens peuvent être libres tout en étant soumis aux lois seulement si ces dernières sont librement choisies et auto-imposées.

L’idée principale est que la liberté politique exige que rien n’affaiblisse la souveraineté du peuple. Nul besoin de distribuer le pouvoir politique entre trois branches distinctes. La délibération authentique des citoyens sur ce qui sert le bien commun est infaillible ; c’est ainsi que se crée et se renouvelle la « volonté générale ». Rousseau évoque bien la figure du « législateur », mais son rôle est davantage d’éclairer la multitude que de faire les lois.

Bref, ChatGPT est un très mauvais philosophe politique, largement inférieur à un étudiant au cégep qui aurait été attentif en classe.

Comme d’autres l’ont écrit avant moi, l’avènement d’IA langagières ne fait que rappeler l’importance cruciale des connaissances générales et de la pensée critique. Ceux qui se serviront de ChatGPT pour produire du contenu devront avoir les connaissances et les aptitudes nécessaires pour les évaluer⁠3.

Je ne suis pas de ceux qui pensent que ChatGPT représente un bond majeur dans la direction de l’intelligence artificielle générale. Les agents conversationnels perturberont des emplois et l’enseignement, mais les modèles actuels sont dénués de sens commun, ne comprennent pas les relations de causalité et n’arrivent pas à raisonner logiquement. En plus de forcer les enseignants à revoir certaines pratiques pédagogiques, les IA profiteront à ceux qui sauront les utiliser et pourraient rendre l’insertion professionnelle plus difficile pour ceux qui sont déjà désavantagés dans l’économie numérique. Il s’agit là d’un enjeu de toute première importance pour les autorités publiques.

1. Lisez l’éditorial d’Alexandre Sirois 2. Lisez l’article d’Alain McKenna 3. Lisez le document de la Commission de l’éthique en science et en technologie Qu'en pensez-vous? Exprimez votre opinion