Le 7 février, Microsoft a publié une nouvelle version de son moteur de recherche Bing qui, contrairement aux moteurs de recherche ordinaires, comprend un robot conversationnel capable de répondre aux questions dans une prose claire et concise.

Depuis, les gens ont remarqué que certaines des réponses fournies par l’agent conversationnel de Bing sont inexactes, trompeuses ou carrément bizarres, ce qui fait craindre qu’il soit devenu conscient du monde qui l’entoure.

Ce n’est pas le cas. Et pour comprendre pourquoi, il est important de savoir comment les agents conversationnels fonctionnent réellement.

Le robot est-il vivant ?

Non. Répétons-le : non !

En juin, un ingénieur de Google, Blake Lemoine, a affirmé que la technologie de clavardage similaire testée au sein de Google était consciente. C’est faux. Les agents conversationnels ne sont pas conscients et ne sont pas intelligents, du moins pas de la manière dont les humains le sont.

Alors pourquoi semble-t-il vivant ?

Prenons un peu de recul. L’agent conversationnel de Bing est alimenté par une sorte d’intelligence artificielle appelée réseau neuronal. Cela peut ressembler à un cerveau informatisé, mais le terme est trompeur.

Un réseau neuronal est simplement un système mathématique qui acquiert des compétences en analysant de grandes quantités de données numériques. En examinant des milliers de photos de chats, par exemple, un réseau neuronal peut apprendre à reconnaître un chat.

La plupart des gens utilisent des réseaux neuronaux tous les jours. C’est la technologie qui permet d’identifier les personnes, les animaux domestiques et d’autres objets dans les images publiées sur des services internet comme Google Photos. Elle permet à Siri et à Alexa, les assistants vocaux d’Apple et d’Amazon, de reconnaître les mots que vous prononcez. Et c’est ce qui permet de traduire l’anglais et l’espagnol sur des services comme Google Translate.

Les réseaux neuronaux sont très bons pour imiter la façon dont les humains utilisent le langage. Et cela peut nous induire en erreur en nous faisant croire que cette technologie est plus puissante qu’elle ne l’est réellement.

Comment font les réseaux neuronaux pour imiter exactement le langage humain ?

Il y a environ cinq ans, des chercheurs de sociétés telles que Google et OpenAI, une jeune pousse de San Francisco qui a récemment lancé le populaire agent conversationnel ChatGPT, ont commencé à construire des réseaux neuronaux qui apprennent à partir d’énormes quantités de textes numériques, notamment des livres, des articles de Wikipédia, des journaux de bord et toutes sortes d’autres choses publiées sur l’internet.

Ces réseaux neuronaux sont connus sous le nom de modèles de langue de grande taille. Ils sont capables d’utiliser ces montagnes de données pour construire ce que l’on pourrait appeler une carte mathématique du langage humain. Grâce à cette carte, les réseaux neuronaux peuvent effectuer de nombreuses tâches, comme écrire leurs propres tweets, composer des discours, générer des programmes informatiques et, oui, soutenir une conversation.

Ces grands modèles de langage se sont avérés utiles. Microsoft propose un outil, Copilot, qui repose sur un grand modèle de langage et peut suggérer la prochaine ligne de code lorsque les programmeurs informatiques créent des applications logicielles, de la même manière que les outils de complétion automatique suggèrent le prochain mot lorsque vous tapez des textes ou des courriels.

D’autres entreprises proposent une technologie similaire qui permet de générer des documents de marketing, des courriers électroniques et d’autres textes. Ce type de technologie est également connu sous le nom d’intelligence artificielle (IA) générative.

Maintenant, les entreprises proposent des versions de cette technologie avec lesquelles vous pouvez discuter ?

Exactement. En novembre, OpenAI a lancé ChatGPT, et c’est la première fois que le grand public a eu un aperçu de cette technologie. Les gens ont été stupéfaits – à juste titre.

Ces agents conversationnels ne parlent pas exactement comme un humain, mais ils semblent souvent le faire. Ils peuvent également rédiger des mémoires, des poèmes et aborder presque tous les sujets qui leur sont proposés.

Pourquoi se trompent-ils ?

Parce qu’ils apprennent de l’internet. Pensez à la quantité de fausses informations et d’autres déchets que l’on trouve sur le web.

Ces systèmes ne répètent pas non plus mot pour mot ce qui se trouve sur l’internet. En s’appuyant sur ce qu’ils ont appris, ils produisent un nouveau texte de leur propre chef, dans ce que les chercheurs en IA appellent une « hallucination ».

C’est pourquoi les agents conversationnels peuvent vous donner des réponses différentes si vous posez deux fois la même question. Ils sont prêts à dire n’importe quoi, que cela soit basé sur la réalité ou non.

Si les agents conversationnels « hallucinent », cela ne fait-il pas d’eux des êtres sensibles ?

Les chercheurs en IA aiment utiliser des termes qui donnent à ces systèmes un aspect humain. Mais halluciner est juste un terme accrocheur pour dire « ils inventent des choses ».

Cela semble effrayant et dangereux, mais cela ne signifie pas que la technologie est en quelque sorte vivante ou consciente de son environnement. Elle génère simplement du texte en utilisant des modèles qu’elle a trouvés sur l’internet. Dans de nombreux cas, elle mélange et associe des motifs de manière surprenante et inquiétante. Mais elle n’est pas consciente de ce qu’elle fait. Elle ne peut pas raisonner comme les humains.

Les entreprises ne peuvent-elles pas empêcher les agents conversationnels de se comporter de manière étrange ?

Elles essaient.

Avec ChatGPT, OpenAI a essayé de contrôler le comportement de la technologie. Alors qu’un petit groupe de personnes testait le système en privé, OpenAI leur a demandé d’évaluer ses réponses. Étaient-elles utiles ? Étaient-elles véridiques ? OpenAI a ensuite utilisé ces évaluations pour affiner le système et définir plus précisément ce qu’il pouvait ou ne pouvait pas faire.

Mais ces techniques ne sont pas parfaites. Les scientifiques d’aujourd’hui ne savent pas comment construire des systèmes qui soient totalement véridiques. Ils peuvent limiter les inexactitudes et les bizarreries, mais ils ne peuvent pas les arrêter. L’une des façons de limiter les comportements bizarres est de garder les conversations courtes.

Mais les agents conversationnels continueront à dire des choses qui ne sont pas vraies. Et lorsque d’autres entreprises commenceront à déployer ce type de robots, tout le monde ne sera pas en mesure de contrôler ce qu’ils peuvent et ne peuvent pas faire.

L’essentiel : ne croyez pas tout ce qu’un agent conversationnel vous dit.

La version originale de cet article a d’abord été publiée dans le New York Times.

Lisez l’article original du New York Times (en anglais, abonnement requis)