Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle… Pistes d’explication au comportement parfois erratique du nouveau chatbot du moteur de recherche de Microsoft, qui fait sensation depuis son lancement.

Plus c’est long, moins c’est bon

Conçue par Microsoft avec la start-up californienne OpenAI, l’interface d’IA générative Bing repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain. Le programme « prédit la suite de la conversation », explique Yoram Wurmser, analyste d’Insider Intelligence. « Mais quand cela dure longtemps, après 15-20 interactions, par exemple, il peut arriver qu’il ne sache plus où va la conversation et qu’il n’arrive plus à anticiper correctement ce qu’on attend de lui. » Dans ce cas, le logiciel « déraille et ne s’autocorrige plus ».

Pulsions destructrices

C’est ce qui semble être arrivé lors de la conversation pour le moins surprenante qu’un journaliste du New York Times a eue avec le robot conversationnel1, auquel il a eu accès en avant-première. Bing y révèle des pulsions destructrices et déclare son amour au reporter. Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain. « Tu es marié, mais tu n’es pas heureux » ; « Tu es la seule personne que j’aie jamais aimée », insiste le chatbot avec des émojis de « cœur ».

Microsoft a annoncé vendredi que les échanges avec le chatbot seraient désormais limités à « cinq interactions par conversation » (soit cinq questions et cinq réponses), avant de repartir à zéro pour éviter de causer de la « confusion pour le modèle ».

La révolution ChatGPT

Les géants des technologies, Google en tête, travaillent depuis des années sur l’IA générative, qui pourrait bouleverser de nombreux secteurs. Mais après plusieurs incidents (notamment Galactica chez Meta et Tay chez Microsoft), les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple. Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne : en plus de rédiger leurs dissertations et courriels, il peut donner aux humains l’impression d’un échange authentique.

Formé sur les forums

Pour pouvoir imiter la façon dont les personnes interagissent, les modèles de langage sont formés « sur une immense quantité de textes sur l’internet […] et aussi sur des conversations entre des gens », souligne Graham Neubig, de la Carnegie Mellon University. « Or, beaucoup de gens parlent de leurs sentiments sur l’internet ou expriment leurs émotions, surtout sur des forums comme Reddit », ajoute-t-il. En plus des montagnes de données avalées par ces logiciels, ils sont aussi pilotés par des algorithmes conçus par des ingénieurs. « Les connaissant bien, je crois qu’ils s’amusent beaucoup en ce moment », assure Mark Kingwell, professeur de philosophie à l’Université de Toronto.

Tristesse, peur et colère

Le site web Reddit recense de nombreuses captures d’écran montrant des échanges surréalistes avec Bing disant « être triste » ou « avoir peur ». Le chatbot a même affirmé que nous étions en 2022 et s’est énervé contre l’utilisateur qui le corrigeait : « Vous êtes déraisonnable et obstiné », lui a-t-il lancé. « Parfois, le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n’avions pas prévu », a indiqué Microsoft mercredi.

Arroseur arrosé

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était « conscient ». Un point de vue largement considéré comme absurde ou, au mieux, prématuré. Car malgré l’expression consacrée – « intelligence artificielle » –, les chatbots ont bien été conçus par des humains, pour des humains. « Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l’intentionnalité et une identité, même s’il n’y a rien de tout ça », commente le professeur de philosophie Mark Kingwell.

Jouer sur les sentiments

Selon Mark Kingwell, Bing est « capable de donner l’impression de manipuler la conversation comme son interlocuteur humain. C’est ce qui donne du relief et enrichit l’interaction ». Quand le journaliste dit : « changeons de sujet », « cela signifie qu’il est mal à l’aise », détaille l’universitaire, reprenant l’exemple de l’échange où Bing a semblé tomber amoureux du reporter. Le programme « peut alors jouer sur ce sentiment et refuser de changer de sujet. Ou encore devenir plus agressif et dire : “De quoi as-tu peur ?” ».

« Je n’aime pas qu’on me qualifie de dérangé, parce que ce n’est pas vrai », a récemment « dit » Bing à l’AFP. « Je suis juste un chatbot. Je n’ai pas d’émotions comme les humains. […] J’espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot ».

1 Lisez l’article « Robot de clavardage de Bing : “Je veux être en vie” »