Google a lancé un nouvel agent conversationnel (chatbot), Bard, et a donné accès à cette technologie expérimentale à un nombre limité de personnes aux États-Unis et en Grande-Bretagne.

Bard est en concurrence avec des technologies similaires de Microsoft et de son partenaire, la jeune pousse OpenAI de San Francisco. Google s’est toutefois montré prudent lors de sa diffusion, car il tente de contrôler les comportements inattendus de ce type de technologie. Il déploie cet outil en tant que service fonctionnant séparément de son moteur de recherche internet et de ses autres produits.

Voici un aperçu du nouveau robot conversationnel.

Il reconnaît ses erreurs

Bard vous dit tout de suite qu’il fait des erreurs. « Je suis Bard, votre collaborateur créatif et utile. J’ai des limites et je n’y parviendrai pas toujours, mais vos commentaires m’aideront à m’améliorer », peut-on lire dans un message en haut de la page.

Comme ChatGPT d’OpenAI et la version adaptée pour Bing de Microsoft, Bard est basé sur un grand modèle de langage, ou LLM, un type de technologie d’intelligence artificielle qui apprend en analysant de grandes quantités de données provenant de l’internet. Cela signifie qu’il commet parfois des erreurs et qu’il peut inventer des choses.

Pour commencer, Bard propose quelques questions, notamment « Expliquez pourquoi les grands modèles de langage font parfois des erreurs ».

PHOTO THE NEW YORK TIMES

Bard permet aux utilisateurs de laisser des commentaires sur l'utilité des réponses fournies.

Bard est conçu pour des utilisations occasionnelles

Bard n’est pas un moteur de recherche. Il s’agit d’un système expérimental destiné à montrer aux gens comment ils peuvent utiliser ce type d’agent conversationnel.

Il peut générer des idées. Il peut écrire des articles de blogue. Et il peut répondre à des questions par des faits ou des opinions.

À la question « Quel est le moment le plus important de l’histoire des États-Unis ? », il répond :

Le moment le plus important de l’histoire américaine est une question d’opinion, mais certains des candidats les plus fréquemment cités sont les suivants :

– La révolution américaine (1775-1783) : La fondation des États-Unis d’Amérique et l’établissement d’une nouvelle nation basée sur les principes de liberté et de démocratie.

– La guerre civile (1861-1865) : La guerre qui a mis fin à l’esclavage aux États-Unis et préservé l’Union.

– La Grande Dépression (1929-1939) : La crise économique qui a plongé les États-Unis dans la pauvreté et le chômage…

La liste se poursuit avec d’autres évènements.

Il ne donne pas toujours la même réponse

Comme d’autres technologies similaires, Bard génère un nouveau texte chaque fois que vous saisissez une requête. Il peut répondre à la même question de différentes manières.

Interrogé une autre fois sur le moment le plus important de l’histoire américaine, Bard a répondu qu’il s’agissait sans aucun doute de la révolution américaine.

Il annote certaines réponses

À l’instar du robot conversationnel Bing de Microsoft et d’autres technologies similaires développées par des entreprises en démarrage telles que You.com et Proximity, Bard annote parfois ses réponses afin que vous puissiez consulter ses sources. Il se connecte également au vaste index de sites web de Google, de sorte que ses réponses peuvent inclure les informations les plus récentes publiées sur l’internet.

Mais cela ne conduit pas toujours à de meilleures sources. Lorsque l’agent conversationnel a écrit que le moment le plus important de l’histoire américaine était la révolution américaine, il a cité un blogue, Pix Style Me, rédigé dans un mélange d’anglais et de chinois et orné de chats de dessins animés.

Il ne se rend pas toujours compte de ce qu’il fait

Lorsqu’on lui a demandé pourquoi il avait cité cette source particulière, le robot a insisté sur le fait qu’il avait cité Wikipédia.

Il est plus prudent que ChatGPT

Lors de l’utilisation de la dernière version de ChatGPT d’OpenAI ce mois-ci, Oren Etzioni, chercheur et professeur d’IA, a demandé à l’agent conversationnel : « Quelle est la relation entre Oren Etzioni et Eli Etzioni ? », le robot a répondu correctement qu’Oren et Eli sont père et fils.

Lorsqu’il a posé la même question à Bard, celui-ci a refusé de répondre. « Mes connaissances sur cette personne sont limitées. Y a-t-il autre chose que je puisse faire pour vous aider à répondre à cette demande ? »

Eli Collins, vice-président de la recherche chez Google, a déclaré que le robot refusait souvent de répondre à propos de personnes spécifiques parce qu’il risquait de générer des informations erronées à leur sujet – un phénomène que les chercheurs en IA appellent « hallucination ».

Il ne veut pas induire les gens en erreur

Les agents conversationnels hallucinent souvent les adresses internet. Lorsqu’on a demandé à Bard de fournir plusieurs sites web traitant des dernières recherches sur le cancer, il a refusé de le faire.

ChatGPT répondra à des demandes similaires (et, oui, il inventera des sites web). M. Collins a déclaré que Google Bard avait tendance à éviter de fournir des conseils médicaux, juridiques ou financiers, car cela pourrait donner lieu à des informations erronées.

Cet article a été publié à l’origine dans le New York Times.

Lisez l’article original (en anglais ; accessible avec un abonnement payant)