Comme la plupart des amateurs de science-fiction, j’ai passé beaucoup de temps à me demander comment la société accueillera la véritable intelligence artificielle, si et quand elle arrivera. Est-ce que nous paniquerons ? Commencerons-nous à flatter nos nouveaux maîtres robots ? Allons-nous l’ignorer et poursuivre notre vie comme si de rien n’était ?

Il a donc été fascinant d’observer la twittosphère essayer de donner un sens à ChatGPT, un nouveau robot conversationnel (chatbot) de pointe à intelligence artificielle (IA) qui a été ouvert à l’essai la semaine dernière.

ChatGPT est, tout simplement, le meilleur robot conversationnel alimenté par l’IA jamais mis à la disposition du grand public. Il a été conçu par OpenAI, la société d’IA de San Francisco qui est également responsable d’outils tels que GPT-3 et DALL-E 2, le générateur d’images révolutionnaire sorti cette année.

À l’instar de ces outils, ChatGPT – GPT signifiant « generative pretrained transformer » – a fait un tabac. En cinq jours, plus d’un million de personnes se sont inscrites pour le tester, selon Greg Brockman, président d’OpenAI. Des centaines de captures d’écran des conversations de ChatGPT sont devenues virales sur Twitter, et nombre de ses premiers admirateurs en parlent en termes étonnés et grandioses, comme s’il s’agissait d’un mélange de logiciel et de sorcellerie.

Pendant la majeure partie de la dernière décennie, les robots conversationnels à intelligence artificielle ont été terribles – ils n’étaient impressionnants que si l’on sélectionnait les meilleures réponses du robot et que l’on jetait le reste. Ces dernières années, quelques outils d’IA sont devenus bons dans l’exécution de tâches précises et bien définies, comme la rédaction de textes de marketing, mais ils ont toujours tendance à s’effondrer lorsqu’on les sort de leur zone de confort. (C'est ce qui s’est passé lorsque mes collègues Priya Krishna et Cade Metz ont utilisé GPT-3 et DALL-E 2 afin de trouver un menu pour le repas de Thanksgiving.)

Mais ChatGPT est différent. Plus intelligent. Plus bizarre. Plus flexible. Il peut écrire des blagues (dont certaines sont vraiment drôles), du code informatique et des essais de niveau universitaire.

Il peut également deviner des diagnostics médicaux, créer des jeux Harry Potter en texte et expliquer des concepts scientifiques à plusieurs niveaux de difficulté.

La technologie qui alimente ChatGPT n’est pas, à proprement parler, nouvelle. Elle est basée sur ce que la société appelle « GPT-3.5 », une version améliorée de GPT-3, un générateur de texte alimenté par l’IA qui a suscité un vif intérêt lors de sa sortie en 2020. Mais bien que l’existence d’un super-cerveau linguistique hautement performant puisse être une vieille nouvelle pour les chercheurs en intelligence artificielle, c’est la première fois qu’un outil aussi puissant est mis à la disposition du grand public par le truchement d’une interface web gratuite et facile à utiliser.

La plupart des échanges de ChatGPT qui sont devenus viraux jusqu’à présent étaient des cascades loufoques, à la limite du possible. Un utilisateur de Twitter lui a demandé d’« écrire un verset biblique dans le style de la Bible du roi Jacques expliquant comment retirer un sandwich au beurre de cacahuète d’un magnétoscope ».

Un autre lui a demandé d’« expliquer l’alignement de l’IA, mais d’écrire chaque phrase dans le style d’un type qui n’arrête pas de s’écarter du sujet pour se vanter de la taille des citrouilles qu’il a fait pousser ».

Mais des utilisateurs lui ont également trouvé des applications plus sérieuses. Par exemple, ChatGPT semble aider les programmeurs à repérer et à corriger les erreurs dans leur code.

Il semble également très efficace pour répondre aux types de questions analytiques ouvertes qui apparaissent fréquemment dans les devoirs scolaires. (De nombreux éducateurs ont prédit que ChatGPT, et les autres outils du genre, sonneront le glas des devoirs et des examens à domicile.)

La plupart des robots conversationnels à intelligence artificielle sont « apatrides », c’est-à-dire qu’ils traitent chaque nouvelle demande comme une ardoise vierge et ne sont pas programmés pour se souvenir ou apprendre de leurs conversations précédentes. Mais ChatGPT peut se souvenir de ce qu’un utilisateur lui a dit auparavant, ce qui pourrait permettre de créer des robots de thérapie personnalisés, par exemple.

Les limites du robot

ChatGPT n’est pas parfait, tant s’en faut. La façon dont il génère les réponses – en termes extrêmement simplifiés, en faisant des suppositions probabilistes sur les bouts de texte qui vont ensemble dans une séquence, sur la base d’un modèle statistique formé sur des milliards d’exemples de texte tirés de tout l’internet – le rend susceptible de donner de mauvaises réponses, même sur des problèmes mathématiques apparemment simples. (Lundi, les modérateurs de Stack Overflow, un site web destiné aux programmeurs, ont temporairement interdit aux utilisateurs de soumettre des réponses générées avec ChatGPT, affirmant que le site avait été inondé de soumissions incorrectes ou incomplètes.)

Contrairement à Google, ChatGPT n’explore pas le web à la recherche d’informations sur l’actualité, et ses connaissances se limitent à ce qu’il a appris avant 2021, ce qui fait que certaines de ses réponses semblent dépassées. (Lorsque je lui ai demandé d’écrire le monologue d’ouverture d’une émission de fin de soirée, par exemple, il a proposé plusieurs blagues d’actualité sur le retrait de l’ancien président Donald Trump de l’accord de Paris sur le climat.) Étant donné que ses données d’entraînement comprennent des milliards d’exemples d’opinions humaines, représentant tous les points de vue imaginables, il est aussi, dans un certain sens, un modéré par conception. Par exemple, sans qu’il y soit explicitement invité, il est difficile d’obtenir de ChatGPT une opinion tranchée sur des débats politiques passionnants ; en général, vous obtiendrez un résumé impartial des opinions de chaque camp.

Il y a aussi beaucoup de choses que ChatGPT ne fera pas, par principe. OpenAI a programmé le robot pour qu’il refuse les « demandes inappropriées », une catégorie nébuleuse qui semble inclure des interdictions telles que la génération d’instructions pour des activités illégales.

Mais les utilisateurs ont trouvé des moyens de contourner bon nombre de ces garde-fous, notamment en reformulant une demande d’instructions illicites sous la forme d’une expérience de pensée hypothétique, en demandant au robot d’écrire une scène de théâtre ou en lui demandant de désactiver ses propres dispositifs de sécurité.

Les implications sociétales potentielles de ChatGPT sont trop importantes pour tenir dans une seule chronique. Peut-être s’agit-il, comme l’ont affirmé certains commentateurs, du début de la fin de tous les cols blancs du travail intellectuel et d’un précurseur du chômage de masse. Peut-être s’agit-il simplement d’un outil astucieux qui sera surtout utilisé par les étudiants, les plaisantins de Twitter et les services à la clientèle jusqu’à ce qu’il soit dépassé par quelque chose de plus grand et de meilleur.

Personnellement, j’essaie encore de me faire à l’idée que ChatGPT – un chatbot qui, selon certains, pourrait rendre Google obsolète et qui est déjà comparé à l’iPhone en termes d’impact potentiel sur la société – n’est même pas le meilleur modèle d’IA d’OpenAI. Il s’agit plutôt de GPT-4, la prochaine incarnation du grand modèle linguistique de l’entreprise, dont la sortie est prévue pour l’année prochaine.

Nous ne sommes pas prêts.

Cet article a été initialement publié dans le New York Times.

Lisez l’article original (en anglais)