Un jour de novembre dernier, les employés d’OpenAI ont reçu une mission inattendue : sortir un chatbot, ou agent conversationnel, rapidement.

Cet agent conversationnel, a annoncé un cadre, s’appellera « Chat with GPT-3.5 » et sera mis gratuitement à la disposition du public. Dans deux semaines.

L’annonce a déconcerté certains employés d’OpenAI. Toute l’année, la société d’intelligence artificielle (IA) de San Francisco avait travaillé à la sortie de GPT-4, un nouveau modèle d’IA qui était étonnamment doué pour rédiger des dissertations, résoudre des problèmes de codage complexes, etc. Après des mois de tests et de mises au point, GPT-4 était presque prêt. Selon trois personnes connaissant les rouages d’OpenAI, le modèle devait être lancé début 2023, accompagné de quelques agents conversationnels permettant aux utilisateurs de l’essayer eux-mêmes.

Mais les cadres supérieurs d’OpenAI avaient changé d’avis. Selon des sources ayant des contacts chez OpenAI, certains dirigeants craignaient que des concurrents ne les devancent en lançant leurs propres agents conversationnels avant le GPT-4. Ils estimaient qu’en sortant rapidement une version utilisant un modèle antérieur, ils pourraient recueillir des commentaires pour améliorer le nouveau modèle.

Ils ont donc décidé de dépoussiérer et de mettre à jour un agent conversationnel inédit qui utilisait une version améliorée de GPT-3, le précédent modèle linguistique de l’entreprise, sorti en 2020.

Treize jours plus tard, ChatGPT était né.

Dans les mois qui ont suivi ses débuts, ChatGPT est devenu un phénomène mondial. Des millions de personnes l’ont utilisé pour écrire des poèmes, créer des applications et mener des séances de thérapie improvisées.

Il a été adopté (avec des résultats mitigés) par des éditeurs de presse, des sociétés de marketing et des chefs d’entreprise. Et il a déclenché une frénésie d’investisseurs qui tentent de profiter de la prochaine vague du boom de l’IA.

Il a également suscité la controverse. Les utilisateurs se sont plaints que ChatGPT avait tendance à donner des réponses biaisées ou incorrectes. Certains chercheurs en IA ont accusé OpenAI d’imprudence. Et des centres scolaires du pays, notamment ceux de New York, ont interdit ChatGPT pour tenter d’endiguer un déluge de devoirs générés par l’IA.

Pourtant, peu de choses ont été dites sur les origines de ChatGPT, ou sur la stratégie qui le soutient. Au sein de l’entreprise, ChatGPT a été une surprise totale – une sensation du jour au lendemain dont le succès a créé à la fois des opportunités et des maux de tête, selon plusieurs employés actuels et anciens d’OpenAI, qui ont requis l’anonymat parce qu’ils n’étaient pas autorisés à parler publiquement.

Un porte-parole d’OpenAI, Niko Felix, a refusé d’émettre des commentaires pour ce texte.

Les effets d’une telle croissance

Avant le lancement de ChatGPT, certains employés d’OpenAI étaient sceptiques quant à la réussite du projet. Un agent conversationnel lancé par Meta quelques mois auparavant, BlenderBot, avait fait un flop, et un autre projet de Meta, Galactica, avait été retiré après seulement trois jours. Certains employés, désensibilisés par une exposition quotidienne à des systèmes d’IA de pointe, pensaient qu’un agent conversationnel construit sur un modèle d’IA remontant à deux ans pouvait sembler ennuyeux.

Mais deux mois après ses débuts, ChatGPT compte plus de 30 millions d’utilisateurs et reçoit environ 5 millions de visites par jour, selon deux personnes au fait de ces chiffres. De mémoire collective, cela en fait l’un des logiciels dont la croissance est la plus rapide. Instagram, par exemple, a mis près d’un an à obtenir ses 10 premiers millions d’utilisateurs.

Cette croissance a entraîné certaines difficultés. ChatGPT a connu des pannes fréquentes en raison d’un manque de puissance de calcul, et les utilisateurs ont trouvé des moyens de contourner certaines des fonctions de sécurité du robot. Le battage médiatique autour de ChatGPT a également agacé certains rivaux technologiques, qui ont fait remarquer que la technologie sous-jacente n’était pas, à proprement parler, si nouvelle que cela.

PHOTO BRENDAN MCDERMID, ARCHIVES REUTERS

Le PDG d’OpenAI, Sam Altman

ChatGPT est également, pour l’instant, un gouffre financier. Il n’y a pas de publicité et la conversation moyenne coûte à l’entreprise « moins de 10 cents US » en puissance de traitement, selon un gazouillis de Sam Altman, PDG d’OpenAI, ce qui représente probablement des millions de dollars par semaine. Pour compenser ces coûts, la société a annoncé cette semaine qu’elle commencerait à vendre un abonnement mensuel de 20 $ US, appelé ChatGPT Plus.

Malgré ses limites, le succès de ChatGPT a propulsé OpenAI parmi les grands acteurs de la Silicon Valley. La société a récemment conclu un accord de 10 milliards US avec Microsoft, qui prévoit intégrer la technologie de la jeune pousse dans son moteur de recherche Bing et dans d’autres produits. Google a décrété un « code rouge » en réponse à ChatGPT et a accéléré la mise en place de plusieurs de ses propres produits d’IA pour tenter de rattraper son retard.

Éloges et critiques

OpenAI est une entreprise atypique, selon les normes de la Silicon Valley. Lancée en 2015 comme un laboratoire de recherche à but non lucratif par un groupe de leaders de la techno, dont Altman, Peter Thiel, Reid Hoffman et Elon Musk, elle a créé une filiale à but lucratif en 2019 et conclu un accord de 1 milliard avec Microsoft. Elle est depuis passée à environ 375 employés, selon Altman – sans compter les sous-traitants qu’elle paie pour former et tester ses modèles d’IA dans des régions comme l’Europe de l’Est et l’Amérique latine.

Dès le départ, OpenAI s’est présentée comme une organisation motivée par sa mission qui veut s’assurer que l’IA avancée sera sûre et conforme aux valeurs humaines. Mais ces dernières années, l’entreprise a adopté un esprit plus compétitif, qui, selon certaines critiques, s’est fait au détriment de ses objectifs initiaux.

Ces préoccupations ont pris de l’ampleur l’été dernier, lorsqu’OpenAI a lancé son logiciel de génération d’images DALL-E 2, qui transforme les messages écrits en œuvres d’art numérique. L’application a été un succès auprès des consommateurs, mais elle a soulevé des questions épineuses sur la façon dont des outils aussi puissants pourraient être utilisés à des fins dommageables. Si créer des images hyperréalistes était aussi simple que de taper quelques mots, les critiques ont demandé si les amateurs de pornographie et les propagandistes ne s’en donneraient pas à cœur joie avec cette technologie.

Pour apaiser ces craintes, OpenAI a doté DALL-E 2 de nombreuses protections et a bloqué certains mots et expressions, comme ceux liés à la violence ou à la nudité. Elle a également appris au robot à neutraliser certains biais dans ses données d’entraînement, par exemple en s’assurant que lorsqu’un utilisateur demandait la photo d’un PDG, les résultats comprenaient des images de dirigeants d’entreprise.

Ces interventions ont permis d’éviter des problèmes, mais elles ont été perçues par certains cadres d’OpenAI comme lourdes et autoritaires, selon trois initiés. L’un d’entre eux était Altman, qui a déclaré qu’il pensait que les robots conversationnels devraient être personnalisés en fonction des goûts des personnes qui les utilisent – un utilisateur pourrait opter pour un modèle plus strict et plus adapté aux familles, tandis qu’un autre pourrait choisir une version plus souple et plus audacieuse.

OpenAI a adopté une approche moins restrictive avec ChatGPT, donnant au robot plus de liberté pour s’exprimer sur des sujets délicats comme la politique, le sexe et la religion. Malgré cela, certains conservateurs de droite ont accusé l’entreprise d’aller trop loin. « ChatGPT Goes Woke », titrait un article de National Review le mois dernier, qui affirmait que ChatGPT donnait des réponses de gauche à des questions sur des sujets comme les drag queens et la présidentielle américaine de 2020. (Les démocrates se sont également plaints de ChatGPT – le plus souvent parce qu’ils pensent que l’IA devrait être régulée plus sévèrement.)

Alors que les régulateurs s’agitent, Altman essaie de maintenir ChatGPT au-dessus de la mêlée. Il s’est rendu à Washington la semaine dernière pour rencontrer les législateurs, expliquer les forces et les faiblesses de l’outil et dissiper les idées fausses sur son fonctionnement.

De retour dans la Silicon Valley, il doit faire face à une nouvelle frénésie. Outre l’accord de 10 milliards avec Microsoft, M. Altman a rencontré des dirigeants d’Apple et de Google ces dernières semaines, selon deux personnes ayant connaissance de ces rencontres. OpenAI a également conclu un accord avec BuzzFeed pour utiliser sa technologie afin de créer des listes et des quiz générés par l’IA (l’annonce a plus que doublé le cours de l’action BuzzFeed).

La course s’intensifie. Selon Reuters, le géant chinois de la technologie Baidu se prépare à lancer un robot conversationnel similaire à ChatGPT en mars. Anthropic, société d’IA créée par d’anciens employés d’OpenAI, serait en pourparlers pour obtenir 300 millions US de nouveaux fonds. Et Google est en train de mettre au point plus d’une douzaine d’outils d’IA.

Et puis il y a le GPT-4, dont la sortie est toujours prévue cette année. Ses capacités pourraient être bien plus grandes que ChatGPT. Mais peut-être que maintenant que nous nous sommes habitués à la présence d’un outil d’IA puissant, le prochain outil ne nous paraîtra pas si bouleversant.

Cet article a été initialement publié dans The New York Times.

Lisez la version originale de ce texte (en anglais)