En février, Meta a pris une décision inhabituelle dans le monde en pleine effervescence de l’intelligence artificielle (IA) : elle a donné les joyaux de la couronne.

Le géant de la Silicon Valley, qui possède Facebook, Instagram et WhatsApp, avait créé une technologie d’IA, appelée LLaMA, qui peut alimenter les robots conversationnels en ligne. Au lieu de garder cette technologie secrète, Meta a ouvert le code source du système, qui a pu être téléchargé par des chercheurs universitaires et gouvernementaux et d’autres personnes ayant donné leur adresse courriel à Meta.

En fait, Meta a offert son IA sous la forme d’un code source ouvert – pouvant être gratuitement copié, modifié et réutilisé – , fournissant à quiconque tout ce qu’il faut pour créer rapidement son propre robot conversationnel.

« La plateforme qui gagnera sera celle qui est ouverte », a affirmé Yann LeCun, responsable de l’IA chez Meta, lors d’une entrevue.

PHOTO VICTOR LLORENTE, THE NEW YORK TIMES

Yann LeCun, responsable de l’IA chez Meta

Alors que la course à l’IA s’intensifie dans la Silicon Valley, Meta se démarque de ses rivaux par son approche. Sous l’impulsion du PDG Mark Zuckerberg, Meta estime que la stratégie la plus judicieuse est de partager le cœur de sa technologie d’IA pour étendre son influence et, en fin de compte, avancer plus rapidement vers l’avenir.

C’est tout le contraire de ce que font Google et OpenAI, les deux entreprises qui mènent la nouvelle course à l’IA. Craignant que les outils d’IA soient utilisés pour diffuser de la désinformation, des discours haineux et d’autres contenus néfastes, ces deux entreprises s’entourent d’un secret toujours plus opaque en ce qui concerne les méthodes et logiciels qui animent leurs produits d’IA.

Une décision critiquée

Google, OpenAI et d’autres ont critiqué Meta, estimant qu’une approche ouverte et sans contrôle était dangereuse. Nombre d’experts ont sonné l’alarme devant l’essor rapide de l’IA ces derniers mois, soulignant les risques de cette technologie – notamment pour le marché de l’emploi – si elle est mal déployée. Peu après la publication de LLaMA, le système a fuité sur 4chan, un forum de discussion qui a souvent propagé de fausses informations.

« Nous voulons approfondir notre réflexion avant de révéler des détails ou d’ouvrir le code » de la technologie d’IA de Google, a déclaré Zoubin Ghahramani, vice-président à la recherche, qui supervise la recherche en IA. « Quels sont les risques de mauvaise utilisation ? » Chez Google, on se demande aussi si une IA en code source ouvert constitue une menace concurrentielle.

Dans une note interne récente, qui a fuité sur semianalysis.com, un ingénieur de Google prévient ses collègues que l’essor de logiciels libres comme LLaMA pourrait faire perdre à Google et à OpenAI leur avance dans le domaine de l’IA.

Mais chez Meta, on ne voit aucune raison de garder son code secret. L’opacité croissante chez Google et OpenAI est une « énorme erreur », a déclaré M. LeCun, et une « très mauvaise lecture des évènements ». Selon lui, les consommateurs et les gouvernements rejetteront l’IA si elle demeure sous le giron de sociétés comme Google et Meta.

Voudriez-vous que tous les systèmes d’IA soient contrôlés par deux puissantes entreprises américaines ?

Yann LeCun, responsable de l’IA chez Meta

OpenAI n’a pas souhaité participer à cet article.

L’approche à code source ouvert de Meta n’est pas nouvelle. L’histoire de la technologie est jalonnée de batailles entre des systèmes ouverts et fermés. Certains gardent jalousement les fonctions essentielles pour construire les plateformes informatiques de demain, tandis que d’autres les rendent publiques. Récemment, Google a ouvert son système d’exploitation Android pour s’attaquer à la domination d’Apple sur les téléphones.

Nouveaux produits, concurrence accrue

De nombreuses sociétés ont pratiqué l’ouverture de leurs technologies d’IA, à la demande des chercheurs. Mais cela est en train de changer en raison de la course à l’IA. On l’a vu l’an dernier quand OpenAI a lancé ChatGPT. Ses prouesses ont séduit le consommateur et relancé la concurrence dans le secteur de l’IA. Google s’est empressée d’intégrer plus d’IA dans ses produits et Microsoft a investi 13 milliards de dollars dans OpenAI.

On parle surtout de Google, Microsoft et OpenAI, mais Meta a aussi investi dans l’IA. L’entreprise a dépensé des milliards pour développer les logiciels et le matériel requis pour élaborer des robots conversationnels et d’autres dispositifs d’« IA générative », capables de générer eux-mêmes du texte, des images et d’autres médias.

Ces derniers mois, Meta a travaillé d’arrache-pied en coulisses pour intégrer ses années de recherche et développement en intelligence artificielle dans de nouveaux produits. M. Zuckerberg se consacre à faire de Meta un chef de file en IA. Il préside des réunions hebdomadaires à ce sujet avec son équipe de direction et les responsables des produits.

Jeudi, pour montrer son engagement dans l’IA, Meta a annoncé la conception d’une nouvelle puce informatique et d’un superordinateur spécialement destinés à la mise au point de technologies d’IA. Meta planche aussi sur un futur centre de données informatiques voué à l’IA.

On construit depuis des années une infrastructure de pointe pour l’IA, un effort à long terme qui permettra de nouvelles avancées et une meilleure utilisation de cette technologie dans tout ce qu’on fait.

Mark Zuckerberg, fondateur et PDG de Meta

La principale initiative de Meta cette année est le lancement de LLaMA, qui est un « grand modèle de langage » (LLM, ou Large Language Model). Les LLM sont des systèmes qui acquièrent des compétences en analysant d’énormes quantités de texte – livres, articles Wikipédia, journaux de clavardage, etc. ChatGPT et le robot conversationnel Bard de Google fonctionnent aussi avec de tels systèmes.

Les LLM repèrent des modèles dans les textes qu’ils analysent et apprennent à générer leurs propres textes – travaux scolaires, articles de blogue, poésie et code informatique. Ils peuvent même tenir une conversation complexe.

En février, Meta a donné accès en code source ouvert à LLaMA (LLaMa est l’acronyme de Large Language Model Meta AI), permettant à des utilisateurs externes de l’utiliser pour créer leur propre robot conversationnel.

Mais Meta est allée plus loin que bien d’autres initiatives d’IA en libre accès. Elle a donné accès à une version de LLaMA ayant été entraînée sur d’énormes quantités de textes numériques tirés de l’internet.

Cet aspect est important, car analyser toutes ces données requiert des centaines de puces informatiques spécialisées et des dizaines de millions de dollars, des ressources que la plupart des entreprises n’ont pas. Avec ces données, les firmes externes peuvent déployer le logiciel rapidement, facilement et à peu de frais, dépensant une fraction de ce qu’il en coûterait pour créer un logiciel aussi puissant.

En conséquence, de nombreux acteurs de l’industrie technologique ont estimé que Meta avait créé un dangereux précédent. Quelques jours plus tard, quelqu’un a publié LLaMA sur 4chan.

Cet article a d’abord été publié
par le New York Times.

Lisez l'article original
(en anglais, abonnement requis)