Naveen Rao, neuroscientifique et entrepreneur techno, a tenté un jour de concurrencer Nvidia, no 1 mondial des puces d’intelligence artificielle (IA).

Sa petite entreprise – rachetée plus tard par Nvidia – travaillait sur des puces destinées à remplacer les unités de traitement graphique de Nvidia (des composants adaptés aux tâches d’IA comme l’apprentissage automatique). Mais alors qu’Intel avançait lentement, Nvidia ajoutait sans cesse à ses produits de nouvelles fonctionnalités d’IA qui contraient ce que M. Rao développait, explique M. Rao.

Après avoir quitté Intel pour diriger une petite société logicielle, MosaicML, M. Rao a comparé les puces de Nvidia à celles de ses concurrents. Il a constaté que Nvidia s’était différenciée en créant une vaste communauté de programmeurs d’IA qui innovaient constamment avec la technologie de l’entreprise.

Tout le monde construit d’abord sur Nvidia. Si vous lancez un nouveau matériel, vous êtes toujours en rattrapage.

Naveen Rao, entrepreneur techno

En une décennie, Nvidia a acquis une avance presque insurmontable dans la production de puces capables de tâches complexes d’IA comme la rédaction et la reconnaissance faciale, vocale et d’images. L’entreprise, la première à se lancer dans son domaine, a atteint cette suprématie en reconnaissant très tôt le potentiel de l’IA, en adaptant ses puces à ces tâches et en développant des logiciels clés qui facilitent le développement de l’IA.

Jensen Huang, cofondateur et PDG de Nvidia, n’a cessé depuis de relever la barre. Pour garder son avance, l’entreprise a aussi offert à ses clients l’accès à des ordinateurs spécialisés, à des services informatiques et à d’autres outils de leur nouveau métier. Nvidia est ainsi devenue, pratiquement, un guichet unique pour le développement de l’IA.

PHOTO PHILIP CHEUNG, THE NEW YORK TIMES

Le PDG de Nvidia, Jensen Huang, l’homme à la veste en cuir noir, a vanté l’IA avant de devenir l’un des visages les plus connus de ce domaine.

Google, Amazon, Meta, IBM produisent aussi des puces d’IA, mais Nvidia occupe plus de 70 % de ce marché et est encore plus dominante dans l’entraînement des modèles d’IA générative, selon le cabinet d’études Omdia.

En mai, Nvidia s’est autoproclamée grande gagnante de la révolution de l’IA quand elle a projeté un bond de 64 % de ses revenus trimestriels, bien plus que ce que Wall Street attendait. Elle a confirmé ces résultats, et plus, mercredi. Sa capitalisation boursière a dépassé les 1000 milliards de dollars, plus que tout autre fabricant de puces.

Les clients attendent un système Nvidia pendant 18 mois plutôt qu’acheter d’un concurrent une puce disponible tout de suite. C’est incroyable.

Daniel Newman, analyste chez Futurum Group

Pendant des années, M. Huang, connu pour sa veste de cuir noir caractéristique, a vanté l’IA avant de devenir un des visages les plus connus de ce domaine. Selon lui, l’informatique connaît sa plus grande mutation depuis qu’IBM a défini le fonctionnement de la plupart des systèmes et logiciels, il y a 60 ans. Aujourd’hui, a-t-il dit, les processeurs graphiques (GPU) et autres puces à usage spécifique remplacent les microprocesseurs standard, et les robots conversationnels supplantent le codage de logiciels.

« On a compris qu’il s’agit d’une réinvention de l’informatique, a déclaré M. Huang, 60 ans, lors d’une interview. Et nous avons tout construit à partir de zéro, du processeur jusqu’à la fin. »

PHOTO FOURNIE PAR NVIDIA

Une puce Grace Hopper de Nvidia

M. Huang a cofondé Nvidia en 1993 pour fabriquer des puces générant les images de jeux vidéo. Alors que les microprocesseurs ordinaires excellent dans l’exécution séquentielle de calculs complexes, les GPU de Nvidia font de nombreuses tâches simples en même temps.

En 2006, M. Huang est allé plus loin, avec une technologie logicielle appelée CUDA, qui permet de programmer les GPU pour de nouvelles tâches. De puces à usage unique, elles sont devenues plus polyvalentes, pouvant prendre en charge d’autres tâches, par exemple des simulations en physique et en chimie.

Grande percée

Une grande percée a eu lieu en 2012, quand des GPU Nvidia ont atteint une précision quasi humaine dans des tâches comme reconnaître un chat dans une image – un précurseur d’avancées récentes comme la génération d’images par des robots d’IA à partir de sollicitations écrites.

Nvidia a alors mis « tous les aspects de l’entreprise au service de ce nouveau domaine », a récemment déclaré M. Huang lors d’un discours à l’Université nationale de Taïwan.

Cet effort, financé au coût de 30 milliards sur une décennie, a fait de Nvidia bien plus qu’un fournisseur de composants. Tout en collaborant avec des scientifiques de premier plan et de jeunes pousses, l’entreprise a réuni une équipe qui participe directement à la création et à l’entraînement de modèles de langage d’IA.

Voyant ainsi venir les besoins des praticiens de l’IA, Nvidia a développé de nombreuses couches de logiciels clés au-delà de CUDA. Entre autres, des centaines de séquences de code prérédigés qui épargnent du travail aux programmeurs.

PHOTO CLARA MOKRI, THE NEW YORK TIMES

Selon Mustafa Suleyman, qui dirige la petite entreprise Inflection AI, de Menlo Park, en Californie, aucun concurrent de Nvidia n’offre des puces d’IA ayant des performances comparables.

En septembre dernier, Nvidia a lancé sa nouvelle puce H100, le cheval de trait qui fait marcher les robots d’IA de type ChatGPT. L’avènement de ces machines est ce que M. Huang appelle le « moment iPhone » de l’IA générative.

Afin de gagner en influence, Nvidia a récemment conclu des partenariats avec des géants de la techno et a investi dans de jeunes pousses d’IA qui utilisent ses puces. C’est le cas d’Inflection AI, dans laquelle Nvidia et d’autres firmes ont investi 1,3 milliard en juin. Cet argent a servi à financer l’achat de 22 000 puces H100.

Selon Mustafa Suleyman, PDG d’Inflection, il n’y avait aucune obligation d’utiliser les produits Nvidia, mais les concurrents n’offraient aucune autre option viable. « Il n’y a rien qui s’en approche », dit-il.

Nvidia a aussi consacré ses liquidités et alloué des puces H100 (très demandées récemment) à de nouveaux services d’infonuagique comme CoreWeave, qui permettent aux entreprises de louer du temps sur des ordinateurs plutôt que d’acheter les leurs. CoreWeave, qui utilisera le matériel d’Inflection et qui possède 45 000 puces Nvidia, a pu emprunter 2,3 milliards de dollars ce mois-ci pour en acheter d’autres.

Nvidia ne révèle ni ses prix ni ses politiques d’attribution des puces, mais selon des dirigeants et des analystes du secteur, chaque puce H100 coûte de 15 000 $ à plus de 40 000 $, selon divers facteurs, soit de deux à trois fois plus que la puce A100 qui l’a précédée.

Le prix « est un domaine où Nvidia laisse beaucoup de place à la concurrence », affirme David Brown, vice-président de l’infonuagique chez Amazon, selon qui les puces d’IA Amazon sont une aubaine comparées aux puces Nvidia (qu’Amazon utilise aussi).

Mais selon M. Huang, les performances supérieures de ses puces font économiser. « Si vous réduisez de moitié le temps d’entraînement dans un centre de données de 5 milliards de dollars, l’économie réalisée est supérieure au coût de toutes les puces », dit-il.

« Nous sommes la solution la moins chère au monde. »

Cet article a été publié dans le New York Times.

Lizez ce texte dans sa version originale (en anglais ; abonnement requis)