(Santa Clara, Californie ) Dans la salle caverneuse d’un édifice de plain-pied à Santa Clara, en Californie, des machines blanches de deux mètres de haut émettent un son feutré. Il s’agit d’un nouveau superordinateur qui fonctionne depuis un mois.

Ce superordinateur, dévoilé jeudi par Cerebras, une jeune entreprise de la Silicon Valley, fonctionne grâce à des puces spécialisées conçues pour alimenter les produits d’intelligence artificielle. Ces puces se distinguent par leur taille – le diamètre d’une assiette – soit 56 fois celle des puces couramment utilisées en IA. Chaque puce Cerebras a la puissance de calcul de centaines de puces ordinaires.

Cerebras a construit le superordinateur pour G42, entreprise spécialisée en IA. G42 affirme qu’elle prévoit l’utiliser pour créer et alimenter des produits d’IA pour le Moyen-Orient.

« On prouve qu’il est possible de construire un très grand superordinateur à l’IA », dit Andrew Feldman, PDG de Cerebras.

On veut démontrer que ce travail peut être effectué plus vite, avec moins d’énergie et à un coût moindre.

Andrew Feldman, PDG de Cerebras

La demande de puissance de calcul et de puces d’IA grimpe en flèche cette année, propulsée par le boum mondial de l’IA. Les géants technos comme Microsoft, Meta et Google, ainsi qu’une myriade de jeunes pousses, s’empressent de lancer des produits d’IA depuis le succès du robot conversationnel ChatGPT, qui génère une prose étrangement humaine.

PHOTO CAYCE CLIFFORD, THE NEW YORK TIMES

Processeur WSE-2 fabriqué par la firme d’intelligence artificielle Cerebras. De la taille d’une assiette, il a la puissance de calcul de centaines de puces ordinaires.

Mais les produits d’IA requièrent une grande puissance informatique et des puces spécialisées, d’où une course frénétique pour développer ces technologies. En mai, Nvidia, principal fabricant de puces d’IA, a déclaré que ses ventes trimestrielles dépasseraient de plus de 50 % les estimations de Wall Street, tant la demande de ses « unités de traitement graphique » – ou GPU – est forte.

L’annonce a fait grimper la valeur boursière de Nvidia à plus de 1000 milliards de dollars.

Pour la première fois, l’IA suscite une augmentation énorme des capacités computationnelles, dit Ronen Dar, fondateur de Run:AI, une petite firme de Tel-Aviv, en Israël, qui aide les entreprises à développer des modèles d’IA. Cela « crée une énorme demande » de puces spécialisées, et les entreprises se ruent sur les fournisseurs capables d’en produire.

Pour satisfaire leurs besoins, certaines grandes entreprises technos – dont Google, Amazon, Advanced Micro Devices et Intel – ont développé leurs propres puces d’IA. Des jeunes pousses comme Cerebras, Graphcore, Groq et SambaNova se sont aussi lancées dans la course, pour percer sur ce marché dominé par Nvidia.

L’IA pourrait changer l’ordre mondial

Les puces vont jouer un rôle crucial dans l’IA, au point qu’elles pourraient modifier la hiérarchie des entreprises technologiques et même des pays. Ainsi, l’administration Biden envisage de restreindre les ventes de puces d’IA à la Chine, certains responsables américains estimant qu’elles pourraient constituer une menace pour la sécurité nationale des États-Unis en renforçant l’appareil militaire et sécuritaire de Pékin.

Des superordinateurs à l’IA ont déjà été construits, notamment par Nvidia. Mais c’est rarement à la portée des petites entreprises.

Cerebras, établie à Sunnyvale, en Californie, a été fondée en 2016 par Andrew Feldman et quatre autres ingénieurs, dans le but de construire du matériel qui accélère le développement de l’IA. Au fil des ans, l’entreprise a levé 740 millions US, notamment auprès de Sam Altman, PDG d’OpenAI, et de sociétés de capital-risque comme Benchmark. Cerebras est évaluée à 4,1 milliards US.

Les puces utilisées pour alimenter l’IA étant petites – la taille d’un timbre-poste –, il en faut des centaines, voire des milliers, pour faire marcher un modèle d’IA complexe. En 2019, Cerebras a dévoilé ce qu’elle affirme être la plus grande puce informatique jamais construite.

Grâce à cette puce, Cerebras peut faire rouler des systèmes d’IA jusqu’à 1000 fois plus rapides qu’avec le matériel existant, affirme M. Feldman.

G42, établie à Abou Dhabi, a commencé à collaborer avec Cerebras en 2021. En avril, elle a utilisé un système Cerebras pour entraîner une version arabe de ChatGPT.

En mai, G42 a demandé à Cerebras de construire un réseau de superordinateurs dans différentes parties du monde. Talal Al Kaissi, PDG de G42 Cloud, une filiale de G42, affirme que cette technologie de pointe permettra à son entreprise de créer des robots conversationnels à l’IA pour analyser les données génomiques et suggérer des soins préventifs.

Mais la rareté des puces d’IA rendait difficile la construction d’un superordinateur. La technologie de Cerebras était à la fois disponible et économique, explique M. Al Kaissi. Grâce à ses puces surdimensionnées. Cerebras a construit le superordinateur de G42 en seulement 10 jours, dit M. Feldman.

« Le délai de production a été réduit considérablement », dit M. Al Kaissi.

D’ici un an, Cerebras prévoit livrer deux autres superordinateurs à G42 – l’un au Texas et l’autre en Caroline du Nord – et, ensuite, six autres répartis dans le monde entier. Cerebras a baptisé ce réseau Condor Galaxy.

Cet article a été publié dans le New York Times.

Lisez cet article dans sa version originale (en anglais ; abonnement requis)