Des sommités en intelligence artificielle ont publié mardi un avertissement au sujet de la technologie qu’ils développent : elle pourrait un jour être une menace existentielle pour l’humanité ; elle est un risque aussi grave que les pandémies et la guerre nucléaire.

C’est ce qu’on peut lire dans une déclaration qui ne contient qu’une phrase diffusée par le Center for AI Safety, un organisme à but non but lucratif. Elle est signée par 350 cadres, chercheurs et ingénieurs travaillant en intelligence artificielle (IA), selon qui « atténuer le risque d’extinction lié à l’IA devrait être une priorité mondiale ».

Parmi les signataires figurent les PDG de trois grandes entreprises spécialisées en IA : Sam Altman, d’OpenAI ; Demis Hassabis, de Google DeepMind ; et Dario Amodei, d’Anthropic.

Le Montréalais Yoshua Bengio et le Torontois Geoffrey Hinton, qui sont souvent décrits comme les « parrains » de l’IA moderne, ont signé la déclaration. MM. Bengio et Hinton ont remporté récemment le prix Turing pour leurs travaux sur les réseaux neuraux (avec le Français Yann Le Cun, patron de la recherche en IA chez Meta, qui n’avait pas encore signé mardi).

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Le chercheur québécois Yoshua Bengio

Cette déclaration souligne l’inquiétude croissante que suscite l’IA pour ses dangers potentiels. Les récentes prouesses des « modèles de langage de grande taille » – le type d’IA utilisé par ChatGPT et d’autres robots conversationnels – font craindre que l’IA soit bientôt utilisée pour diffuser de fausses nouvelles et de la propagande, ou qu’elle supprime des millions d’emplois de cols blancs.

Bouleversements sociaux

Certains chercheurs pensent que l’IA pourrait provoquer des bouleversements à l’échelle de la société d’ici quelques années si rien n’est fait (mais ils n’expliquent pas toujours comment cela arriverait).

De nombreux leaders de l’industrie partagent ces craintes, ce qui les met dans une position inédite : ils affirment que la technologie qu’ils construisent – et qu’ils s’efforcent de construire plus vite que leurs concurrents – présente de graves risques et doit être réglementée plus sévèrement.

Ce mois-ci, MM. Altman, Hassabis et Amodei ont rencontré le président Joe Biden et la vice-présidente Kamala Harris pour les inciter à réglementer l’IA. Lors d’audiences au Sénat, M. Altman a averti que les graves risques liés aux systèmes d’IA avancés justifient une intervention de l’État et a appelé à une réglementation.

PHOTO ELIZABETH FRANTZ, ARCHIVES REUTERS

Le PDG d’OpenAI, Sam Altman, prêtant serment avant son intervention devant un comité sénatorial au Capitole, à Washington, le 16 mai 2023

Dan Hendrycks, directeur du Center for AI Safety, croit que signer la lettre ouverte est comme « sortir du placard » pour certains dirigeants de l’industrie qui ont exprimé des inquiétudes – en privé – sur les risques de la technologie qu’ils développent.

Il existe une idée fausse très répandue, même chez les chercheurs en IA, selon laquelle il n’y a qu’une poignée de prophètes de malheur. En réalité, ils sont nombreux à dire qu’ils sont inquiets en privé.

Dan Hendrycks, directeur du Center for AI Safety

D’autres, plus sceptiques, disent que l’IA est encore trop immature pour représenter une menace existentielle. Les systèmes d’IA actuels les inquiètent davantage en raison de problèmes à court terme comme les réponses tendancieuses et incorrectes.

Du côté des inquiets, on note que l’IA progresse vite. Elle a déjà dépassé les performances humaines dans certains domaines et elle les dépassera bientôt dans d’autres. Selon eux, l’IA montre des signes de compréhension avancée : on approcherait de l’intelligence artificielle générale (IAG), un type d’IA capable d’égaler ou de dépasser les performances humaines dans un large éventail de tâches.

Comme le contrôle des armes nucléaires

La semaine dernière, M. Altman et deux autres dirigeants d’OpenAI ont proposé des moyens de gérer de manière responsable les systèmes d’IA. Ils appellent à la coopération entre grands concepteurs d’IA, à plus de recherche sur les grands modèles de langage et à la formation d’une organisation internationale pour l’IA semblable à l’Agence internationale de l’énergie atomique, qui cherche à contrôler l’utilisation des armes nucléaires.

M. Altman appuie aussi l’obligation pour les concepteurs de grands modèles d’IA de pointe d’obtenir un permis du gouvernement.

En mars, un millier de chercheurs ont signé une autre lettre ouverte appelant à une pause de six mois dans le développement de l’IA, s’inquiétant d’une « course incontrôlée au développement et au déploiement de cerveaux numériques de plus en plus puissants ».

Cette lettre, parrainée par un autre organisme à but non lucratif axé sur l’IA, le Future of Life Institute, a été signée par Elon Musk et d’autres grands noms de la technologie, mais avait peu de signataires qui travaillaient dans les principaux laboratoires d’IA.

La brièveté de la nouvelle déclaration du Center for AI Safety – 22 mots seulement – visait à fédérer aussi les experts en IA qui pourraient être en désaccord sur la nature des risques spécifiques ou sur les mesures à prendre, mais qui partagent des préoccupations générales sur les systèmes d’IA, dit M. Hendrycks : « On ne voulait pas proposer un programme détaillé avec 30 interventions potentielles. Quand on fait ça, le message est dilué. »

La déclaration a d’abord été communiquée à quelques experts en IA de haut niveau, dont M. Hinton, qui venait de démissionner de chez Google pour pouvoir parler plus librement des dangers potentiels de l’IA. Le texte a ensuite été transmis à plusieurs grands laboratoires d’IA, où certains employés l’ont signé.

La mise en garde urgente des leaders de l’IA survient alors que des millions de personnes se tournent vers les robots conversationnels pour se divertir et accroître leur productivité. Et la technologie s’améliore à un rythme rapide.

« Je pense que si cette technologie tourne mal, ça va être très mal, a déclaré M. Altman lors des audiences sénatoriales. Nous voulons collaborer avec le gouvernement pour éviter que ça arrive. »

Cet article a été publié dans The New York Times.

Consultez l’article original (en anglais ; offert en abonnement seulement)