Mustafa Suleyman se souvient du moment clé où il a saisi le potentiel de l’intelligence artificielle. En 2016 – la préhistoire de l’IA –, DeepMind, l’entreprise qu’il avait cofondée et vendue en 2014 à Google, a opposé sa machine d’IA, AlphaGo, à un champion du monde de go, un jeu de stratégie à la complexité déconcertante.

AlphaGo a exécuté d’une traite des milliers de permutations et expédié l’infortuné humain. Stupéfait, Suleyman s’est dit que la machine avait « une perspicacité apparemment surhumaine », écrit-il dans La déferlante, son livre sur l’IA.

PHOTO LEE JIN-MAN, ARCHIVES ASSOCIATED PRESS

Le joueur de go professionnel sud-coréen Lee Sedol passant en revue ses échanges avec le programme d’IA AlphaGo après sa cuisante défaite, le 19 mars 2016, dans un hôtel de Séoul. Même le meilleur joueur au monde n’était pas de taille contre la machine.

Aujourd’hui, plus personne ne trouve cela stupéfiant, mais les implications le sont. Un an après le lancement du logiciel grand public ChatGPT d’OpenAI, les entreprises, les investisseurs et les autorités réglementaires se demandent comment endiguer la technologie qui vise expressément à les déclasser. Les risques exacts de l’IA générative sont encore débattus, et on ignore encore quelles entreprises domineront ce secteur. Mais une chose est certaine : l’IA est transformatrice. « Le niveau d’innovation est très difficile à imaginer pour les gens », affirme Vinod Khosla, fondateur de la société de capital-risque de la Silicon Valley Khosla Ventures, une des premières à miser sur OpenAI. « Choisissez un domaine : édition, cinéma, musique, produits, oncologie. La liste est sans fin. »

En 2023, le monde a découvert l’IA ; 2024 pourrait être l’année où ses limites techniques et juridiques exploseront.

Les nombreux règlements récents seront sans doute réexaminés. Entre autres, le décret du président Joe Biden en octobre qui, s’il est ratifié par le Congrès, obligera les entreprises à s’assurer que leurs systèmes d’IA ne peuvent servir à fabriquer des armes biologiques ou nucléaires ; à intégrer des filigranes identifiant les contenus générés par IA ; et à divulguer au gouvernement les noms de leurs clients étrangers.

Au sommet sur l’IA qui s’est tenu en Angleterre en novembre, 28 pays – dont la Chine, mais pas la Russie – ont accepté de collaborer pour contrer les « risques catastrophiques ». Lors de négociations marathons en décembre, l’Union européenne a rédigé un des premiers projets de loi exhaustifs visant à limiter l’utilisation de l’IA. Il restreint la reconnaissance faciale et les deepfakes, et encadre l’usage de l’IA par les entreprises. Le texte final est attendu début 2024, et les 27 pays membres de l’Union espèrent l’approuver avant les élections du Parlement européen en juin.

En réalité, l’Europe créerait ainsi des règles mondiales en matière d’IA, puisque celles-ci s’appliqueraient à toute entreprise faisant affaire sur son marché de 450 millions de personnes.

« Ça complique la vie des innovateurs », dit Matt Clifford, qui a participé à l’organisation du sommet sur l’IA en Angleterre.

Les États ont de bonnes raisons de s’intéresser à l’IA : tout peut être utilisé à mauvais escient. « Le microphone a permis à la fois les congrès (nazis) de Nuremberg et les Beatles », a écrit M. Suleyman, qui est aujourd’hui PDG d’Inflection AI, qu’il a cofondée en 2023 avec Reid Hoffman, cofondateur de LinkedIn. Il craint que l’IA devienne « incontrôlée et incontrôlable » quand elle aura surpassé l’homme. « L’homo technologicus pourrait être menacé par son invention. »

Sommes colossales

Difficile de prédire quand ce point de bascule arrivera. Jensen Huang, PDG de Nvidia – qui domine le domaine des puces d’IA (la valeur de son action a triplé en 2023) –, a déclaré en novembre 2023 qu’« il y a plein de choses qu’on ne peut pas encore faire ».

M. Khosla pense qu’en 2024, l’IA sera capable de « raisonnement », une percée lui permettant des résultats bien plus précis. Dès 2025, ajoute-t-il, « l’IA aura un raisonnement supérieur à celui des membres intelligents de la communauté ».

Les capacités logiques des outils d’IA les rendront capables d’effectuer des raisonnements probabilistes, comme identifier une maladie à partir de données spécifiques, dit M. Khosla.

Tout cela coûtera cher, et on peut se demander quelles entreprises parviendront à pérenniser des activités d’IA rentables. Sur les 175 072 brevets d’IA déposés de 2012 à 2022, plus de la moitié l’ont été après 2019, selon la Deutsche Bank. En 2024 et 2025, les entreprises adopteront en masse l’IA en ressources humaines, marketing, ventes et développement de produits, dit aussi la Deutsche Bank. Déjà, des cabinets juridiques ont commencé à utiliser des contrats générés par l’IA, réduisant ainsi les heures payées aux avocats. En mai dernier, la Deutsche Bank a prédit « une explosion imminente de l’innovation en IA ».

Parallèlement aux avancées technologiques, les financements ont déboulé. Ainsi, la start-up française Mistral AI – la réponse européenne à OpenAI – a levé un demi-milliard de dollars en 2023, dont 200 millions du géant du capital-risque de la Silicon Valley, Andreessen-Horowitz. Cette ronde de financement valorise Mistral, fondée il y a à peine sept mois, à 2 milliards de dollars.

Mais cette somme pourrait ne pas suffire pour créer un système d’IA polyvalent comme ChatGPT, que vise MistralAI.

« On commence à voir qu’il faudra des sommes énormes pour être dans la course, dit M. Clifford. Pour créer un modèle polyvalent, l’argent requis pourrait faire hésiter les capital-risqueurs traditionnels. »

Cet article a d’abord été publié dans le New York Times.

Lisez cet article dans sa version originale (en anglais ; abonnement requis)