Si les gouvernements souhaitent contrôler l’émergence d’une nouvelle génération de machines de mort dotées d’intelligence artificielle (IA), il est minuit moins une. C’est l’avertissement qui leur a été lancé lundi.

Des systèmes d’armes autonomes terrestres prolifèrent déjà – en Ukraine et à Gaza, notamment – tandis que des algorithmes et des engins volants sans pilote aident déjà les militaires à décider s’il faut frapper des cibles ou pas.

Ces décisions de vie ou de mort pourraient d’ici peu être entièrement confiées à des machines.

Machines à tuer

« C’est le moment Oppenheimer de notre génération », affirme le ministre autrichien des Affaires étrangères, Alexander Schallenberg, évoquant le père de la bombe atomique, J. Robert Oppenheimer, qui a plaidé après 1945 pour limiter la prolifération de l’arme nucléaire.

Des responsables civils, militaires et technologiques d’une centaine de pays se sont réunis lundi à Vienne pour discuter de moyens qui permettraient d’encadrer l’application de l’IA aux technologies militaires – deux secteurs qui excitent les investisseurs et où les valorisations boursières atteignent des niveaux historiques.

La multiplication des conflits et les profits liés au développement de l’IA entravent les efforts pour contrôler l’avènement de robots tueurs, estime l’Estonien Jaan Tallinn, un des premiers investisseurs dans DeepMind Technologies, la plateforme d’IA d’Alphabet, et cofondateur du Centre pour l’étude des risques existentiels de l’Université de Cambridge.

Les incitatifs qui animent la Silicon Valley ne sont peut-être pas alignés avec les intérêts du reste de l’humanité.

L’investisseur en IA Jaan Tallinn, cofondateur du Centre pour l’étude des risques existentiels

Partout dans le monde, des gouvernements collaborent avec des entreprises qui intègrent l’IA dans la défense. Le Pentagone finance de petites firmes d’IA à coups de millions. Le 26 avril, l’Union européenne a confié à Thalès SA la création d’une base de données d’images permettant d’évaluer les cibles militaires.

Cibles d’assassinat et bombardements

Selon le magazine +972, de Tel-Aviv, Israël utilise un programme d’intelligence artificielle appelé « Lavender » pour trouver des cibles d’assassinat. Le reportage, contesté par Israël, indique que ce système d’intelligence artificielle a joué un « rôle central dans le bombardement sans précédent des Palestiniens ».

« L’avenir des robots d’abattage, c’est maintenant », affirme Anthony Aguirre, un physicien qui a prédit les diverses étapes de cette technologie dans un court métrage de 2017 vu par plus de 1,6 million de personnes. « Il nous faut un traité de contrôle de ces armes sous l’égide des Nations unies. »

Mais les partisans d’une solution diplomatique risquent d’être déçus, du moins à court terme, dit Alexander Kmentt, principal responsable autrichien en matière de désarmement et architecte de la conférence de cette semaine. « L’approche classique en contrôle des armements ne marche pas : ce n’est pas un système d’armement unique, mais une combinaison de technologies à usage civil et militaire », a indiqué M. Kmentt lors d’une interview.

Faute d’un nouveau traité global, les pays seront peut-être forcés de se débrouiller avec les outils juridiques existants, estime M. Kmentt : l’application des contrôles à l’exportation et des lois humanitaires pourrait aider à garder un certain contrôle sur la prolifération des systèmes d’armes qui intègrent l’IA.

À plus long terme, quand la technologie sera accessible aux acteurs non étatiques et peut-être aux terroristes, les pays seront obligés d’élaborer de nouvelles règles, a prédit Arnoldo André Tinoco, ministre des Affaires étrangères du Costa Rica.

« L’accès est devenu facile. Avant, seul un petit nombre de pays pouvaient se lancer dans la course aux armements autonomes, a-t-il déclaré. Ces barrières sont tombées. Aujourd’hui, des étudiants équipés d’une imprimante 3D et ayant des connaissances de base en programmation peuvent fabriquer des drones capables de faire un grand nombre de victimes. Les systèmes d’armes autonomes ont changé à jamais le concept de stabilité internationale. »

Lisez l’article du magazine +972 sur l’IA et la guerre dans la bande de Gaza (en anglais)