(San Francisco) La Chine et les États-Unis ne se sont pas engagés à bannir les armes autonomes létales, comme l’espéraient certains experts, après des rumeurs de presse sur ce sujet à l’occasion du sommet présidentiel de mercredi en Californie.

Les présidents Joe Biden et Xi Jinping se sont néanmoins mis d’accord pour que leurs experts respectifs s’entretiennent au sujet des risques liés aux progrès rapides de l’intelligence artificielle (IA), qui bouleversent de nombreux secteurs.

Dans le domaine des équipements militaires, cette technologie pourrait constituer la troisième révolution majeure, après l’invention de la poudre à canon et de la bombe atomique.

Revue non exhaustive des applications de l’IA dans les équipements militaires.

Armes autonomes

Robots, drones, torpilles… grâce à des technologies allant de la vision informatique à des capteurs sophistiqués, toutes sortes d’armes peuvent être transformées en systèmes autonomes, régis par des algorithmes d’IA.

L’autonomie ne veut pas dire qu’une arme « se réveille le matin et décide de partir en guerre », tempère Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley.

« Cela signifie qu’elles ont la capacité de localiser, de sélectionner et d’attaquer des cibles humaines, sans intervention humaine. »

Ces systèmes d’armes létales autonomes sont aussi surnommés « robots tueurs », une formule qui évoque des androïdes tout droit tirés de la science-fiction.  

« Cela fait partie des options explorées mais à mon avis c’est la moins utile de toutes », remarque le spécialiste.

La plupart de ces armes sont encore à l’état d’idées ou de prototypes, mais la guerre menée par la Russie en Ukraine offre un aperçu de leur potentiel.

En raison des problèmes de télécommunications, les armées ont été poussées à rendre leurs drones plus autonomes.

Du coup, « les gens se réfugient sous terre », constate Stuart Russell, et cela préfigure un changement majeur de la nature de la guerre, « où être visible n’importe où sur le champ de bataille sera une condamnation à mort ».

Les armes autonomes présentent plusieurs avantages potentiels : efficacité, production de masse à coûts réduits, absence d’émotions humaines telles que la peur ou la colère, absence de cratère radioactif dans leur sillage…

Mais elles soulèvent des questions éthiques majeures en termes d’évaluation et d’engagement.

Et surtout « comme cela ne nécessite pas de supervision humaine, vous pouvez en lancer autant que vous voulez », souligne Stuart Russell, « et donc potentiellement détruire d’un coup toute une ville ou toute une ethnie ».

Véhicules autonomes

Les sous-marins, bateaux et avions autonomes doivent permettre de faire de la reconnaissance, de la surveillance ou du soutien logistique dans des zones dangereuses ou éloignées.

Ces véhicules, tout comme les drones, sont au cœur du programme « Replicator » lancé par le Pentagone pour contrer la Chine en termes d’effectifs et de matériel militaire, notamment dans la région Asie-Pacifique où les États-Unis essaient de regagner en puissance.

L’objectif est de déployer plusieurs milliers de « systèmes autonomes peu chers et faciles à remplacer dans de nombreux domaines dans les 18 à 24 prochains mois », a indiqué fin août Kathleen Hicks, ministre adjointe à la Défense.

Elle a cité l’exemple de l’espace, où de tels appareils « seront projetés par dizaines, au point qu’il sera impossible de tous les éliminer ».

De nombreuses entreprises développent et testent des véhicules autonomes, à l’instar de la Californienne Anduril, qui vante ses sous-marins sans humains « optimisés pour une variété de missions de défense et commerciales telles que la détection océanographique à longue distance, la connaissance de l’espace de combat sous-marin, la lutte contre les mines, la guerre anti-sous-marine », etc.

Logiciels tactiques

Boostés à l’IA et capables de synthétiser des montagnes de données recueillies par les satellites, radars, capteurs et services de renseignements, les logiciels tactiques servent de puissants assistants pour les états-majors.

« Le Pentagone doit comprendre que dans une guerre de l’IA, les données sont les munitions », a fait valoir Alexandr Wang, le patron de Scale AI, lors d’une audition au Congrès en juillet.

« Nous disposons de la plus grande flotte de matériel militaire au monde. Elle génère 22 téraoctets de données par jour. Si nous réussissons à organiser correctement ces données pour les analyser avec l’IA, nous aurons un avantage assez insurmontable en termes d’utilisation de cette technologie à des fins militaires ».

Scale AI a remporté un contrat pour déployer un modèle de langage sur un réseau classifié d’une unité majeure de l’armée américaine. Son chatbot (agent conversationnel) « Donovan », doit permettre aux commandants de « planifier et agir en quelques minutes au lieu de plusieurs semaines ».

Washington a cependant posé des limites.

« L’IA ne doit pas prendre de décisions sur la manière et le moment d’utiliser une arme nucléaire, ni même être dans la boucle, a déclaré le secrétaire d’État Antony Blinken à Tokyo le 8 novembre.