On apprenait récemment que le renseignement israélien aurait assassiné un scientifique iranien au moyen d’un dispositif utilisant l’intelligence artificielle. Les systèmes d’armes létales autonomes, souvent appelés « robots tueurs », font de plus en plus fréquemment la chronique, mais restent l’objet de nombreuses confusions, particulièrement par rapport à leurs cousins les drones.

Alexis Rapin
Alexis Rapin Chercheur en résidence à l’Observatoire des conflits multidimensionnels de la Chaire Raoul-Dandurand

À la mi-septembre, le New York Times a publié une enquête digne d’un roman d’espionnage. Celle-ci a révélé que Mohsen Fakhrizadeh, tête pensante du programme nucléaire iranien assassiné dans des circonstances troubles en 2020, avait succombé à une attaque d’une arme d’un nouveau genre. Selon le quotidien, le Mossad (service de renseignement israélien) aurait employé une mitrailleuse commandée à distance et équipée d’un système d’intelligence artificielle pour exécuter le physicien. Montée sur un bras mécanique piloté par satellite, la mitrailleuse aurait abattu Fakhrizadeh au volant de sa voiture sans qu’un agent du Mossad ne soit sur les lieux.

PHOTO ARCHIVES REUTERS

Portrait de Mohsen Fakhrizadeh brandi lors d’une manifestation à Téhéran après son assassinat

Il n’en fallait pas plus pour que l’expression familière « robot tueur » – d’ailleurs employée dans l’article du New York Times – foisonne peu après sur l’internet et dans les médias. Le raisonnement était simple. Un homme était mort. Aucun humain n’avait appuyé physiquement sur la détente. De l’intelligence artificielle avait été utilisée. Il devait donc logiquement s’agir d’un robot tueur.

Robot ou drone ?

Seulement voilà, le dispositif déployé par Israël n’avait pas grand-chose d’un Terminator. Il ne disposait pas d’un « cerveau » informatisé et n’était nullement autonome.

Il comportait seulement un système utilisant l’intelligence artificielle pour compenser le délai de réponse du mécanisme : longue distance et liaison satellite obligent, un décalage devait être envisagé entre le moment où l’opérateur du dispositif (situé en Israël) « appuierait sur le bouton » et le moment où la mitrailleuse (déployée en Iran) ferait feu. Sachant que la cible serait mouvante, le Mossad aurait donc recouru à un logiciel utilisant l’intelligence artificielle pour calculer ce décalage et ajuster la visée de l’arme en temps réel.

L’engin, et particulièrement son dispositif de tir, était cependant commandé par un humain, à la manière d’un drone.

Les armes autonomes : déjà une réalité

Le malentendu suscité par le quotidien new-yorkais n’est pas le premier du genre. Une controverse similaire a fait rage en juin dernier, après qu’un rapport de l’ONU sur le conflit en Libye a suggéré qu’un « drone kamikaze » (ou munition rôdeuse) aurait attaqué un convoi de manière autonome. Le mythe du robot tueur est fondé sur un lourd imaginaire collectif, nourri par la science-fiction et fréquemment réactivé par les progrès de l’intelligence artificielle.

Dans les faits, ce que les chercheurs appellent systèmes d’armes létales autonomes est une réalité depuis quelques années déjà. La Corée du Sud, notamment, déploie à la frontière avec son voisin du Nord un dispositif de tourelles mitrailleuses automatisées (le SGR-A1), réputé capable d’identifier et d’abattre des cibles sans intervention humaine – ce qui ne s’est toutefois encore jamais produit. De telles technologies soulèvent évidemment de gigantesques questionnements éthiques.

PHOTO TIRÉE DE WIKIMEDIA COMMONS

Tourelle mitrailleuse automatisée SGR-A1

Les récentes révélations entourant l’assassinat de Mohsen Fakhrizadeh, cependant, rappellent qu’une confusion est fréquemment entretenue dans le débat public entre les systèmes d’armes autonomes (les « robots ») et les systèmes d’armes commandés à distance (les drones et leurs équivalents terrestres ou marins). Or, les uns et les autres soulèvent des enjeux bien distincts.

Quand le sentiment de risque diminue

Un des détails révélés par l’enquête du New York Times, par exemple, est que le Mossad n’aurait potentiellement pas mené à bien l’assassinat s’il avait été forcé de déployer un agent sur le terrain. Une dynamique déjà observée dans le cadre des frappes de drones : les systèmes d’armes commandés à distance, parce qu’ils réduisent le danger de pertes humaines pour les États qui les emploient, viennent changer significativement certains calculs décisionnels opérés sur la scène internationale. Ils semblent, entre autres, faire diminuer le sentiment de risque chez les décideurs.

De nombreuses questions en découlent. Les systèmes d’armes commandés à distance favorisent-ils le choix de certaines actions plutôt que d’autres ? Faut-il craindre que leur essor rende le recours à la force plus probable sur la scène internationale ? Si oui, le phénomène augmentera-t-il les risques de déclenchement de conflits armés ? On le voit, les enjeux sociopolitiques entourant les systèmes d’armes commandés à distance ne sont pas nécessairement les mêmes que ceux concernant les armes autonomes.

Dans l’imaginaire collectif, le mythe du robot tueur suscite surtout la crainte que l’humain soit un jour évacué de la décision de tuer. Les systèmes d’armes commandés à distance, déjà opérationnels et toujours plus répandus, dessinent cependant un tout autre tableau : pour l’heure, ce n’est pas tant l’humain qui programme la machine pour tuer ; c’est plutôt la machine qui incite l’humain à donner la mort. Si l’on peut assurément s’inquiéter du potentiel avènement de robots tueurs dans l’avenir, il importe également de réfléchir aux changements profonds dont témoigne d’ores et déjà l’humain-assassin.

Plus près qu’on pense

PHOTO ROBERT BOTTRILL, FOURNIE PAR L’ARMÉE CANADIENNE

Drone loué par l’armée canadienne lors de sa mission en Afghanistan (ici en 2009)

En 2019, Justin Trudeau a annoncé que le Canada avait l’intention de « faire progresser les efforts internationaux en vue d’interdire le développement et l’utilisation de systèmes d’armes entièrement autonomes ». Toutefois, en matière de systèmes d’armes commandés à distance, l’Aviation royale canadienne a annoncé en mai 2021 son projet de mettre en service des drones armés d’ici trois à quatre ans. D’intenses débats sont à prévoir sur la doctrine qui définira leurs missions et régira leur emploi.

Pour aller plus loin

Alexis Rapin suggère les documents suivants :

  • Le livre Asymmetric Killing : Risk Avoidance, Just War, and the Warrior Ethos par Neil C. Renic :
Asymmetric Killing : Risk Avoidance, Just War, and the Warrior Ethos

Asymmetric Killing : Risk Avoidance, Just War, and the Warrior Ethos

Oxford University Press

272 Pages

  • Le film Eye in the Sky (2015) :
Eye in the Sky

Film à suspense

Eye in the Sky

Gavin Hood

Helen Mirren, Alan Rickman, Aaron Paul

1 h 42

Écoutez l’épisode « Les promesses de l’intelligence artificielle » de la balado Le collimateur Plongez-vous dans les « Chroniques des nouvelles conflictualités », de la Chaire Raoul-Dandurand