Dans un avenir rapproché, un groupe terroriste pourrait tenter de tuer des dizaines de politiciens d'un coup en utilisant des drones miniaturisés dotés de charges explosives qui reconnaissent leurs victimes de manière autonome.

Tel est, du moins, le scénario évoqué dans un faux documentaire diffusé hier à Genève, au siège de l'ONU, pour sensibiliser les élus de la planète à la nécessité d'interdire le développement d'armes de cette nature.

La vidéo, saisissante de réalisme, met d'abord en scène un entrepreneur à la Steve Jobs qui présente sur scène un des drones miniaturisés en question en relevant que la charge explosive qu'il porte peut suffire à tuer un individu.

Grâce à un système de reconnaissance facial, l'engin survole la foule, revient vers la scène et frappe un mannequin en plastique au visage, faisant un trou au milieu de son front, pour le plus grand plaisir de la foule présente.

En utilisant des milliers d'entre eux, il devient possible, se félicite le souriant entrepreneur, de tuer nombre de « méchants » avec une précision maximale.

Le scénario dérape cependant lorsque des sénateurs sont ciblés par une organisation inconnue qui a réussi à mettre la main sur plusieurs de ces drones. Les choses prennent une tournure encore plus sordide lorsque des milliers d'étudiants sont tués à leur tour dans une attaque d'envergure, semant la panique.

Développement sans balises

Stuart Russell, chercheur réputé en intelligence artificielle de l'Université de Californie à Berkeley, qui a participé à l'élaboration de la vidéo, estime qu'un prototype du drone représenté pourrait être fabriqué rapidement par un groupe d'experts de haut niveau.

Les technologies permettant de créer des systèmes militaires autonomes se développent à toute vitesse sans que les élus ne mettent en place les balises requises pour empêcher leur concrétisation, préparant la voie à l'apparition d'une nouvelle forme « d'arme de destruction massive », prévient le chercheur, joint par courriel.

« Nous avons encore la possibilité d'éviter le futur que vous avez vu dans la vidéo. Mais la fenêtre pour agir se ferme rapidement. »

Des milliers de chercheurs actifs dans le domaine de l'intelligence artificielle et de la robotique ont sonné l'alarme au cours des dernières années au sujet des armes létales autonomes.

Une vingtaine de pays se sont prononcés en faveur d'une interdiction formelle s'inspirant de la convention internationale interdisant les armes chimiques et biologiques, mais plusieurs États continuent leurs recherches pour mettre au point des systèmes létaux autonomes pouvant servir sur terre, en mer ou dans les airs.

Et le Canada ?

La semaine dernière, une centaine de chercheurs de renom du Canada ont écrit au gouvernement canadien pour lui demander d'appuyer une telle interdiction.

Ils notent qu'Ottawa avait joué un rôle clé dans l'adoption d'un traité international interdisant les mines antipersonnel et devrait faire preuve du même « leadership moral » dans ce dossier.

Les systèmes létaux autonomes, préviennent-ils, risquent, si rien n'est fait, de permettre des conflits « à une échelle sans précédent qui vont se dérouler à une vitesse supérieure à ce que l'être humain peut appréhender ».

« La conséquence meurtrière de ces développements est que des machines - et non des gens - vont déterminer qui va vivre et mourir », écrivent-ils.

Doina Precup, chercheuse rattachée à l'Université McGill qui a signé la lettre, note que le Canada est un leader dans le domaine de l'intelligence artificielle et peut « naturellement » jouer un rôle clé dans les efforts en cours pour bloquer le développement d'armes létales autonomes.

Ces systèmes risquent d'avoir de « très mauvaises conséquences », relève Mme Precup, qui veut s'assurer que l'intelligence artificielle est utilisée positivement et demeure bien vue de la population.

Le ministère des Affaires étrangères n'a pas donné suite hier à nos demandes visant à préciser sa position relativement à l'interdiction demandée.

Trop d'États, selon Stuart Russell, affirment que les armes létales autonomes ne pourront se concrétiser avant des années ou ne pensent qu'aux avantages militaires qu'ils pourraient obtenir « sans réfléchir aux risques auxquels ils seront confrontés si leurs adversaires les obtiennent ».