Pour la première fois, les États ont mobilisé à Genève leurs experts en armement pour réfléchir dans le cadre de l'ONU sur les robots tueurs autonomes, des armes du futur dont la menace inquiète les défenseurs du droit humanitaire.

Les images d'armées de robots échappant à tout contrôle pour tout dévaster sur leur passage sont encore du domaine d'Hollywood, mais les politiques semblent prendre très au sérieux ces révolutions technologiques au point de commencer à réfléchir aux risques de dérapages.

C'est le cadre de la Convention sur certaines armes classiques qui a été retenu par 21 États membres pour quatre jours de consultations avec la participation d'experts et de grands acteurs de l'humanitaire comme le CICR (Comité international de la Croix-Rouge) ou les initiateurs du Traité contre les mines antipersonnel.

«Si nous ne lançons pas une discussion morale et éthique à ce sujet, nous ne contrôlerons pas ces armements», a mis en garde Jody Williams, la prix Nobel de la Paix de 1997 pour son action contre les mines.

«Trop souvent, le droit international répond aux atrocités et aux souffrances une fois qu'elles ont été commises. Vous avez ici l'occasion d'une action préventive et de faire en sorte que la décision d'ôter la vie reste sous un contrôle humain», a souligné mardi Michael Moller, le Directeur général par intérim de l'ONU à Genève.

Il a cité comme exemple à suivre l'interdiction en 1998 des lasers aveuglants avant qu'ils ne soient développés à grande échelle et déployés, décision prise dans le cadre de cette Convention sur certaines armes.

Diplomates et experts parlent de «systèmes d'armes létales autonomes», les activistes humanitaires ont recours à l'image plus parlante de «robots tueurs autonomes».

Le président des discussions, l'ambassadeur de France Jean Hugues Simon-Michel a appelé à «une approche équilibrée entre les nécessités de défense et les préoccupations humanitaires». Il a demandé de «garder à l'esprit que ces technologies sont duales et peuvent avoir de nombreuses applications civiles, pacifiques, légitimes et utiles».

«J'ai un aspirateur robot chez moi, il est complètement autonome et je ne veux pas qu'il soit arrêté. Il n'y a qu'une chose que nous ne voulons pas c'est la fonction de tuer», a affirmé l'activiste Noel Sharkey, professeur émérite de robotique et d'intelligence artificielle de l'Université britannique de Sheffield.

Se référant à un colloque organisé par le CICR en mars, Kathleen Lawand, chef de l'Unité d'armes du Comité international a estimé que «la question centrale est celle de l'absence potentielle de tout contrôle humain sur les fonctions essentielles d'identification et d'attaque des cibles, notamment des cibles humaines».

«L'idée que des machines puissent avoir un pouvoir de vie ou de mort sur un champ de bataille, fonctionnant avec peu ou pas de contrôle humain, crée un sentiment de profond malaise», a-t-elle dit.

Le CICR, porteur des Conventions de Genève sur le droit de la guerre, demande que «les fonctions autonomes des nouvelles armes fassent l'objet d'un examen juridique approfondi afin de s'assurer qu'elles peuvent être utilisées conformément au droit international humanitaire, obligation que les États sont tenus de respecter avant d'employer toute nouvelle arme».

Pour le moment, ces armes totalement autonomes n'existent pas, mais pour les activistes les plus radicaux comme Steve Goose d'Human Rights Watch «la seule réponse est une interdiction totale préventive».

Déjà aujourd'hui les attaques menées avec des drones par les États-Unis contre des «objectifs terroristes», déclenchées à distance par des opérateurs humains, suscitent de nombreuses critiques notamment pour les dommages infligés à des civils.

«Une arme autonome serait-elle capable de faire la différence entre un civil et un combattant? Serait-elle capable d'annuler une attaque qui aurait des effets indirects disproportionnés sur des civils? Tout cela représente un défi de programmation colossal qui pourrait bien se révéler impossible à réaliser», a mis en garde Mme Lawand.