(Genève) Les États-Unis ont plaidé jeudi lors d’une réunion à l’ONU en faveur de l’élaboration d’un « code de conduite non contraignant » sur les systèmes d’armes létales autonomes (SALA), dits « robots tueurs ».

« À notre avis, le meilleur moyen de progresser dans notre réflexion […] serait d’élaborer un code de conduite non contraignant », a déclaré le représentant américain, Josh Dorosin, conseiller juridique au département d’État.

PHOTO FOURNIE PAR IROBOT

Un robot tueur Warrior de la compagnie iRobot.

« Un tel code aiderait les États à promouvoir un comportement responsable et le respect du droit international », a-t-il affirmé lors d’une réunion à Genève du Groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes.

La première réunion officielle de ce Groupe d’experts, dont le mandat va prendre fin, a eu lieu en 2017, sans trouver de consensus sur la nécessité ou non de réguler l’usage futur de ces armes.

Il est toutefois prévu que le Groupe d’experts publie des recommandations à l’issue de sa dernière réunion (2-8 décembre), en vue de la conférence d’examen de la Convention des Nations unies sur l’emploi de certaines armes classiques qui se tiendra du 13 au 17 décembre à Genève.

À cette fin, l’ambassadeur belge Marc Pecsteen, qui préside les discussions du Groupe d’experts gouvernementaux, a élaboré un rapport qui recommande aux États parties à la Convention d’ouvrir des négociations afin de parvenir à des normes internationales sur ces armes.

Le rapport recommande aussi que les États s’engagent à exercer « contrôle humain suffisant » en mettant en place des gardes-fous.

PHOTO JOSH SMITH, ARCHIVES REUTERS

Des techniciens américains préparent un drone MQ-9 Reaper avant son décollage à l’aérodrome de Kandahar, en Afghanistan, le 9 mars 2016.

Lors des débats jeudi, plusieurs pays, dont les États-Unis et l’Inde, ont fait part de leur réticence à adopter un cadre juridique contraignant et ont critiqué de nombreux aspects du rapport.

« Moralement révoltantes »

En novembre 2018, le secrétaire général de l’ONU Antonio Guterres avait appelé les États à interdire ces armes, qu’il qualifie de « politiquement inacceptables et moralement révoltantes ».

Le Comité international de la Croix-Rouge (CICR) demande lui depuis 2015 aux États de s’accorder sur les limites à imposer aux systèmes d’armes autonomes « pour assurer la protection des civils, le respect du droit international humanitaire et l’acceptabilité éthique de ces systèmes ».

L’organisation, qui est la gardienne du droit international humanitaire, défend le principe de règles juridiquement contraignantes qui interdisent les systèmes d’armes autonomes imprévisibles ou qui ciblent des personnes.

PHOTO MINISTÈRE DE LA DÉFENSE DES ÉTATS-UNIS

Un petit blindé tout terrain sans équipage testé par l'armée américaine le 16 mai 2019 à l'université Texas A&M à Bryan, au Texas.

Pour les ONG, les inquiétudes grandissantes et l’incertitude juridique montrent le besoin urgent d’avoir une règlementation contraignante.

« Une minorité d’États bloque actuellement les efforts visant à entamer des négociations. Si ces discussions échouent, il est temps pour les États d’envisager d’autres voies pour réaliser des progrès crédibles », a déclaré à l’AFP Clare Conboy, de la campagne Stop Killer Robots, une coalition mondiale de plus de 180 ONG.

Selon HRW, il semble peu probable que les avancées vers des négociations s’inscrivent dans le cadre de la Convention de l’ONU sur l’emploi de certaines armes classiques, car cet organisme prend ses décisions par consensus et « l’on connaît l’opposition de plusieurs puissances militaires, en particulier l’Inde, la Russie et les États-Unis ».

« Un processus indépendant de négociation d’une nouvelle norme sur les robots tueurs serait plus efficace et plus inclusif que les pourparlers diplomatiques en cours », a indiqué Bonnie Docherty, chercheuse senior auprès de la division Armes à HRW.