• Accueil > 
  • Sciences 
  • > Des milliers de scientifiques réclament l'interdiction des «robots tueurs» 

Des milliers de scientifiques réclament l'interdiction des «robots tueurs»

Les robots tueurs, qui pourraient prendre la décision... (Photo CARL COURT, archives AFP)

Agrandir

Les robots tueurs, qui pourraient prendre la décision de tuer sans contrôle humain - à la différence des drones télécommandés pour lesquels une intervention humaine reste nécessaire - inquiètent de plus en plus ONU, scientifiques et défenseurs du droit humanitaire.

Photo CARL COURT, archives AFP

Partage

Partager par courriel
Taille de police
Imprimer la page
Agence France-Presse
PARIS

Plusieurs milliers de chercheurs et personnalités, dont le célèbre astrophysicien britannique Stephen Hawking et le cofondateur d'Apple Steve Wozniak, ont lancé mardi un appel pour l'interdiction des armes offensives autonomes ou «robots tueurs».

«Les armes autonomes choisissent et frappent des cibles sans intervention humaine (...) elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires», relèvent les signataires dans une lettre ouverte, publiée à l'ouverture de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires.

«La technologie de l'intelligence artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies, mais dans les années à venir», ajoutent les nombreux chercheurs et professeurs signataires, de Harvard, Berkeley et Cambridge à Liège (Belgique), Paris ou l'université Humboldt de Berlin.

Le célèbre entrepreneur de hautes technologies Elon Musk - patron de Tesla (voitures électriques), SolarCity et SpaceX (technologie spatiale) - le Prix Nobel de Physique Frank Wilczek et le cofondateur de Skype, Jaan Tallinn, figurent aussi parmi les signataires.

Ces robots tueurs, qui pourraient prendre la décision de tuer sans contrôle humain - à la différence des drones télécommandés pour lesquels une intervention humaine reste nécessaire - inquiètent de plus en plus ONU, scientifiques et défenseurs du droit humanitaire. Deux réunions d'experts se sont déjà tenues à Genève sur ce sujet dans le cadre de la Convention de l'ONU sur certaines armes classiques.

Leurs détracteurs redoutent qu'ils ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.

Ces armes du futur peuvent intéresser les militaires, car elles réduisent le risque de pertes humaines sur le champ de bataille, mais elles «abaissent aussi le coût d'un engagement au combat» et laissent présager une nouvelle course aux armements, relèvent les signataires.

«Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir (...) Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs (. ) et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, etc..», poursuivent-ils.

L'intelligence artificielle «offre un grand potentiel au bénéfice de l'humanité», mais elle ne doit pas être «discréditée» par la conception d'armes offensives, insistent-ils.

Une interdiction d'armes qui n'existent pas encore ne serait pas sans précédent. En 1998, les lasers aveuglants ont été interdits avant d'avoir été développés à grande échelle.

Attention aux dérives militaires

L'intelligence artificielle progresse sur le terrain militaire et l'éminent expert britannique Toby Walsh assure redouter des bavures, ou une utilisation de cette technologie par des terroristes ou des dictateurs.

Avec des milliers d'autres scientifiques, cet expert en intelligence artificielle demande à l'ONU d'interdire les «armes autonomes» ou «robots-tueurs», jugeant dans un entretien avec l'AFP que ce type d'armement peut révolutionner notre manière de faire la guerre.

Membre de l'Association pour le développement de l'intelligence artificielle (Association for the Advancement of Artificial Intelligence, AAAI), M. Walsh est un des signataires de l'appel lancé mardi par des milliers de scientifiques lors de la Conférence internationale sur l'intelligence artificielle (IJCAI), à Buenos Aires.

Q: Quel danger posent les «armes autonomes», certains pays en fabriquent-ils?

R: «Toutes les technologies peuvent être utilisées pour le bien ou pour le mal. La différence entre les armes autonomes et les drones que nous avons vus en Irak et ailleurs c'est qu'il n'y a pas d'humain dans le processus (de décision). Un drone, vous avez derrière un soldat américain quelque part, parfois aux États-Unis, qui le guide avec un joystick, qui prend la décision de tuer quelqu'un ou pas. Là, nous avons un ordinateur ayant le pouvoir de vie ou de mort. (...)

Je ne peux pas dire quels pays développent des armes autonomes à des fins militaires mais la plupart des pays disposent de cette technologie, les États-Unis, la Chine, c'est une technologie qui est connue et il faut éviter qu'elle tombe entre les mains de de terroristes ou de groupes armés».

Q: Pourquoi cet appel lancé mardi?

R: «Il faut légiférer le plus rapidement possible car la technologie pourrait être disponible d'ici peu, et il faut du temps pour construire un cadre légal et les diplomates ne travaillent pas très rapidement. Il faut prendre une décision aujourd'hui qui aura des conséquences sur notre futur. Nous soutenons la demande d'interdiction pour éviter une course à l'armement. Il y a des arguments légaux, éthiques, politiques et techniques. Ce ne sont pas des décisions faciles à prendre, elles requièrent de l'éthique, mais il faut une législation pour l'encadrer.(...)

Si l'arme autonome est utilisée, cela va révolutionner la manière de faire la guerre. Ce serait la troisième révolution en matière d'armement. La première révolution, c'est l'invention de l'arme à feu, la deuxième c'est la bombe nucléaire. Cela va rendre la guerre plus efficace, encore plus meurtrière. Et il faut arrêter ça maintenant». (...)

Q: Comment établir la responsabilité légale?

R: «C'est très intéressant de penser à qui va être responsable si cet armement tue une personne innocente. Il n'y a pas de cadre légal en place. Est-ce le fabricant? Est-ce le programmateur? Celui qui a allumé la machine?»

Q: Outre l'armement, cette technologie a-t-elle des applications civiles?

R: «La technologie utilisée pour la voiture autonome, sans conducteur, est similaire ou identique à celle utilisée pour développer une arme autonome (...) Les milliers de personnes qui meurent dans le monde sur la route... la mortalité va diminuer. Les autos autonomes commettent beaucoup moins d'erreurs et sont plus précises dans la conduite».

- Propos recueillis par Paula Bustamante

Partager

publicité

publicité

Les plus populaires

Tous les plus populaires
sur lapresse.ca
»

publicité

Autres contenus populaires

publicité

image title
Fermer