La nouvelle n’est pas passée inaperçue aux yeux des spécialistes de l’utilisation de l’intelligence artificielle (IA) dans les conflits armés. Toutefois, étant donné les enjeux moraux qu’elle soulève, je crois que cette nouvelle nous interpelle tous même si ce n’est pas évident de prime abord.

De source israélienne, on a appris que les Forces de défense israéliennes (Tsahal) disposent d’un outil d’intelligence artificielle redoutable, une plateforme d’analyse de données qui génère de façon autonome des cibles à détruire⁠1.

Il s’agit de Habsora, qui signifie « L’Évangile », un nom choisi avec un humour assez particulier. Cet outil performe à une vitesse bien au-delà des facultés humaines. Il a une capacité de recueillir et de produire des données et d’identifier très rapidement des cibles à détruire qui dépasse de loin ce qui était envisageable à ce jour. L’article prend la peine d’offrir cette réflexion : étant donné cette puissance de calcul, est-il possible de dire que la personne qui, en théorie, approuve la liste des cibles produite par la plateforme a la capacité en temps réel de réaliser les implications de ce qu’elle approuve ?

Peut-on vraiment dire que l’élément humain intervient dans la prise de décision qui entraîne la mort ?

Cela nous renvoie aux considérations éthiques qui entourent l’utilisation de différentes armes et différents outils dits autonomes ou semi-autonomes. Il faut savoir que dans les discussions internationales sur le contrôle de telles armes, on ne parvient pas encore à s’entendre sur la définition de ce qui constitue une arme ou un système d’armes létal pleinement autonome.

L’essentiel est que l’IA est une aide et, en dernière analyse, ne doit pas se substituer au jugement humain. On perçoit bien les avantages de l’emploi de l’intelligence artificielle, un exemple étant la précision qui permet de limiter les dommages collatéraux.

Ce sont toutefois les risques qui doivent nous préoccuper, en particulier la difficulté grandissante pour les humains de garder le contrôle sur la prise de décision. Il y a déjà toute une littérature fondée sur l’expérience d’au moins une décennie qui présente les nombreux défis auxquels font face les personnes maniant ces outils et les inquiétudes éthiques qu’ils suscitent.

Être assis à une console d’écrans à mille kilomètres de l’action ne conditionne pas la prise de décision de la même façon que d’être sur le champ de bataille.

Un informaticien qui n’est relié que virtuellement aux combattants à qui il transmet des instructions ne peut pas être aussi sensible à leur impact que s’il était sur place dans le feu de l’action. Les instructions sont basées sur des algorithmes qui ne sont pas exempts d’erreurs et de biais systémiques. Plus la distance est grande entre « le doigt et la détente », plus la conscience d’être personnellement responsable de gestes létaux se détache de la réalité. Le risque d’impact moral sur la personne est grand.

Dans les milieux cliniques et universitaires, on porte d’ailleurs une attention croissante sur le phénomène de « blessure morale » qui va au-delà du syndrome post-traumatique. Les premiers répondants et les humanitaires peuvent y être exposés tout autant que les militaires lorsqu’ils se retrouvent dans des situations d’urgence et de tension complexes qui les placent en conflit avec leurs valeurs et leurs croyances profondes.

Il peut paraître incongru de soulever ce genre de considérations dans des contextes et des théâtres d’opérations où, malheureusement, le droit de la guerre et le droit humanitaire international ne sont guère respectés. Il n’en demeure pas moins que ce sont des hommes et des femmes qui sont engagés et qui subissent les conséquences de gestes faits par des humains.

Il me semble que l’essentiel pour assurer la paix ne dépend pas de la technologie. Pour vivre dans le respect des uns et des autres, il faudra s’entendre sur des limites à apporter aux champs d’action de l’intelligence artificielle plutôt que de laisser se rétrécir la portée de la responsabilité que nous devons avoir sur nos gestes.

1. Lisez l’article « “The Gospel” : how Israel uses AI to select bombing targets in Gaza » du Guardian (en anglais) Qu’en pensez-vous ? Participez au dialogue