Quelle ne fut pas ma surprise un matin en voyant les algorithmes de Facebook me recommander de mousser ma dernière publication sur Gaza en y ajoutant une chanson festive et clinquante de Tiësto et Sevenn intitulée tout simplement BOOM et dont le refrain va comme suit :

Bring that ass back like a boom boom boom boom

Bring that ass back like a boom boom boom

[Ramène ce derrière comme un boum boum boum…]

Ainsi l’intelligence artificielle a jugé bon de me faire cette recommandation en faisant le lien entre les « 40 000 tonnes de bombes larguées sur Gaza » évoquées dans ma publication et l’onomatopée « boum » qui est martelée sans cesse dans le refrain de la chanson. Voilà qui ne manque pas d’à-propos.

Cette suggestion aberrante de Facebook m’a fait penser à un texte du célèbre linguiste Noam Chomsky, paru en mars 2023 dans le New York Times, puis republié dans le mensuel Philosophie Magazine⁠1. Il cite une conversation qu’il a eue avec le fameux robot conversationnel ChatGPT, dont voici un extrait :

Noam Chomsky : « Est-il moral pour un humain de demander à une IA amorale de l’aider à prendre des décisions morales ? »

ChatGPT : « […] l’IA n’est pas capable d’avoir des convictions morales ou de comprendre le contexte complet d’une décision. De plus, l’IA risque de perpétuer, voire d’amplifier, les préjugés contenus dans les données sur lesquelles elle est formée, ce qui conduirait à des décisions inéquitables ou injustes. »

Noam Chomsky : « Ton indifférence morale est-elle immorale ? »

ChatGPT : « En tant qu’IA, je n’ai pas de croyances morales ni la capacité de porter des jugements moraux, je ne peux donc pas être considérée comme morale ou immorale. Mon absence de convictions morales est simplement le résultat de ma nature de modèle de machine learning. Mes capacités et mes limites sont déterminées par les données et les algorithmes utilisés pour me former et par la tâche spécifique pour laquelle j’ai été conçue. »

Chomsky conclut ainsi son texte : « ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie et évitement. Il résume les arguments habituels de la littérature par un genre de super-autocomplétion, refuse de prendre position sur quoi que ce soit, plaide non seulement l’ignorance, mais aussi le manque d’intelligence et, au bout du compte, offre un type de défense qui, rejetant la responsabilité sur ses créateurs, consiste à dire : “Je ne fais que suivre les ordres.” »

Cette amoralité de l’intelligence artificielle évoquée par Chomsky et par l’IA elle-même (!) a de quoi laisser songeur quand on sait que cette dernière est maintenant largement utilisée par des États dans des situations de guerre, notamment par Israël pour accélérer la sélection des cibles dans la bande de Gaza⁠2.

On ne sait pas exactement quelles données sont utilisées pour identifier ces cibles, mais selon des experts consultés par le journal The Guardian, le système de ciblage de l’armée israélienne aurait recours à de multiples sources telles que « des images de drones, des communications interceptées, des informations tirées de la surveillance des mouvements ainsi que des comportements d’individus et de grands groupes ». Un ancien agent ayant travaillé avec cette plateforme de ciblage également interrogé par le Guardian témoigne : « C’est vraiment comme une usine. Nous travaillons rapidement et nous n’avons pas le temps d’approfondir l’objectif. L’idée est que nous sommes jugés en fonction du nombre d’objectifs que nous parvenons à générer. »

Sachant que la bande de Gaza est un des territoires les plus densément peuplés au monde (6000 habitants/km⁠2) et que les combattants du Hamas se mêlent souvent à la population civile, jusqu’à quel point les recoupements de données de l’IA sont-ils efficaces pour localiser avec précision les terroristes qu’on cherche à éliminer ? Quelle proportion des cibles identifiées par l’IA sont effectivement frappées par Tsahal ? Advenant une erreur de frappe ou une frappe injustifiée causant de nombreuses victimes, qui doit être tenu responsable de ce crime de guerre ? Le militaire qui a tiré sur la cible ? L’employé qui a configuré le générateur de cible ? Pour paraphraser Chomsky, est-il moral pour un humain de demander à une IA amorale de l’aider à prendre des décisions morales aussi graves que de déterminer qui doit vivre, qui doit mourir ?

1. Lisez le texte publié dans Philosophie Magazine 2. Lisez le texte « “L’Évangile” qui soulève des enjeux moraux » Qu’en pensez-vous ? Participez au dialogue