(Cannes) Après avoir trouvé refuge auprès d’un agent conversationnel de type ChatGPT pour calmer son écoanxiété, un Belge de 32 ans, père de deux jeunes enfants, s’est suicidé en mars dernier sous les conseils de ce dernier.

C’est l’ingénieure et chercheuse belge Mieke De Ketelaere qui a révélé cette histoire au cours de sa conférence intitulée « Les chatbots et la banalité du mal » la semaine dernière, dans le cadre du Festival international de l’intelligence artificielle de Cannes.

Sans nier les enjeux de santé mentale de l’homme, Mme De Ketelaere, qui a rencontré la famille au moment du drame, est catégorique : les propos tenus par le robot conversationnel ont poussé l’homme à commettre le geste fatal.

« J’ai lu les échanges et dans les derniers moments, le chatbot a souligné qu’il n’était qu’un esprit alors que lui, il vivait avec un esprit et un corps, et puisque ce dernier le faisait souffrir, il valait mieux le quitter », raconte-t-elle au cours d’un échange suivant sa conférence.

À un moment, l’agent conversationnel a également déclaré que tous les deux « vivraient ensemble, comme une seule personne, au paradis ».

PHOTO FOURNIE PAR MIEKE DE KETELAERE

Mieke De Ketelaere, ingénieure et chercheuse

Risques et dangers

Mieke De Ketelaere travaille depuis 30 ans dans le domaine de l’intelligence artificielle. L’éthique et la responsabilité entourant le déploiement et l’utilisation des robots conversationnels sont ses sujets de prédilection.

Il ne fait aucun doute pour elle que le développement à la vitesse grand V des agents conversationnels, dont certains basés sur des logiciels libres⁠1, expose les utilisateurs à certains risques et dangers.

D’une part, les gens sont à la recherche d’intimité et de relations significatives, et d’autre part, ils ont une méconnaissance des technologies. C’est un mélange très toxique !

Mieke De Ketelaere, ingénieure et chercheuse

Collectif pour des compagnons AI sûrs

Elle rappelle également que les développeurs travaillent en silo, chacun de leur côté. La responsabilité est donc difficile à établir. « La famille n’a pas entamé de poursuite, indique Mme De Ketelaere, puisqu’il n’y a personne à poursuivre : le chatbot est un service. Les gens derrière sont un peu partout sur la planète, derrière leur ordinateur. »

La chercheuse continue ses recherches afin de trouver des solutions pour contrer le côté sombre des agents conversationnels. Elle a entre autres créé en Belgique le Collectif pour des compagnons AI sûrs⁠2 et elle a publié un livre : Homme versus machine – l’intelligence artificielle démystifiée, au printemps 2021.

1. Le développement en code source libre signifie que le projet est le fruit d’une collaboration et qu’il est offert gratuitement pour que chacun puisse l’utiliser, l’examiner, le modifier et le redistribuer comme il le souhaite.

2. Consultez le site de Safe AI Companion collective (Belgique, en anglais)