(Cannes) Devant une salle bondée, quatre sommités débattent de la possibilité que l’intelligence artificielle (IA), à travers les systèmes informatiques ou les agents conversationnels comme ChatGPT, arrive un jour à éprouver des émotions et un état de conscience. Science-fiction ? La scène s’est passée la semaine dernière à Cannes, au Festival international de l’IA.

C’était le silence le plus complet dans l’auditoire, composé d’experts en IA et de gens de l’industrie.

Le panel, auquel participaient Claude Frasson, professeur en intelligence et technologies à l’Université de Montréal, Axel Cleeremans, professeur de sciences cognitives de l’Université Libre de Bruxelles, Pascale Fung, directrice du Centre de recherche en IA de l’Université de Hong Kong, et Patrick Johnson, vice-président en recherche et sciences de Systèmes Dassault, s’est prolongé bien au-delà des 50 minutes allouées.

Après avoir établi que la trajectoire empruntée par l’IA était peu prévisible puisque la technologie progressait plus rapidement qu’anticipé, les quatre spécialistes ont mis la table en évoquant des questions qui, pour le simple des mortels, semblent surréalistes : est-ce que l’IA va égaler l’intelligence de l’homme et, si oui, à quel moment ? Est-ce que l’intelligence artificielle pourrait même dépasser celle de l’être humain, et dans combien de temps ? Si l’IA peut décoder, reconnaître et imiter des émotions humaines, pourrait-elle éventuellement en avoir ou, du moins, en communiquer ?

« Ce que je crains, c’est que l’intelligence artificielle simule des émotions et que cela soit trompeur pour les êtres humains, que cela les induise en erreur », évoque Claude Frasson, professeur en intelligence et technologies à l’Université de Montréal, tout en précisant que ce n’est pas pour demain matin.

PHOTO BRIAN ACH, ARCHIVES GETTY IMAGES

Le Français Yann Le Cun, considéré comme l’un des trois principaux « pères » de l’intelligence artificielle, a participé aux débats à Cannes.

Conscience

La déclaration fait bondir Mme Fung : selon elle, les « machines » n’apprennent que de la main des humains et sont faites pour utiliser les algorithmes qu’elles traduisent en langage abstrait, un point c’est tout. Elles s’adaptent et trouvent des solutions, indique-t-elle, mais elles ne « ressentent » rien du tout et ne développent pas « d’état général de conscience ».

« Les humains sont les seuls à se poser des questions existentielles », clame-t-elle.

C’est au tour d’Axel Cleeremans d’émettre un bémol. « Pour le moment, les systèmes n’accumulent pas d’expérience, ils oublient, et donc, ils ne sont pas intuitifs, dit-il. Mais s’ils atteignent une grande intelligence, par exemple au-dessus de l’intelligence humaine, pourraient-ils développer ce qu’on appelle des qualia⁠1 et se rapprocher d’un état de conscience de soi ? »

Cet expert en psychologie cognitive termine son argumentaire en soulignant qu’il y a 30 ans, dans les manufactures, des designers faisaient leur boulot seuls. Puis ils ont été assistés de robots qui sont aujourd’hui propulsés par l’IA.

« Une tâche qui prenait un mois à accomplir prend aujourd’hui 10 minutes, précise-t-il, parce que la capacité des robots a changé. L’intelligence artificielle s’adapte et prend en compte la rétroaction. Elle fait le lien entre différents concepts, elle relie les points⁠2. »

PHOTO FOURNIE PAR RGA

La start up Blue Frog Robotics a conçu Buddy, un robot compagnon grand public.

IA et biologie

Selon Axel Cleeremans, le développement d’une conscience artificielle est une « réelle possibilité » et il faut se demander quels sont les « dangers pour l’espèce humaine » dans un avenir, convient-il, « très lointain ».

« Veut-on s’engager dans cette voie et voir des systèmes intelligents, autonomes, conscients, immortels et réplicables à l’infini se mettre en place ? », lance-t-il à ses trois collègues, devant une modératrice visiblement médusée.

« Elle a perdu le contrôle », glisse Stefano Cerri, professeur émérite du Laboratoire d’informatique de robotique et de microélectronique de Montpellier, à la sortie de la salle, en faisant allusion aux discussions enflammées du quatuor, peu contenues par la modératrice.

Le débat entre Pascale Fung et Axel Cleeremans s’est poursuivi en introduisant la notion d’une future IA biologiquement inspirée.

Les animaux ont leur propre intelligence, qui n’est pas comme l’intelligence humaine, mais elle existe ! Est-ce que dans l’avenir, l’intelligence des machines pourrait s’en approcher, en étant intuitive, et devenir un monde en soi ?

Pascale Fung, directrice du Centre de recherche en IA de l’Université de Hong Kong

Un marché mondial

L’intelligence artificielle sert déjà à répondre aux besoins émotionnels des humains. Cette perspective est apportée par Claude Frasson, spécialiste à la fois de l’intelligence émotionnelle et de l’intelligence artificielle. Il cite l’exemple de l’émergence, en septembre 2022, de robots qui accompagnent les personnes âgées, au Japon.

« Ces robots détectent les émotions sur le visage des personnes pour ensuite les reproduire, souligne-t-il. Ils apportent de l’empathie en diminuant les émotions négatives ressenties par les gens. »

L’industrie de l’IA émotionnelle a le vent dans les voiles : de 1,8 milliard US générés en 2022, elle pourrait atteindre près de 14 milliards US d’ici 10 ans, selon le rapport de la firme américaine Allied Market Research publié en septembre dernier⁠3.

Dans l’éventualité du développement d’émotions et de conscience au sein des systèmes mus par l’IA, Axel Cleeremans, de l’Université Libre de Bruxelles, soulève un dernier enjeu – et non le moindre : « Ils pourraient alors ressentir de la souffrance et ce sera notre responsabilité… puisque c’est nous qui les avons créés. »

1. Qualia est un mot latin qui définit l’ensemble des expériences subjectives que nous avons en tant qu’individus, telles que la perception de la couleur, du goût ou de la douleur, par exemple

2. Il s’agit d’une traduction libre des propos du chercheur : « The AI is connecting the dots. »

3. Consultez le rapport (en anglais)