À la mi-février, Air Canada a dû indemniser un client mal renseigné par son robot conversationnel. En Colombie-Britannique, une avocate a été blâmée pour avoir utilisé deux « hallucinations » de ChatGPT dans une requête. Et l’été dernier, en Arizona, c’est la conductrice qui a été condamnée quand sa voiture autonome a tué un piéton.

Quand une intelligence artificielle (IA) dérape, qui est responsable ? Un robot peut-il être condamné par un tribunal ? Avec un sens du timing parfait, deux sommités québécoises du droit québécois, Mariève Lacroix et Nicolas Vermeys, ont lancé la semaine dernière le livre Responsabilité. IA : Du droit québécois de la responsabilité civile à l’égard de l’intelligence artificielle. La Presse a rencontré M. Vermeys.

La Presse : Est-ce que l’exemple récent d’Air Canada ne vient pas clore le débat : c’est l’entreprise utilisant une intelligence artificielle qui en est ultimement responsable ?

Nicolas Vermeys : Oui et non. Il y a quand même une ouverture dans la décision à savoir si ce sera toujours l’entreprise ou si quelqu’un d’autre en amont, comme le concepteur, pourrait être considéré comme responsable. En droit québécois, lorsqu’un bien cause un préjudice de façon « indépendante », la règle veut que ce soit le gardien du bien qui est responsable. Le gardien, c’est la personne qui a une capacité de contrôle sur le bien. Pour Air Canada, c’est l’entreprise. Mais dans un autre contexte, on pourrait très bien dire que ce n’est pas l’entreprise qui l’a utilisé, mais c’est plutôt celle qui l’a programmé, qui l’a entraîné ou qui a constitué une base de données biaisée.

L’intelligence artificielle (IA), vous l’écrivez, est décrite comme une « boîte noire » dont même les experts ont de la difficulté à décrire le comportement. Comment pourrait-on alors trouver un défaut de sécurité, prouver une négligence ?

C’est tout le problème, vous avez mis le doigt dessus. Dans bien des cas, on est incapable de savoir pourquoi une IA a pris telle décision ou fait telle recommandation. Ça va être la personne qui se fie à cette information-là sans la valider, sans la vérifier, qui va être tenue responsable.

Vous parlez de l’IA comme d’un « OJNI », un « objet juridique non identifié ». De toute évidence, pour le moment, l’IA n’est pas une personne juridique. Amusons-nous un peu : serait-ce possible dans quelques années ?

En fait, tout peut changer parce qu’en droit, il peut y avoir ce qu’on appelle des « fictions législatives ». Le meilleur exemple, ce sont les entreprises, devenues « personnes morales ». Pour avoir fouillé dans les archives, quand c’est arrivé, les gens trouvaient que c’était complètement ridicule d’accorder une personnalité juridique aux personnes morales. Mais sans ce mécanisme, aujourd’hui, la société ne fonctionnerait pas de la façon qu’elle fonctionne.

Est-ce que, éventuellement, les législateurs, à tort ou à raison, pourraient décider de créer une personnalité juridique pour l’intelligence artificielle ? Ils pourraient très bien le faire.

Le droit, comme vous l’écrivez, ne sortira pas indemne de sa rencontre avec l’IA. Vous faites également une comparaison entre le statut de l’IA et celui de l’esclave dans la Rome antique, ou celui du mineur dont les parents sont responsables, ou même des animaux.

L’idée ici, c’est que si on considère que nos dispositions du Code civil ne sont pas suffisamment complètes pour gérer ce qui se passe avec l’IA, il faut trouver notre inspiration quelque part. Le statut de l’esclave, ce n’est pas moi qui l’ai trouvé – plusieurs auteurs américains voient des parallèles – alors que l’esclave n’avait pas le statut d’être humain, mais avait une complète autonomie d’humain, donc rendait son propriétaire responsable de ses actes. Évidemment, c’est malaisant comme comparaison, parce que l’on compare un être humain qui ne bénéficie pas de droits fondamentaux à une machine. Il y a quand même certaines leçons qui pourraient être tirées de cette situation.

Vous évoquez également la possibilité de la mise sur pied de fonds d’indemnisation, un peu comme il en existe pour les voyageurs ou même pour le no fault au Québec pour les conducteurs. Comment cela pourrait-il s’appliquer ?

Ce n’est pas une recommandation, mais bien une observation d’un régime qui serait envisageable. Comme en matière d’assurance automobile, l’idée serait ici de dire que tous ceux qui développent des formes d’IA qui pourraient causer des préjudices mettent de l’argent dans un fonds. Un des auteurs américains appelle ça un Turing Pot, qui viendrait dédommager les victimes. Ça pourrait être une approche envisageable.

Pensez-vous qu’on a appliqué le principe de précaution en IA ?

Est-ce que certaines entreprises ont commercialisé des outils sans évaluer les conséquences de ceux-ci ? Absolument. OpenAI avait décidé, il y a quelques années, de ne pas commercialiser ChatGPT parce que ce serait trop dangereux et ça pourrait mener à de la désinformation. Finalement, quelques années plus tard, on a décidé d’aller de l’avant. Si on regarde les législations qui sont développées un peu partout, tant au Canada qu’en Europe, même aux États-Unis, on a un peu cette approche de dire : « Si vous développez une IA qui pourrait avoir des conséquences assez importantes, il faut s’assurer en amont de mettre les mécanismes en place pour limiter les dommages. » On va même plus loin en Europe en disant qu’il ne faut pas toucher à certaines formes d’IA.

Qui sont les auteurs de Responsabilité. AI ?

Docteure en droit, MMariève Lacroix est avocate et professeure titulaire à la section de droit civil de la faculté de droit de l’Université d’Ottawa. Elle s’intéresse au statut juridique du cadavre humain et s’interroge aussi sur le statut de l’animal et du robot dans le cadre de la Chaire-miroir Ottawa-Lyon, dont elle est titulaire depuis 2019.

Professeur à la faculté de droit de l’Université de Montréal, Nicolas Vermeys est un des rares juristes possédant une certification en sécurité informationnelle et l’auteur de plusieurs publications portant principalement sur les incidences des technologies de l’information sur le droit. Il est également directeur adjoint du Laboratoire de cyberjustice depuis 2010.