Les nouveaux développements en matière d’intelligence artificielle (IA) me fascinent et m’étonnent désormais plusieurs fois chaque mois. Souvent, aussi, ils me bousculent.

La plus récente innovation qui a provoqué chez moi tout ça à la fois s’est produite aux États-Unis. Des familles qui souhaitent mettre de la pression sur les élus pour obtenir un meilleur contrôle des armes à feu ont utilisé l’IA pour recréer… la voix de leurs enfants morts.

On en est là, oui.

Ces enfants (il y en a six) ont été tués par des armes à feu au cours des dix dernières années. Leurs familles souhaitent sensibiliser la population et les politiciens américains.

Le Wall Street Journal, qui a publié un reportage sur cette initiative, a souligné que ces hypertrucages (deepfakes) marquent « une nouvelle ère pour l’intelligence artificielle » ⁠1.

Je précise que les parents de ces enfants font preuve de transparence. On annonce clairement à la fois sur le site web, baptisé The Shotline⁠2, ainsi que dans chacun des enregistrements, le recours à l’intelligence artificielle. Contrairement à bien d’autres cas, on ne cherche ici à berner personne.

Même s’il ne s’agit pas de désinformation, c’est tout de même très troublant.

Extrait de l’appel de Joaquin, victime de la tuerie de Parkland
0:00
 
0:00
 

SAISIE D’ÉCRAN LA PRESSE

Sur le site The Shotline, on peut notamment entendre la voix recréée de Joaquin, tué à Parkland, en 2018.

J’ai eu des frissons quand j’ai entendu les voix de ces jeunes « ressuscités » grâce à l’intelligence artificielle.

Je l’ai d’ailleurs dit à Valérie Pisano, PDG de Mila, l’Institut québécois d’intelligence artificielle, qui m’a offert son avis au sujet de ce phénomène.

Je pense que le mot “frisson” est juste. On s’aventure très rapidement sur un territoire complètement inconnu dans l’histoire de l’humanité. Et ce n’est pas peu dire. On a des milliers d’années d’histoire et on n’a jamais eu la capacité de faire revivre la voix de nos morts.

Valérie Pisano, PDG de Mila

Car ce n’est qu’un exemple parmi d’autres du fait que l’intelligence artificielle a le pouvoir de nous rendre – artificiellement – immortels. Une tendance qui soulève de nombreux questionnements éthiques.

Valérie Pisano m’a appris qu’il existe déjà de nombreuses entreprises dont le modèle d’affaires repose sur l’idée de « chercher à monnayer la possibilité d’exister en parole ou en image après notre mort ».

« Ce que je n’arrive pas à m’expliquer, c’est qu’on remette cette décision entre les mains de gens qui sont soit des experts en technologies, donc capables de créer des outils, soit des gens d’affaires qui ont du capital et qui veulent développer des produits et services », lance-t-elle.

Devant le fait accompli

Même réaction de la part de Jonathan Roberge, professeur titulaire au Centre Urbanisation Culture Société de l’Institut national de la recherche scientifique. « On est dans une situation inédite, ou presque. Et il n’y a aucun principe de clairvoyance. On aurait dû penser qu’un cas comme ça allait arriver ! »

Ils ont raison. Dans un monde idéal, ces initiatives seraient l’objet, en amont, d’une grande réflexion. De débats de société. D’un encadrement.

Mais nous sommes désormais devant le fait accompli.

D’ailleurs, des parents pourraient probablement faire la même chose au Québec en toute légalité, estime Mariève Lacroix, professeure de droit à l’Université d’Ottawa.

Est-ce qu’on pourrait dire que l’enfant n’avait pas consenti ou n’avait pas prononcé ces paroles ? L’enfant n’est plus là. S’il n’a pas exprimé ses volontés de son vivant, qu’est-ce qu’on peut revendiquer pour freiner cet élan de ses parents ? À mon avis, ça n’engagerait pas un recours en justice.

Mariève Lacroix, professeure de droit à l’Université d’Ottawa

Mariève Lacroix vient de publier, avec le professeur Nicolas Vermeys de l’Université de Montréal, le livre Responsabilité. IA – Du droit québécois de la responsabilité civile à l’égard de l’intelligence artificielle.

« Pour qu’il y ait un cas de responsabilité civile, il faut qu’il y ait un dommage », ajoute-t-elle. Mais dans ce cas-ci, c’est plutôt le contraire. « Les parents veulent envoyer un message social de dénonciation et ils l’utilisent à cette fin. »

Ce qui ne veut pas dire qu’il n’y a pas toute une réflexion à mener à ce sujet, bien au contraire.

« On se détache un peu des droits individuels, qui s’éteignent à la mort, pour migrer vers un sens plus sociétal, vers des valeurs collectives. Par exemple, on peut se poser comme question : est-ce que la société québécoise voudrait encourager de tels comportements ? »

Ça démontre aussi, à mon sens, à quel point les élus qui souhaitent encadrer le développement et l’utilisation de l’intelligence artificielle n’ont pas la partie facile.

On a beaucoup parlé au cours de la dernière année dans les médias des dangers des hypertrucages. Des fausses images pornographiques de la chanteuse Taylor Swift aux appels destinés aux électeurs américains où l’IA avait été utilisée pour reproduire la voix de Joe Biden.

Il faut interdire ce genre de dérives et pénaliser ceux qui les permettent.

Mais tous les hypertrucages ne sont pas nécessairement nuisibles.

« Il faut distinguer différents cas de figure », confirme Jocelyn Maclure, titulaire de la Chaire Jarislowsky sur la nature humaine et la technologie à l’Université McGill.

Dans certains cas, comme celui d’entraîner l’intelligence artificielle sur les données d’une personne disparue, « il n’est pas clair qu’il y a des torts ».

C’est plutôt une question « qui relève de nos conceptions éthiques les plus profondes », précise l’expert.

Mais dans d’autres cas, « le contenu généré par des IA sous la forme d’hypertrucages, où l’on prétend que le contenu est généré par des humains, peut créer des torts importants soit pour des individus ou pour la société », souligne-t-il.

Le dentifrice est sorti du tube.

Il n’y retournera pas.

Il coule d’ailleurs très vite en ce moment.

Alors même si ce n’est pas simple de légiférer pour encadrer ces développements, on ne peut pas continuer de tourner autour du pot.

Tant à Ottawa qu’à Québec, de nouvelles règles du jeu s’imposent au plus vite.

1. Lisez l’article du Wall Street Journal (en anglais, abonnement requis) 2. Consultez le site The Shotline (en anglais) Qu’en pensez-vous ? Participez au dialogue