J’ignorais qu’on pouvait générer du contenu pornographique en fonction de nos désirs.

Comme tout le monde, j’ai pogné les nerfs en découvrant que de fausses images érotiques de Taylor Swift avaient été fabriquées par hypertrucage en janvier dernier, mais je croyais qu’il s’agissait d’une (sordide) affaire d’initiés. Je ne savais pas que tout un chacun pouvait maintenant utiliser l’intelligence artificielle pour donner vie à ses fantasmes.

Je l’ai appris lors de la sixième édition du colloque Sexualités et technologies, orchestrée par l’organisme de bienfaisance Les 3 sex*. Plus précisément grâce à la conférence offerte par Arnaud Anciaux, professeur au département d’information et de communication de l’Université Laval.

Le chercheur, qui travaille entre autres sur les stratégies économiques entourant les industries pornographiques, m’a appris qu’il existe des centaines de plateformes qui nous proposent de créer des images érotiques à l’aide de l’intelligence artificielle (et, dans de plus rares cas, des vidéos de quelques secondes). Deux façons de faire dominent :

1) On choisit parmi plusieurs options. Combien de personnes veut-on voir ? Quel âge ont-elles ? Quels sont leurs attributs physiques ? Qu’aimerait-on les voir faire ? Et dans quel décor ? Certains sites offrent plus de quarante catégories de la sorte comprenant des dizaines de possibilités chacune.

2) On fait une requête. C’est-à-dire qu’on décrit précisément ce qu’on souhaite voir. (Je pourrais par exemple écrire : « Du consentement éclairé entre trois personnes émotionnellement matures qui cherchent à se donner du plaisir dans le décor du téléroman La petite vie. » Notons que je ne l’ai pas testé pour des raisons éthiques, peut-être que les algorithmes ne sont pas rendus là...)

Si les vidéos en sont à leurs balbutiements, la production d’images pornographiques à l’aide de l’intelligence artificielle va bon train depuis 2017, m’a expliqué Arnaud Anciaux. C’est l’année où l’on a dévoilé des codes facilitant la création d’hypertrucages (deep fakes). Un nouveau cap a été franchi à l’automne 2022, quand les dispositifs visant le grand public ont commencé à se multiplier... Plus besoin de savoir coder, on pouvait dès lors visiter un site web, cocher des cases ou écrire des requêtes pour donner naissance aux hypertrucages de nos rêves.

PHOTO FOURNIE PAR ARNAUD ANCIAUX

Arnaud Anciaux, professeur au département d’information et de communication de l’Université Laval

Des plateformes n’ont pas hésité à déployer des campagnes marketing sur les réseaux sociaux pour faire connaître leurs services. Certaines mettaient en scène des images de célébrités, comme la comédienne Emma Watson, sans leur consentement... Ces histoires ont fait grand bruit. Aujourd’hui, plusieurs sites bloquent donc les requêtes qui contiennent des noms de vedettes ou des mots comme « mineur ». Or, selon les observations du chercheur, des usagers tentent de contourner les filtres « anti-célébrités » dans des forums de discussion...

(Je vous donne la permission de m’imaginer pousser un très long soupir.)

Utiliser l’image d’une personne non consentante dans un contexte pornographique est d’une violence et d’une bassesse innommables. Ça, on le comprend.

Mais Arnaud Anciaux m’a fait découvrir un autre abus lié à cette pratique : l’hypertrucage qui permet d’associer les traits d’une femme à un corps nu qui n’est pas le sien implique l’utilisation de l’image d’une travailleuse du sexe. Cette femme voit son corps instrumentalisé pour en blesser une autre. Certaines actrices de l’industrie pornographique ont exprimé à quel point le processus était violent pour elles aussi.

Arnaud Anciaux parle à la fois d’enjeux « de contrôle et d’éthique ». Sans oublier la question de la rémunération. Ces plateformes sont payantes, mais à qui revient l’argent ?

Pour entraîner les algorithmes à la génération d’images, l’intelligence artificielle doit s’appuyer sur des bases de données. Elle a besoin de nombreuses références pornographiques pour incarner les scénarios demandés.

Certains sites se montrent plus transparents que d’autres quant à l’origine des contenus employés et aux personnes impliquées. Il s’agit souvent de plateformes créées avec l’accord de travailleurs et travailleuses du sexe. Or, quand on s’éloigne de ces sites, la chose devient beaucoup plus floue.

Le chercheur a discuté avec des responsables de plateformes qui disent utiliser des bases de données développées sur 5, 10 ou 20 ans de travail dans l’industrie pornographique... À l’époque, les acteurs et actrices avaient signé des contrats stipulant qu’ils approuvaient « les usages actuels et futurs » de leur image. OK, mais peut-on honnêtement croire qu’ils envisageaient qu’un jour, elle servirait à créer des contenus à l’aide d’une intelligence artificielle ?

D’autres plateformes utilisent plutôt des photos facilement accessibles en ligne, par exemple sur des forums où des internautes se dévoilent. On peut aisément supposer que ces personnes n’ont pas consenti à entraîner la moindre intelligence artificielle !

Les corps créés ont beau être faux, ils reposent sur des chairs bien réelles.

En janvier, Arnaud Anciaux a assisté à des conférences à Las Vegas et à Los Angeles. Le membre du Centre de recherche interuniversitaire sur la communication, l’information et la société a pu observer que des acteurs de l’industrie pornographique travaillent sur des outils différents. Plutôt qu’inviter les consommateurs à profiter d’images basées sur le travail de personnes qui n’y ont pas consenti, ils développent des clones numériques.

Concrètement ? On peut échanger avec le clone d’un acteur ou d’une actrice. L’intelligence artificielle génère des textos, des images et des mémos vocaux qui nous permettent d’entretenir une relation avec cet « être » qui nous allume.

« Ça paraît en théorie moins contestable d’un point de vue éthique et légal, comme on a l’accord des personnes présentées », estime Arnaud Anciaux.

Sauf que ce n’est pas parfait non plus.

Le chercheur y va d’un exemple concret : disons qu’on demande au clone une photo de lui dans un endroit que l’acteur derrière ledit clone n’a jamais visité. L’intelligence artificielle devra alors puiser son inspiration dans des images prises par des gens qui n’y ont pas nécessairement consenti. (Pensons à l’amateur de La petite vie heureux de faire partager des photos du décor sur Reddit qui voit son travail détourné à des fins érotiques parce que j’ai écrit une requête bizarre...)

Difficile de se sortir complètement de la réflexion éthique sur les bases de données.

L’avenir de la porno est compliqué.