Trop stéréotypés, voire sexistes ou même racistes, les portraits plus ou moins fantaisistes générés par l’application Lensa font grand bruit sur les réseaux sociaux depuis quelques semaines. Se pourrait-il que ces images ne soient que le reflet de nos biais et de notre imaginaire collectif ?

Qu’est-ce que Lensa ?

En gros, c’est un jeu de rôle intégré à une application de retouche d’image. Une fois qu’on a téléversé entre 10 et 20 photos de soi dans Lensa, sa fonction « Magic Avatar », ajoutée en novembre, se charge de les recomposer grâce à l’intelligence artificielle (IA) et d’en créer des versions fantasmagoriques : astronaute, guerrière de jeu vidéo, personnage animé, etc.

IMAGE TIRÉE DU COMPTE INSTAGRAM @JENNIFERLOVEHEWITT

La comédienne Jennifer Love Hewitt a partagé des clichés faits par l’application Lensa.

« On a franchi un mur »

On a l’habitude des applications gratuites qui recueillent et utilisent nos données. Jonathan Bonneau, professeur à l’École des médias de l’UQAM, estime qu’avec Lensa, qui n’est pas gratuite, on a « franchi un mur » : les conditions d’utilisation stipulent que l’application se sert des photos fournies par les utilisateurs pour perfectionner son algorithme, qu’elle est propriétaire des images générées et se réserve le droit de les réutiliser. « Le client paie pour offrir une œuvre et des données d’entraînement de l’IA à la compagnie, résume-t-il. On paie aussi pour leur publicité. »

PHOTO ALAIN ROBERGE, LA PRESSE

Jonathan Bonneau, professeur à l’École des médias de l’UQAM

Des portraits révélateurs… mais de quoi ?

La popularité de Lensa a explosé ces dernières semaines et les critiques à son endroit aussi. De nombreuses utilisatrices relèvent que les avatars créés par l’application sont souvent plus « sexy » que les photos soumises : poitrine gonflée, parties du corps dénudées, expression plus sensuelle, etc. Des utilisateurs afrodescendants soulignent quant à eux que Lensa a tendance à pâlir leur peau, ce que Jonathan Bonneau qualifie de « racisme algorithmique ». Ces réflexes de l’application peuvent être attribués aux biais conscients ou inconscients de ses développeurs, convient-il. Or, les utilisateurs jouent aussi un rôle. « Le simple fait de cliquer spontanément sur certains selfies plutôt que d’autres, par simple curiosité, indique à l’application que cette image attire l’attention, explique-t-il, et incite son algorithme à continuer de proposer ce même type d’image. »

IMAGE TIRÉE DU COMPTE INSTAGRAM @MEGANFOX

Une image de Megan Fox faite par l’application Lensa

Lensa a été entraînée à l’aide d’images déjà disponibles sur l’internet, qui est un univers biaisé. Il suffit de taper les mots « grand-père » ou « femme guerrière » dans Google pour le constater : les images suggérées représentent majoritairement des personnes caucasiennes et les guerrières portent en général de ces « armures bikini » populaires dans les jeux vidéo. « Ce qu’on voit sur Lensa, c’est un côté de l’internet qui n’était peut-être pas visible à tous les utilisateurs, mais que l’intelligence artificielle ramène au premier plan », suggère-t-il.

Un drapeau rouge ?

L’une des inquiétudes soulevées par la popularité de Lensa, c’est que cette application pourrait faciliter la création de fausses images et notamment de pornodivulgation (revenge porn). « Plus une technologie est facile d’utilisation, plus il y a de gens qui vont l’utiliser à bon… et à mauvais escient », reconnaît Philippe Beaudoin, président de Waverly, une entreprise en intelligence artificielle, tout en soulignant que les outils de falsification d’images étaient déjà accessibles avant Lensa. Ce qui ne l’empêche pas de croire à la nécessité d’imposer un cadre réglementaire aux applications. Il plaide aussi pour un meilleur contrôle des utilisateurs, qui pourraient ainsi paramétrer les outils qu’ils utilisent et combattre, d’une certaine façon, l’uniformisation stéréotypée imposée par une app comme Lensa. « L’idée, c’est de ne pas laisser l’IA prendre toutes les décisions que l’utilisateur pourrait lui-même prendre », juge-t-il.

PHOTO ROBERT SKINNER, LA PRESSE

Philippe Beaudoin, président de l’entreprise de technologie Waverly

Un pas de plus vers le métavers

Les avatars créés avec Lensa constituent un outil de plus pour « s’évader de la réalité », estime Philippe Beaudoin. « Avec la venue du métavers, qui emprunte beaucoup aux codes du jeu vidéo, on s’en va vers une personnalisation augmentée de soi. On veut montrer notre plus beau côté, comme on le fait déjà sur les réseaux sociaux, analyse pour sa part Jonathan Bonneau. On va se scanner, s’améliorer et se lancer dans le métavers avec l’espoir d’avoir, disons, une vie complémentaire. »

S’interroger sur nos pratiques

Avec la prolifération des filtres et des applications de retouche d’image, Philippe Beaudoin estime que les internautes ont plus de sens critique qu’auparavant devant des images idéalisées comme celles générées par Lensa. « Les jeunes d’aujourd’hui ont ces applications sur leur téléphone, ils savent qu’ils peuvent utiliser des filtres et imaginent que tout le monde autour d’eux fait la même chose, observe-t-il. Ça n’évite pas les problèmes d’image ou de perception de soi, mais on peut au moins avoir la conversation et comprendre que c’est un univers fabulé. » « TikTok et Facebook font bien pire que Lensa avec nos données personnelles », reconnaît d’emblée Jonathan Bonneau. Ce qui n’est pas une raison de ne pas s’interroger, ajoute le professeur de l’UQAM. « Ce n’est pas grave de mettre son visage sur l’internet, on le fait déjà sur les réseaux sociaux et, si on ne leur envoie pas, les compagnies comme Lensa sont capables de venir les chercher, dit-il. La vraie discussion à avoir, c’est : quelle photo on garde privée ou on réserve à un groupe restreint d’amis ? »