Aussitôt lancée, aussitôt retirée. Devant les critiques et l’intérêt qu’elle a suscité, DeepNude, une application utilisant l’intelligence artificielle pour déshabiller les femmes sur des photos, vient d’être désactivée par ses créateurs, quelques jours seulement après son lancement.

« Voici un bref historique, et la fin de DeepNude, a annoncé l’équipe derrière DeepNude sur Twitter en milieu d’après-midi. Nous avons créé ce projet à des fins de divertissement il y a quelques mois. […] Nous n’avons jamais pensé qu’elle deviendrait virale et que nous ne serions pas capables de contrôler le trafic. Nous avons grandement sous-estimé la demande. Malgré des mesures de sécurité qui ont été adoptées (chaque image était estampillée “Fake” ), si 500 000 personnes l’utilisent, la probabilité que des gens l’utilisent mal est trop grande. Nous ne voulons pas faire de l’argent de cette façon. »

Ils ajoutent qu’il est probable que certaines copies continuent de circuler sur le web, mais préviennent ceux qui seraient tentés de la télécharger d’une autre source ou de la partager violerait les clauses de leur site web. « Le monde n’est pas prêt encore pour DeepNude », concluent-ils. Au cours de la journée qui a précédé l’annonce, le site web de l’application était inaccessible en raison d’une demande plus forte qu’anticipée.

Offerte en deux versions, l’une gratuite et l’autre à 50 $, l’application DeepNude permettait de retirer les vêtements d’une femme sur une photo, la faisant paraître nue, de façon plus ou moins réaliste, selon l’image choisie. Elle ne fonctionnait pas pour les corps masculins. Bien que chaque photo modifiée portait la mention « Fake », il était relativement facile de la retirer en recadrant l’image et d’utiliser la photo à mauvais escient.

L’existence de DeepNude a été révélée au grand jour dans un article publié hier par Motherboard, un site d’information consacré à la technologie qui appartient à Vice Media. En entrevue avec Motherboard, le développeur de l’application, qui se fait appeler Alberto, avait admis s’être demandé si le programme aurait dû être créé. « Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez le faire très bien avec Photoshop (après quelques heures de tutoriel) », s’était-il défendu.

DeepNude rendait accessible à tous la technologie du « deepfake », cette technique de trucage d’images basée sur l’intelligence artificielle. Souvent utilisé à des fins de désinformation, le « deepfake » suscite présentement le débat aux États-Unis après que des politiciens et des célébrités en aient été victimes. Le PDG de Facebook, Mark Zuckerberg, a d’ailleurs déclaré aujourd’hui qu’il réfléchissait à mieux modérer ces contenus. Plusieurs célébrités ont aussi été victimes de ces trucages, voyant leur visage utilisé dans des vidéos pornographiques.