Eliot Higgins, qui a fondé Bellingcat, une organisation renommée spécialisée dans les enquêtes en ligne et la vérification de faits, s’y connaît en matière d’analyse de vidéos. Son expérience ne le met pas pour autant à l’abri des tentatives de manipulation.

Lorsque La Presse l’a joint au Royaume-Uni la semaine dernière, il s’interrogeait sur l’authenticité d’une vidéo circulant largement sur X dans laquelle l’ex-président américain Donald Trump exposait son plan pour « faire le ménage » à Washington.

Les propos du politicien semblaient si excessifs au journaliste qu’il en était à se demander si la vidéo n’avait pas été produite grâce à l’intelligence artificielle (IA).

L’intervention du politicien controversé, qui figure sur son site de campagne, était bel et bien authentique, mais datait de l’année dernière.

Ça devient difficile, même pour des experts, de savoir ce qui est réel.

Eliot Higgins, journaliste et fondateur de Bellingcat

Le journaliste a lui-même brièvement contribué à brouiller les frontières entre le vrai et le faux l’année dernière en utilisant le logiciel de production d’images Midjourney pour produire des photos de synthèse de l’arrestation de Donald Trump alors que des accusations étaient sur le point d’être déposées contre lui.

Bien qu’il ait indiqué qu’il s’était amusé avec un logiciel d’IA en plaçant les images en ligne, les internautes se sont enflammés et les demandes ont fusé de médias de partout sur la planète.

La plupart des personnes qui ont vu les photos ont compris, dit-il, qu’il s’agissait d’une fabrication, mais Midjourney n’a pas apprécié.

« Ils ont fermé mon compte sans rien me dire », relate le journaliste, qui s’alarme de l’évolution rapide de la qualité des hypertrucages (deepfakes) pouvant être produits en un tournemain.

Les photos générées grâce à l’IA, qui comportaient des anomalies relativement faciles à détecter, par exemple en ce qui a trait aux mains ou au regard, sont désormais des plus réalistes.

Les vidéos, ajoute M. Higgins, ont aussi progressé et sont difficiles à départager du réel lorsque les mouvements à l’écran sont relativement limités. L’utilisation d’une résolution plus limitée peut permettre par ailleurs de « cacher certains défauts ».

L’apparition de simulateurs de voix capables de générer des segments audio crédibles à partir d’échantillons limités constitue une autre évolution spectaculaire des dernières années.

L’utilisation de ces outils dans la sphère politique, qui est déjà bien engagée, promet de donner de sérieux maux de tête aux électeurs et aux médias, et alarme nombre d’experts qui craignent leur incidence sur le processus démocratique.

PHOTO DENIS BALIBOUSE, ARCHIVES REUTERS

La présidente de la Suisse, Viola Amherd

La présidente de la Suisse, Viola Amherd, a déclaré lors du dernier sommet de Davos qu’il s’agissait d’une « réelle menace » pour la stabilité politique de nombreux pays.

La crainte est d’actualité notamment aux États-Unis, alors que s’annonce un féroce combat entre les camps démocrate et républicain en vue de l’élection présidentielle de novembre.

Robert Weismann, qui préside Public Citizen, une ONG vouée notamment à la défense de la démocratie, note que la production d’hypertrucages convaincants grâce à l’IA représente un développement inquiétant qui requiert une action urgente des autorités.

PHOTO TIRÉE DU SITE WEB DE PUBLIC CITIZEN

Robert Weismann, président de l’ONG Public Citizen

C’est bien pire que tout ce qu’on a pu connaître avant. Ça ne fera pas monter d’un cran l’impact des tentatives de manipulation, ça aura plutôt un effet multiplicateur.

Robert Weismann, président de l’ONG Public Citizen

Donald Trump, qui est régulièrement accusé par ses détracteurs de nier les faits, y compris quant à sa défaite lors de l’élection de 2020, a été la cible d’une tentative de manipulation émanant du camp du gouverneur Ron DeSantis lors de la course à l’investiture républicaine.

IMAGE TIRÉE DU COMPTE X DE DESANTIS WAR ROOM

Capture d’écran de la vidéo diffusée par l’équipe de campagne de Ron DeSantis dans laquelle trois fausses photos montrent Donald Trump donnant l’accolade à Anthony Fauci.

Une vidéo mise en ligne par son équipe montrait notamment une image fabriquée avec l’IA dans laquelle l’ex-président donne l’accolade à l’ancien directeur de l’Institut national des allergies et maladies infectieuses, Anthony Fauci, figure honnie dans les rangs républicains.

Il a aussi été pris pour cible en ligne par l’acteur Mark Ruffalo, qui a relayé deux images montrant Donald Trump entouré d’adolescentes dans un avion privé prétendument en route pour l’île de Jeffrey Epstein, un riche homme d’affaires qui a mis fin à ses jours après avoir été accusé d’agression sexuelle.

IMAGE TIRÉE DU COMPTE X DE MARK RUFFALO

Mark Ruffalo a relayé cette publication truquée dans laquelle Donald Trump, entouré d’adolescentes, est accusé d’être à bord d’un avion privé le menant vers l’île de Jeffrey Epstein.

« C’est de l’IA et c’est très dangereux pour notre pays ! », a écrit le candidat républicain sur le réseau Truth Social.

Le président démocrate Joe Biden a aussi été ciblé. Les autorités enquêtent sur un système d’appels automatisé utilisé en prévision des primaires du New Hampshire dans lesquels on entendait un message semblant avoir été enregistré par le chef d’État lui-même.

Le but du message était apparemment de décourager ses partisans de voter à cette étape en mettant en avant des informations trompeuses sur le processus électoral.

Converser avec les électeurs

L’IA pourrait aussi être utilisée pour produire des systèmes d’appels sophistiqués dans lesquels des électeurs croiront converser avec des militants politiques.

De tels systèmes pourraient fonctionner pratiquement en continu « sans jamais prendre de pause pour manger ou dormir », ce qui permettrait d’obtenir un impact sur le scrutin qui excède largement le porte-à-porte ou les campagnes téléphoniques traditionnelles.

Dean Philips, un opposant à Joe Biden dans la course pour l’investiture démocrate, a bénéficié des services d’une firme qui a développé un système d’appels imitant sa voix, mais a dû l’abandonner après qu’Open AI a accusé l’entreprise responsable d’avoir enfreint les règles interdisant l’utilisation de ses produits à des fins politiques.

M. Weismann note que le scénario pourrait prendre une tournure encore plus préoccupante puisque l’IA pourrait être utilisée pour livrer un message adapté à chaque électeur joint par téléphone en tirant profit des données personnelles disponibles en ligne à son sujet.

L’IA meilleure que les humains pour convaincre ?

Le chercheur québécois Yoshua Bengio, considéré comme une sommité mondiale en matière d’IA, a exprimé des préoccupations similaires lors d’une récente entrevue avec La Presse.

Comme l’IA fonctionne par apprentissage, la multiplication des appels à des électeurs potentiels pourrait amener « la machine » à parfaire ses techniques pour se faire de plus en plus convaincante.

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Yoshua Bengio

« Ça se pourrait même qu’à un moment donné, elle devienne meilleure que les êtres humains pour convaincre quelqu’un. C’est comme pour le jeu de go. L’IA a battu les champions du monde parce qu’elle a joué beaucoup plus de parties que n’importe quel être humain », a-t-il souligné.

Aviv Odaya, expert en IA rattaché à l’Université Harvard, note que le « microciblage » est utilisé depuis longtemps dans les campagnes électorales.

L’équipe de Donald Trump a notamment mis une telle approche à profit en 2016 avec l’appui de la firme Cambridge Analytica, qui utilisait les données disponibles par Facebook pour moduler le message.

La puissance de l’IA n’en demeure pas moins préoccupante, note M. Odaya, qui insiste sur la nécessité de trouver des manières de prémunir le public contre d’éventuelles tentatives de manipulation.

À l’instar du Canada et de l’Union européenne, les États-Unis tentent de mettre en place actuellement des lois visant à baliser le recours à cette technologie.

Parmi les États américains qui ont procédé en ce sens, plusieurs exigent que toute image ou vidéo produite avec cette technologie soit dûment identifiée comme telle.

Des firmes de la Silicon Valley développent des techniques pour « marquer » les produits de l’IA de manière à ce qu’ils puissent être détectables par voie électronique et identifiés en conséquence.

Chaque nouvelle avancée rend évidemment la détection plus complexe.

L’IA elle-même est mise à profit pour contrer les messages trompeurs. C’est technologie contre technologie.

Céline Castets-Renard, spécialiste de l’IA rattachée à l’Université d’Ottawa

M. Odaya pense que les réseaux sociaux devraient par ailleurs être appelés à revoir leurs algorithmes pour limiter la promotion de vidéos sensationnalistes ou choquantes, ce qui limiterait du même coup la circulation de messages chocs réalisés par l’IA.

À défaut de mettre en place plusieurs mesures de contrôle, il faut s’attendre à être « inondés d’images de synthèse », prévient M. Higgins, qui ne s’alarme pas pour sa part de l’impact de cette technologie sur le scrutin présidentiel américain.

« La population américaine est tellement divisée que j’ai du mal à imaginer que l’IA peut avoir une grosse incidence. Les croyances de nombreuses personnes sont figées, elles croient ce qu’elles veulent », note-t-il.

Avec la collaboration d’Alexandre Sirois, La Presse