Le métier, les médias, la salle de rédaction de La Presse, et vous

On aura peut-être un jour des logos et des certifications « sans IA », comme il y a des étiquettes « pas de sucre » ou « pas d’OGM ».

Mais en attendant, la plus grande vigilance est de mise avec l’intelligence artificielle, une technologie qui nous bouscule à un rythme troublant, qui pose d’innombrables enjeux éthiques, et qui brouille encore plus les lignes démarquant le vrai du faux.

C’est pour toutes ces raisons, et bien d’autres, que le gouvernement Trudeau invite ces jours-ci les entreprises technologiques à signer un « code de conduite volontaire » qui encadre les systèmes d’IA générative avancés.

Et c’est pourquoi nous avons travaillé fort ces derniers mois, de concert avec notre service juridique, pour élaborer nos propres lignes directrices sur l’intelligence artificielle* visant, là aussi, à encadrer l’utilisation de ces puissants outils technologiques avec une seule chose en tête : s’assurer que vous, les lecteurs, n’ayez jamais aucun doute quant à l’authenticité des textes, photos et images publiés dans La Presse.

Vous avez peut-être vu passer sur les réseaux sociaux cette image du pape en doudoune blanche en pensant qu’elle était vraie (je plaide coupable !). Ou encore, celle d’Emmanuel Macron en éboueur, ou celle de Donald Trump qui se débat en pleine arrestation violente (cinq mois avant qu’il se rende aux autorités).

  • Image générée du pape François en doudoune

    IMAGE GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE, TIRÉE DE TWITTER

    Image générée du pape François en doudoune

  • Image générée du président français Emmanuel Macron en éboueur

    IMAGE GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE, TIRÉE DE TWITTER

    Image générée du président français Emmanuel Macron en éboueur

  • Image générée de Donald Trump en état d’arrestation

    IMAGE GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE, TIRÉE DE TWITTER

    Image générée de Donald Trump en état d’arrestation

1/3
  •  
  •  
  •  

Déjà, la confusion s’installe entre le vrai et le robot ! Et ce ne sont que les débuts de ce qu’on appelle l’IA générative, soit l’intelligence artificielle qui produit du contenu. Ça peut être du texte, des photos, de la voix, voire de la chanson ou de la vidéo, comme cette fausse performance de Drake et The Weeknd.

0:00
 
0:00
 

Donc, imaginez un monde dans lequel vous consultez un média… sans toujours savoir si ce que vous lisez a été écrit par un humain ou une machine, sans savoir si la photo que vous regardez représente une scène qui a bel et bien existé.

Impensable.

Ou du moins, nous pensons que ça doit demeurer impensable.

Et c’est pourquoi nous avons rédigé des lignes directrices que l’on pourrait qualifier de sévères à l’usage de nos journalistes.

En un mot, sauf autorisation contraire, il est carrément « interdit d’utiliser des outils externes d’IA générative afin de produire des textes, photos, vidéos ou images destinés à publication ».

Dans ce cas, si ce n’est pas permis, pourquoi avoir élaboré cinq pages de lignes directrices ? Parce qu’il y a toutes sortes de cas de figure où l’IA peut être utile aux journalistes, sans que ce soit pour générer du contenu destiné à la publication.

Il y a la recherche, par exemple : les géants cherchent à fondre leur moteur de recherche et leurs outils d’IA. Un reporter pourrait donc demander à la dernière version de Bing, par exemple, quelle date marque le début de François Legault en politique (réponse : « Il a commencé sa carrière politique le 23 septembre 1998 »). Suffit ensuite de contre-vérifier l’information, ce qu’imposent d’ailleurs nos lignes directrices.

Il y a l’automatisation : l’IA permet la traduction et la transcription d’entrevues, ce que nous permettons. Là encore, il est impératif que le journaliste en vérifie l’exactitude, en relisant soigneusement le texte original et la traduction réalisée par l’outil en ligne Deepl, par exemple.

Notre règle d’or : « L’IA doit être employée comme un outil au service des journalistes et non comme un moyen de se substituer à eux. »

Nous interdisons par exemple aux journalistes de recourir à l’IA pour résumer de gros documents, car ce serait demander au robot de faire le travail à leur place. Un travail qui serait forcément imparfait, car la machine, tout aussi intelligente soit-elle, n’aurait pas le jugement journalistique nécessaire pour capter toutes les portions importantes d’un document.

J’en veux pour preuve la nouvelle publiée en juillet dernier par Louis-Samuel Perron sur cette femme agressée sexuellement, puis refusée par l’Hôpital général de Montréal parce qu’elle parle français.

Lisez l’article de Louis-Samuel Perron

L’histoire se trouvait à l’intérieur d’un jugement de neuf pages qui ne portait pas sur ce sujet, mais sur l’agression sexuelle comme telle.

Un résumé généré par l’IA aurait simplement indiqué que Martin Jolicœur était condamné à 18 mois de prison pour avoir agressé sexuellement son amie en juillet 2020, sans s’attarder à l’angle troublant de l’admission à l’hôpital de la victime.

Dernier point d’importance : la transparence.

Si, dans certaines circonstances bien précises, on teste l’IA ou on y a recours pour créer du contenu destiné à la publication dans La Presse, cela doit non seulement être autorisé par la direction de l’information, cela doit surtout être clairement indiqué pour évacuer tout doute (comme pour les photos qui illustrent cet article).

Nous avons par exemple permis en mars dernier au journaliste Charles-Éric Blais-Poulin d’utiliser ChatGPT afin de lui demander « une liste de journalistes qui ont été visés par des allégations d’inconduite sexuelle ». Le but était bien sûr de démontrer le manque de fiabilité de la machine, qui a bel et bien généré la liste demandée, mais en y intégrant des confrères qui n’avaient jamais été visés par quelque allégation que ce soit !

Lisez l’enquête de Charles-Éric Blais-Poulin

Autre exemple : on a permis le printemps dernier à la journaliste Katia Gagnon de se servir de ChatGPT pour rédiger l’histoire d’un chien qui sauve une famille d’une maison en flammes « en utilisant le style d’écriture de Katia Gagnon ».

L’objectif, clairement indiqué, était de documenter la facilité avec laquelle on peut créer de toutes pièces une histoire crédible, appuyée par des photos, dans le but de démontrer les risques de désinformation en ligne.

Le texte actuellement sur le web est ainsi précédé d’un paragraphe indiquant que ce récit a été généré par l’intelligence artificielle. Et les photos portent la mention « IMAGE GÉNÉRÉE PAR L’INTELIGENCE ARTIFICIELLE ».

Lisez le récit généré par l’intelligence artificielle

Car encore là, l’important est de distinguer clairement, en tout temps, le vrai du faux. Une tâche qui a toujours fait partie du devoir du journaliste, mais qui deviendra encore plus importante, au fur et à mesure que les outils d’IA se développeront.

En fait, le rôle des professionnels de l’information deviendra de plus en plus celui d’« authentificateur de la vérité ».

*Lisez les lignes directrices de La Presse