Le métier, les médias, la salle de rédaction de La Presse, et vous.

En octobre dernier, dans cette rubrique, je m’étais solennellement engagé au nom de La Presse à ne jamais publier d’images générées par l’intelligence artificielle sans que ce soit clairement indiqué qu’elles ont été produites par une machine1.

Il aura fallu à peine quatre mois pour qu’un lecteur m’interpelle durement par courriel, en m’envoyant en pièce jointe une image issue de l’IA qui, selon lui, s’était retrouvée dans La Presse sans mention.

« Cette utilisation me semble inacceptable, particulièrement dans un journal réputé comme le vôtre, dont je défends sans cesse les qualités auprès de ceux qui perdent confiance dans les médias traditionnels », m’a écrit François Dugas.

Et pour bien enfoncer le doigt sur le bobo, il me faisait remarquer que l’image générée par l’IA avait été publiée dans l’édition du dimanche 4 février, dans laquelle on publiait un gros dossier sur… les dangers de l’IA2 !

J’aimerais bien, chers lecteurs, me servir de ce courriel pour vous prouver que nos lignes directrices3 sont aussi solides que notre filet de sécurité et que le lecteur se trompait.

Hélas. Il avait raison. Et on a aussitôt corrigé l’erreur.

Laissez-moi vous expliquer, car voilà où réside le péril de l’IA aujourd’hui : dans son évolution ultrarapide. Une évolution qui nous force à courir derrière un TGV pour essayer de le rattraper.

Est-ce qu’à notre tour nous avons publié par mégarde l’image d’une personne à trois jambes ? Est-ce qu’on s’est fait berner par une fausse photo quasi identique à une vraie photo ?

Pas vraiment. C’est plus compliqué que ça… et ça le sera, justement, de plus en plus !

L’image que nous avons publiée dans la rubrique Science est celle-ci :

IMAGE GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE

Illustration générée par l’IA représentant le forage prévu à Krafla, en Islande

Elle visait à illustrer le forage prévu à Krafla, en Islande, dans le cadre d’un programme de recherche en géologie4.

Je vous épargne le malentendu qui a permis au dessin – qui a depuis été retiré en raison de l’erreur – de se retrouver dans La Presse. L’important, c’est que la mention de source (le « crédit photo ») ne précisait pas l’auteur de l’image, qui était donc l’IA.

On ne le savait pas, mea culpa.

L’histoire m’a tout de suite fait penser à celle de Samuel Larochelle, un collaborateur de La Presse, qui a signé un livre arborant une couverture générée par l’IA il y a quelques mois, dont on vous a récemment parlé5.

Lui non plus ne savait pas, de la même manière que les Éditions Druide ne le savaient pas. Le dessin, par ailleurs magnifique, avait simplement été acheté dans une banque d’images, sans regard sur les détails s’y rattachant.

Voilà des cas plus complexes que les images dont on a beaucoup parlé ces derniers mois : le pape en doudoune blanche, Donald Trump qui se débat en état d’arrestation, Taylor Swift dans des tenues et des positions sexuellement explicites.

Des cas relativement simples, car il suffit de se demander si c’est une vraie photo, oui ou non ? Dans ces trois cas, la réponse est non. Point.

Mais derrière, il y a tout un monde beaucoup plus compliqué. Les images, comme celles que nous avons prises pour l’illustration d’un artiste ou d’un graphiste. Les illustrations achetées dans des banques d’images. Les photos retouchées qu’on nous fournit sans mention du filtre utilisé.

Et plus compliqué encore : les images manipulées par l’IA… en partie seulement. Depuis notre erreur, notre journaliste Mathieu Perreault a fouillé un peu la chose pour découvrir que certaines images de la NASA et de l’ESA sont parfois expurgées de nuages grâce à l’IA. On lui a aussi parlé de dessins astronomiques réalisés par des artistes (une sonde passant près d’un astéroïde, par exemple) dotés d’un fond étoilé, qui lui est généré par l’IA. Ou encore des outils qui permettent à l’IA de « traiter et de nettoyer les images satellites », lesquelles sont parfois envoyées aux médias. Sans mention d’IA.

Les questions sont donc nombreuses.

Comment s’assurer de l’authenticité de la totalité d’une image, d’une photo, d’un dessin ?

À partir de quand est-ce « une image générée par l’IA » ?

Où trace-t-on la ligne entre un ajustement de type Photoshop et l’IA ?

Et quand s’agit-il simplement de retouches ou de traitement dont on peut taire l’origine robotique sans qu’il y ait faute éthique ?

Autrement dit, quand est-ce que c’est « mal » ?

Est-ce que les ajouts faits par une machine doivent tous être signalés ? Même les filtres ? Même les outils visant à « traiter, nettoyer et homogénéiser » les images satellites ?

Autant de questions qu’on se pose, dans la salle de rédaction de La Presse, au fur et à mesure qu’évoluent l’IA et ses outils. Ou à tout le moins, en essayant de suivre l’évolution ultrarapide de ses outils !

Des outils qui existaient avant (les retouches Photoshop dans le monde de la mode), mais qui sont aujourd’hui tellement accessibles, et tellement rapides d’exécution qu’on réalise que n’importe qui peut le faire n’importe quand.

Dernier en date qui circule beaucoup sur les réseaux : les photos de style portrait d’affaires générées par l’IA. Vous savez, ces photos de profil du bureau qu’on utilise sur LinkedIn : vous pouvez aujourd’hui les générer artificiellement en envoyant quelques photos réelles de vous à une machine.

Je vous prédis qu’on tentera bientôt de nous en acheminer à La Presse, sans nous avertir du procédé bien sûr. Et après, ce sera des vidéos, comme celles que Sora, le nouvel outil d’OpenAI, est capable de générer en quelques secondes6.

On sera vigilants, et on redoublera même de vigilance, dans le contexte.

Je termine d’ailleurs mon texte comme je le faisais en octobre dernier : l’important est de distinguer clairement le vrai du faux, en tout temps. Une tâche qui a toujours fait partie du devoir du journaliste, mais qui deviendra encore plus importante avec le temps. Et qui deviendra, surtout, beaucoup plus complexe.

1. Lisez le calepin de l’éditeur adjoint « IA : comment distinguer le vrai du… robot ? » 2. Lisez notre dossier sur les dangers de l’IA 3. Consultez nos lignes directrices 4. Lisez le texte sur le forage de Krafla 5. Lisez l’histoire de Samuel Larochelle 6. Voyez une vidéo produite par l’outil Sora d’OpenAI Écrivez à François Cardinal