Il y a tout près de deux ans, Google a promis de prendre les grands moyens pour venir à bout des climatosceptiques qui désinforment sciemment les utilisateurs de ses plateformes.

L’entreprise a décidé d’interdire les publicités avec les contenus qui « contredisent le consensus scientifique bien établi autour de l’existence et des causes du changement climatique ». Y compris sur sa populaire plateforme YouTube.

Le problème, c’est que c’était… une promesse d’ivrogne.

Un récent rapport – rédigé notamment par des organisations environnementales – signale que des publicités accompagnent encore des vidéos sur YouTube qui assimilent les changements climatiques à un canular.

En somme, le géant du numérique continue d’inciter ses usagers à produire du contenu visant à désinformer l’ensemble des utilisateurs de la plateforme. YouTube, ne l’oublions pas, partage les revenus des publicités avec les créateurs des vidéos qui y sont associées.

Et ces usagers, qui s’enrichissent avec ce contenu mensonger, peuvent même s’ils le souhaitent utiliser l’argent ainsi obtenu pour propager encore plus de fausses informations.

C’est scandaleux, mais en même temps, personne n’est tombé en bas de sa chaise en apprenant ça.

Parce qu’on sait depuis longtemps qu’on ne peut pas faire confiance aux géants du numérique pour s’autoréguler dans le but de limiter les tentatives de désinformation.

Leur modèle économique repose sur l’engagement des utilisateurs. Et au cœur du fonctionnement de ce qu’on appelle l’« économie de l’attention », on retrouve des contenus qui provoquent l’indignation, qui choquent, qui surprennent. Hélas, c’est très souvent le cas des fausses nouvelles.

C’est d’ailleurs la raison pour laquelle, sur ces plateformes, ces nouvelles se propagent plus rapidement que les vraies.

Ajoutez à ça que les géants du numérique, contrairement aux médias traditionnels, ne font pas de l’intérêt public leur priorité, et vous obtenez la situation qui règne actuellement. Et qui perturbe le bon fonctionnement de nos démocraties libérales.

Notez par ailleurs qu’on n’a peut-être encore rien vu !

Les récents développements en intelligence artificielle sont renversants. Ils offrent de nombreux avantages. Mais le côté obscur de cette révolution ne doit pas être occulté. Parmi les dommages collatéraux, on se rend déjà compte qu’il est de plus en plus difficile de départager le vrai du faux.

Le robot conversationnel ChatGPT, par exemple, raconte souvent n’importe quoi de façon péremptoire. Il répond toujours à nos questions comme s’il nous disait la vérité… même lorsqu’il fabule.

La bonne nouvelle, c’est que plusieurs gouvernements en ont assez des ravages de la désinformation et cherchent activement des solutions.

À Ottawa, on est en train d’élaborer un projet de loi sur la sécurité en ligne (on parlait en 2021 de « haine en ligne » lorsqu’une première consultation publique a été lancée au sujet de cette législation, mais on a élargi l’angle d’approche).

On a formé l’an dernier un groupe consultatif d’experts sur la question et l’une de leurs séances portait sur la désinformation. C’est bon signe.

Le projet de loi devrait être rendu public sous peu. Il faut espérer qu’il fournira des pistes pour lutter contre la désinformation. La plupart des experts consultés par le gouvernement fédéral le souhaitent, d’ailleurs.

« Compte tenu de la gravité et de l’urgence des dommages causés par la désinformation, les experts ont fait valoir que la législation sur la sécurité en ligne devait prendre en compte la désinformation dans une certaine mesure », lit-on dans le résumé de la rencontre du groupe, coprésidé par le professeur Pierre Trudel, du Centre de recherche en droit public de l’Université de Montréal.

« Ces experts ont fait valoir qu’en n’incluant pas la désinformation dans l’approche, le gouvernement indiquerait qu’elle est moins importante que d’autres préjudices – une notion avec laquelle les experts sont largement en désaccord », a-t-on précisé.

Ils ont toutefois signalé, avec raison, que l’exercice serait délicat.

La même mise en garde a été lancée en France l’an dernier par la commission présidée par le sociologue Gérald Bronner, spécialiste du complotisme.

Si les élus à Ottawa légifèrent pour tenter de limiter la désinformation – et nous estimons qu’il est urgent de le faire –, ils devront être prudents.

Il faut trouver un moyen de mieux encadrer les géants du web, mais il importe de prendre conscience des risques que ça peut poser pour certains droits fondamentaux, à commencer par la liberté d’expression. Le gouvernement ne doit pas, par exemple, tenter de « décider de ce qui est vrai ou faux en ligne », comme l’ont fait remarquer les experts canadiens.

En revanche, ces risques peuvent être mitigés. Alors que les dangers pour la démocratie qui découleraient du statu quo, eux, ne sont pas en voie de se résorber. Dans le contexte actuel, ils risquent fort, si nos élus n’agissent pas rapidement, de s’intensifier.

Découvrez l’avis du groupe d’experts sur la sécurité en ligne Découvrez le rapport français Les lumières à l’ère numérique