Ils rythment nos vies de façon implicite, nous influencent et façonnent notre jugement pour le meilleur comme pour le pire. Face à une main invisible que nous ne contrôlons pas, ils nous mènent vers des chemins que nous n’aurions pas empruntés autrement. Comme consommateurs quotidiens d’applications en ligne ou mobiles, nous devrions peut-être prendre collectivement un pas de recul. 

Stéphane Ricoul
Stéphane Ricoul Directeur marketing et partenariats, Talsom

À bien y réfléchir, les Facebook, Instagram, TikTok, YouTube et autres sont devenus, avec les années, des biens de grande consommation pour tout citoyen, quel que soit son statut social, et peu importe son emplacement dans le monde. Notre temps, que ces applications accaparent sans retenue et avec un appétit sans cesse croissant, fait grossir impunément la profitabilité des entreprises qui les possèdent. La logique étant que plus vous y passez de temps, plus vous leur fournissez de l’information quant à vos comportements de consommateur. Avec cette information, ils créent de la valeur – pour eux – par le truchement des fameux algorithmes, leur permettant ainsi d’aller chercher encore plus de consommateurs et de ne pas vous perdre de surcroît. Pour eux, la boucle est bouclée et devient infinie.

Dans la réalité, un algorithme est une suite logique de règles de calculs, œuvrant avec une certaine logique, afin de résoudre un problème donné. En bref, ce sont des mathématiques.

L’algorithme permet de prédire le « quoi », c’est-à-dire nos comportements, et, un jour, il sera en mesure de prédire le « pourquoi », c’est-à-dire les raisons qui motivent nos comportements.

Quand on sait qu’en une seule petite minute sur l’internet, nous consommons mondialement 500 heures de contenu sur YouTube, envoyons 69 millions de messages sur WhatsApp ou Messenger, partageons 695 000 stories sur Instagram ou téléchargeons 5000 vidéos sur TikTok, on comprend que nous offrons sur un plateau d’argent nos comportements à des entreprises privées qui n’ont comme unique souci que de remplir leurs poches déjà profondes.

Il n’y a pas forcément de mal à cela, car nous sommes tous conscients que « quand c’est gratuit, c’est que nous sommes le produit ». Cependant, les chemins que les algorithmes prennent pour nous faire consommer toujours plus sont, quant à eux, d’une grande opacité. Et c’est ici que le bât blesse.

Ce manque de transparence des algorithmes nous oblige, en tant que citoyens responsables, à nous poser des questions quant à l’éthique – ou l’absence d’éthique – qui mène à la valorisation de nos données de consommation. Plus souvent qu’à l’habitude, un algorithme va vouloir vous « pousser » l’information que vous aimez naturellement. Il va vouloir vous conforter dans vos choix et vos positions, en alimentant les conversations qui vont dans le même sens que vos opinions, afin que votre pensée critique se développe le moins possible et qu’aucune remise en question ne soit envisageable.

À l’image des 70 % de vidéos qui sont vues sur YouTube alors qu’elles n’ont même pas été spécifiquement recherchées par la personne qui les visionne, on comprend que nous faisons face à un effet déformant de notre société, qui nous donne une perception de perfection, et nous enferme dans une « bulle » confortable.

Cette bulle dite de filtrage ou chambre d’écho créée par les algorithmes, on la retrouve dans les réseaux sociaux et dans les applications présentes dans nos téléphones intelligents. Elle vient en opposition à l’information, la vraie, celle qui est réfléchie, documentée et vérifiée, à l’opposé du complot ou de la fausse nouvelle relevant du premier venu qui aurait envie de s’exprimer. Avec le temps, elle crée des visions clivantes au sein de « groupes », générant un effet d’entraînement qui, bien souvent, vient avec son lot de haine que les réseaux sociaux ignorent aujourd’hui ; un niveau d’hypocrisie déconcertant et à la hauteur de leur laisser-aller total.

Cela dit, même si ce n’est pas aux réseaux sociaux de décider unilatéralement de supprimer le compte d’une personne incitant à la haine – on peut penser aux 6,3 millions de contenus liés au harcèlement, à l’intimidation, à la violence et autre exploitation sexuelle des enfants, des contenus que les algorithmes refusent de combattre –, le projet de loi fédéral qui a été déposé pour faire respecter la loi en ce qui concerne ce genre d’activités illégales, et ainsi contrer la diffusion non seulement du contenu haineux, mais aussi du contenu sans consentement, a toute sa place.

Notre société numérique fait face aujourd’hui aux biais que les algorithmes ont développés, et aux plateformes qui s’en font les porte-voix. D’une matière grise (l’intelligence) qu’ils maîtrisent parfaitement, les algorithmes n’ont toujours pas développé leur matière blanche (le jugement) à l’image du cerveau humain. De l’adolescence à l’âge adulte, il existe un pas qu’ils ne souhaitent pas franchir. C’est à nous, consommateurs de temps d’écran, que revient la responsabilité de comprendre la portée de chacun de nos clics, aussi plaisants et confortables soient-ils.