Un groupe du MIT a lancé un outil permettant aux utilisateurs de mieux sélectionner le contenu bloqué par les réseaux sociaux.

Le déroulement de l'élection présidentielle américaine de 2016 a alimenté aux États-Unis de vives interrogations relativement au rôle des médias sociaux, qui doivent aujourd'hui rendre des comptes sur la manière dont ils filtrent l'information.

Facebook et d'autres entreprises de la Silicon Valley se voient accuseés d'isoler leurs utilisateurs dans des bulles idéologiques en leur soumettant du contenu susceptible de conforter leurs convictions, plutôt que de les ouvrir à d'autres points de vue.

Alors que le débat continue de faire rage à ce sujet au sud de la frontière, un groupe de chercheurs du Massachusetts Institute of Technology (MIT) vient de lancer un nouvel outil qui a pour objectif de permettre aux utilisateurs de définir eux-mêmes la manière dont le filtrage doit s'exercer.

L'un des instigateurs du projet, Ethan Zuckerman, relève en entrevue que les filtres imposés actuellement par les réseaux sociaux ne sont pas publics et ne permettent pas de savoir ce qui est bloqué, encore moins pourquoi.

« Notre but est de favoriser une conversation constructive à ce sujet. Ne devrait-on pas, à titre d'utilisateurs des médiaux sociaux, avoir quelque chose à dire sur le filtrage ? Et comment peut-on être entendus à ce sujet ? » - Ethan Zuckerman, chercheur au MIT

Afin de faire avancer la discussion, son groupe a créé Gobo, agrégateur de contenu de réseaux sociaux qui permet à son utilisateur de définir lui-même le contenu à privilégier.

En liant ses comptes Facebook et Twitter à l'agrégateur, il se voit offrir la possibilité d'ajuster différents filtres pour moduler le contenu qui apparaît dans son fil de nouvelles.

Il est notamment possible pour un utilisateur de Gobo de préciser s'il souhaite des nouvelles reflétant son idéologie politique ou s'il souhaite que le spectre couvert soit sensiblement plus large de manière à le mettre devant des points de vue plus diversifiés. Pour l'heure, la position idéologique de l'utilisateur est évaluée sommairement en lui demandant quels sont ses médias américains de référence.

D'autres filtres sont aussi offerts. L'utilisateur peut choisir d'augmenter le contenu provenant de femmes, favoriser le contenu qui se diffuse de manière virale ou encore exclure du contenu violent imputable à l'action de trolls.

On peut savoir chaque fois combien d'éléments ont été bloqués en fonction des paramètres retenus et les consulter au besoin.

RÉSULTATS MITIGÉS

Pour l'heure, reconnaît M. Zuckerman, le résultat est loin d'être concluant. Gobo ne peut notamment accéder au contenu Facebook des amis de l'utilisateur et puise une bonne part de son contenu dans les pages officielles de médias sur le réseau social.

Dans l'essai fait par La Presse, le contenu affiché provenait presque exclusivement de médias. Et certains filtres n'avaient aucun effet apparent sur le contenu retenu.

« Pour l'instant, il s'agit plus d'un prototype pour provoquer la discussion qu'un véritable produit », reconnaît M. Zuckerman, qui se félicite de voir que des milliers de personnes ont tout de même tenté l'expérience depuis son lancement, il y a une semaine.

Le chercheur serait ravi que les opérateurs des réseaux sociaux décident d'offrir eux-mêmes à leurs utilisateurs la possibilité de paramétrer le filtrage du contenu.

« La priorité de Facebook, par exemple, est de maximiser le temps passé sur le site. Ils tendent, pour ce faire, à favoriser le contenu d'utilisateurs avec qui vous avez interagi par le passé. » - Ethan Zuckerman, chercheur au MIT

 M. Zuckerman s'inquiète de l'impact social de cette approche.

« Je ne pense pas qu'ils ont beaucoup réfléchi par le passé à ce qui arrive lorsqu'on fait en sorte que des gens passent la majorité de leur temps avec des gens qui pensent comme eux », relève le chercheur, qui ne perd pas espoir d'attirer l'attention des géants de la Silicon Valley.

« Facebook est étonnamment nerveux au sujet de l'image que les gens ont de Facebook. Ils savent que sa valeur dépend du fait que les gens continuent de l'utiliser », relève le chercheur, qui s'est récemment fait demander en ligne par l'entreprise s'il pense qu'elle « joue un rôle positif dans le monde ».

« J'ai répondu que j'étais en désaccord » avec cette affirmation, relate-t-il.