Il est bien connu que les médias sociaux amplifient les fausses informations et autres contenus nuisibles. L’Integrity Institute, groupe de défense des intérêts, essaie maintenant d’établir exactement dans quelle mesure — et jeudi, il a commencé à publier des résultats qu’il prévoit de mettre à jour chaque semaine jusqu’aux élections de mi-mandat du 8 novembre.

Le rapport initial de l’institut, mis en ligne, a révélé qu’un « mensonge bien ficelé » suscite plus d’engagements qu’un contenu véridique typique et que certaines caractéristiques des sites de médias sociaux et de leurs algorithmes contribuent à la diffusion de la désinformation.

L’analyse a montré que Twitter possède ce que l’institut appelle le plus grand facteur d’amplification de la désinformation, en grande partie en raison de sa fonction permettant aux gens de partager, ou « retweeter », des messages facilement. Il est suivi par TikTok, le site vidéo appartenant à la Chine, qui utilise des modèles d’apprentissage automatique pour prédire l’engagement et faire des recommandations aux utilisateurs.

« Nous constatons une différence pour chaque plateforme parce que chacune d’elles dispose de mécanismes différents pour la viralité », a déclaré Jeff Allen, ancien responsable de l’intégrité chez Facebook, fondateur et directeur de la recherche de l’Integrity Institute.

Plus il y a de mécanismes de viralité sur la plateforme, plus nous voyons que les fausses informations obtiennent une distribution accrue.

Jeff Allen, fondateur et directeur de la recherche de l’Integrity Institute

L’institut a calculé ses résultats en comparant les messages que les membres du réseau international de vérification des faits ont identifiés comme faux avec l’engagement des messages précédents qui n’ont pas été signalés par les mêmes comptes. Il a analysé près de 600 messages vérifiés en septembre sur divers sujets, dont la pandémie de COVID-19, la guerre en Ukraine et les prochaines élections.

D’après l’échantillon étudié par l’institut, c’est sur Facebook que l’on trouve le plus de cas de désinformation, mais l’amplification de ces affirmations est moindre, en partie parce que relayer des billets ou des messages nécessite davantage d’étapes.

Toutefois, l’institut a constaté que certaines de ses nouvelles fonctionnalités étaient plus susceptibles d’amplifier les fausses informations.

Le facteur d’amplification de Facebook pour le contenu vidéo seul est plus proche de celui de TikTok, selon l’institut.

Cela s’explique par le fait que les Reels et Facebook Watch de la plateforme, qui sont des fonctionnalités vidéo, « s’appuient tous deux fortement sur des recommandations algorithmiques de contenu » basées sur les engagements, selon les calculs de l’institut.

Instagram, qui comme Facebook est détenu par Meta, avait le taux d’amplification le plus faible. Il n’y avait pas encore suffisamment de données pour faire une estimation statistiquement significative pour YouTube, selon l’institut.

L’institut prévoit de mettre à jour ses conclusions pour suivre les fluctuations de l’amplification, notamment à l’approche des élections de mi-mandat. Selon le rapport de l’institut, les fausses informations sont beaucoup plus susceptibles d’être partagées que les contenus purement factuels.

« L’amplification de la désinformation peut augmenter autour d’évènements critiques si les récits de désinformation s’installent », indique le rapport. « Elle peut également diminuer, si les plateformes mettent en œuvre des changements de conception autour de l’évènement qui réduisent la diffusion de la désinformation. »

Cet article a été initialement publié dans The New York Times.

Consultez l’article original (en anglais)