(New York) Comme l’avaient anticipé de nombreux observateurs, des messages fallacieux et des appels à la violence pullulent sur les grandes plateformes numériques depuis l’élection présidentielle américaine. Pour y faire face, les méthodes de Facebook, Twitter et YouTube diffèrent.

Facebook et Twitter ont été prompts à apposer des avertissements ou à supprimer des publications mensongères, notamment les affirmations sans preuve du président Donald Trump et de ses partisans selon lesquelles des fraudes à grande échelle avaient lieu dans les États clés.

Les fils d’actualité du milliardaire républicain sur les deux réseaux sociaux sont désormais parsemés de vignettes mettant en garde sur la véracité des contenus.

SAISIE D’ÉCRAN DU COMPTE TWITTER DE DONALD TRUMP

Twitter a marqué plusieurs tweets de Donald Trump comme potentiellement trompeurs.

Twitter et Facebook ont une stratégie

Selon Daniel Kreiss, chercheur au Centre pour l’information, la technologie et la vie publique de l’Université de Caroline du Nord, « Facebook et Twitter avaient une stratégie claire pour surveiller certains comptes » et s’étaient préparés à sévir à la moindre infraction.

Ce qui n’a pas été le cas de YouTube, note l’universitaire.

Media Matters, un groupe de surveillance des médias, a établi une liste de vidéos trompeuses ayant circulé sur la plateforme vidéo de Google. Elles ont été visionnées plus d’un million de fois au total cette semaine et certaines d’entre elles sont toujours en ligne.  

Les vidéos YouTube encourageant la désinformation sur les résultats de l’élection présidentielle de 2020 ont enregistré un nombre élevé de vues malgré la politique de la plateforme interdisant les contenus qui visent à tromper les gens sur le processus électoral

Alex Kaplan, sur le blogue de Media Matters.

L’analyste cite notamment de fausses allégations de l’animateur conservateur Steven Crowder ou de la télévision d’extrême droite One America News Network (OANN).  

Incitation au meurtre du Dr Fauci

YouTube n’a cependant pas entièrement chômé, retirant certains contenus problématiques, dont un épisode de la chaîne de Steve Bannon, dans lequel cet ex-conseiller de Donald Trump appelait à mettre sur des pics les têtes du docteur Anthony Fauci, spécialiste des maladies infectieuses, et du patron du FBI Christopher Wray.

« Nous avons ôté cette vidéo qui allait à l’encontre de nos règles contre l’incitation à la violence. Nous continuerons d’être vigilants en appliquant nos politiques pendant la période postélectorale », a assuré Alex Joseph, un porte-parole de YouTube.

Twitter est toutefois allé plus loin en supprimant définitivement le compte de l’émission de M. Bannon.

De manière générale, YouTube ne semble pas faire preuve de la même sévérité ni de la même réactivité que les principaux réseaux sociaux dans ses efforts de modération.  

Cette différence tient peut-être à la nature des contenus qui y sont publiés.

« Le problème avec les vidéos, en particulier les vidéos en direct, est qu’il est difficile pour l’intelligence artificielle (IA) de détecter un problème », note Adam Chiara, professeur de communication à l’université de Hartford.

« Pour le texte ou les photos, l’IA peut chercher des mots-clés ou dupliquer des images. Ce n’est pas aussi simple avec la vidéo », ajoute le spécialiste.

Cela pourrait expliquer pourquoi d’autres plateformes de partage de vidéos ont été inondées par des tentatives de désinformation.

Media Matters a notamment identifié plusieurs vidéos diffusées sur l’application prisée des jeunes TikTok par des sympathisants du mouvement conspirationniste QAnon, qui élaboraient une sombre théorie du complot autour de prétendus faux bulletins de vote déposés par les démocrates.

Après avoir été visionnées plus de 237 000 fois, ces vidéos ont été supprimées.  

Mais pour M. Kreiss, YouTube aurait quand même pu agir différemment.  

« Toute mise en œuvre de règles sérieuses devrait commencer par les comptes politiques institutionnels », juge le spécialiste. « Il faut commencer par le haut du panier. Je pense qu’il faudrait que les règles s’appliquent pour le président et pour d’autres représentants des élites qui cherchent à saper la crédibilité des élections ».

Du côté de Facebook et Twitter, la vigilance devrait rester de mise dans les prochains jours, d’autant plus que Donald Trump continue de prop ger des rumeurs sur  n vol supposé de l’élection et ne se ble pas prêt de concéder son éventuelle défaite.

Carl Tobias, professeur de droit à l’université de Richmond, s’est dit « modérément optimiste » sur le fait que les deux groupes « apprennent de leurs faux pas ou des nouvelles “combines” des hommes politiques  t qu’ils continuent à protéger leurs plateformes face à la désinformation, les mensonges, l’incitation à la violence et d’autres actions nuisibles à la tenue d’élections libres et à la démocratie. »