(Washington) Le conseil de surveillance de Facebook juge « vague » la politique de modération des contenus de la plateforme et a annulé quatre décisions du réseau social de supprimer des publications sur cinq cas examinés, estimant ces choix problématiques.

L’une des annulations porte sur une publication en France que la société estimait présenter « un risque imminent de danger physique », selon un communiqué daté de jeudi.

Encore l’hydroxychloroquine

Ce message d’octobre 2020 était une vidéo et un texte d’accompagnement en français dans un groupe Facebook consacré à la COVID-19. La publication faisait état d’un prétendu scandale à l’Agence nationale du médicament, le régulateur du secteur de la santé, qui avait refusé d’autoriser l’utilisation de l’hydroxychloroquine contre la COVID-19.

L’utilisateur critiquait l’absence de stratégie sanitaire en France et jugeait que l’hydroxychloroquine pouvait sauver des vies

Le conseil, dont la mission est d’évaluer des décisions de la plateforme sur certains contenus controversés, a demandé à Facebook de restaurer ce message, jugeant que le règlement du site sur la désinformation et le danger physique imminent étaient « indûment vagues ».

Les cas examinés sont des publications supprimées en octobre et novembre dans quatre continents — Europe, Amérique du Nord, Asie et Amérique du Sud — par Facebook. Le conseil, qui a commencé son travail en décembre, s’est saisi de six premiers cas au total.

Citation nazie par un Américain

Ils portent sur des contenus ayant enfreint les règles du réseau sur les discours de haine, les organisations dangereuses ou encore la nudité. Outre la France, ces exemples concernent les tensions politiques en Birmanie, le conflit entre l’Azerbaïdjan et l’Arménie ou encore une citation d’un dirigeant nazi par un utilisateur de Facebook aux États-Unis.

Dans l’un des cas, le conseil de surveillance dit s’être « interrogé sur la question suivante : le réseau social avait-il le droit de retirer une publication contenant une injure haineuse dans le cadre d’un « conflit armé » ?

 « Dans plusieurs cas, les membres se sont demandé si le règlement de Facebook était suffisamment clair », ajoute le « conseil des sages », qui a émis plusieurs recommandations, demandant notamment au groupe de Mark Zuckerberg d’être plus transparent sur la façon dont il modère la désinformation.

Facebook doit se conformer aux décisions de cette instance.

La « Cour suprême » de Facebook

Le projet d’une sorte de « Cour suprême », ayant le dernier mot sur les contenus controversés sur Facebook et Instagram, avait été annoncé fin 2019 par M. Zuckerberg. Le patron du groupe californien essuie, depuis des années, critiques et enquêtes sur sa politique de modération, souvent considérée comme trop laxiste.

La plateforme se voit reprocher son manque de réactivité contre certains appels à la violence, liés par exemple aux massacres de Rohingya en Birmanie en 2017 ou au récent meurtre du professeur Samuel Paty en France.