(San Francisco) Le conseil de surveillance de Meta a reproché mardi aux plateformes du géant des réseaux sociaux d’accorder un traitement de faveur aux contenus problématiques publiés par des politiques, des patrons, des célébrités et d’autres personnalités.

« Le conseil est préoccupé par la façon dont Meta a fait passer ses intérêts économiques avant la modération des contenus », a assené l’entité qualifiée d’indépendante, mais financée par l’entreprise.

Dans son rapport, elle appelle à une « refonte significative » du programme de double vérification baptisé « cross-check », pour le rendre plus transparent, plus réactif et plus juste.

Actuellement, quand des messages ou images potentiellement en infraction avec le règlement de Facebook ou d’Instagram sont signalés, ils sont rapidement retirés s’ils sont considérés comme à haut risque et s’ils viennent d’utilisateurs non connus.

Mais si leur auteur est présent sur la « liste blanche », ces contenus restent en ligne le temps d’être examinés de plus près - un processus qui prend en général plusieurs jours, et parfois plusieurs mois.

Ce système à double vitesse, « inéquitable » a donc « offert des protections supplémentaires à l’expression de certains utilisateurs, sélectionnés en partie en fonction des intérêts économiques de Meta », détaille le rapport.

À cause de « cross-check », « des contenus identifiés comme contraires aux règles de Meta restent visibles sur Facebook et Instagram, alors qu’ils se diffusent de façon virale et qu’ils pourraient causer des dommages », admoneste le conseil de surveillance.

Il recommande d’accélérer les examens secondaires des contenus de personnalités susceptibles de publier des messages importants pour les droits humains, et de retirer ceux à haut risque en attendant le verdict interne.

Il demande aussi à l’entreprise de publier les critères d’éligibilité pour bénéficier du programme, et d’identifier publiquement, sur les plateformes, les comptes des utilisateurs concernés.

« Nous avons créé le système de double vérification pour éviter des décisions potentiellement trop sévères (lorsque nous prenons des mesures sur un contenu ou des comptes qui n’enfreignent en réalité pas nos politiques) et revérifier les cas où il pourrait y avoir un risque plus élevé d’erreur ou lorsque l’impact potentiel d’une erreur est particulièrement grave », a réagi dans un communiqué Nick Clegg, le responsable des affaires internationales de Meta. Le groupe s’est également engagé à apporter une réponse plus fournie aux recommandations du conseil de surveillance sous les 90 jours.

Cette entité est composée de 20 membres internationaux, journalistes, avocats, défenseurs des droits humains et anciens dirigeants politiques. Elle a été créée en 2020 sur proposition du patron Mark Zuckerberg et est chargée d’évaluer la politique de modération des contenus du groupe californien.

Les membres ont lancé un examen de « cross-check » en octobre 2021, après les révélations de la lanceuse d’alerte Frances Haugen, qui a fait fuiter des documents internes à la presse et accusé l’entreprise de faire passer « les profits avant la sécurité » de ses utilisateurs.

Les réponses de Meta à l’enquête ont été « insuffisantes par moments » et « sa propre compréhension des implications pratiques du programme laisse à désirer », a indiqué le conseil.