Des modérateurs de contenu entendent traîner le géant de la Silicon Valley devant les tribunaux.

Des centaines de travailleurs africains qui révisaient les messages mis en ligne par les utilisateurs de Facebook de nombre de pays du continent pour filtrer le contenu problématique demandent des comptes à Meta après avoir été mis à pied.

Dans une requête présentée devant un tribunal du travail en mars, les modérateurs de contenu affirment que le géant de la Silicon Valley et un sous-traitant établi au Kenya, Sama, ont décidé de les remercier en bloc cette année après qu’ils se sont mobilisés pour dénoncer leurs conditions de travail et former un syndicat.

Bon nombre des 260 employés concernés affirment avoir développé de sérieux problèmes de santé mentale parce qu’ils ont été exposés des journées durant, sans préparation ou soutien approprié, à des vidéos et des photos montrant des scènes violentes ou choquantes.

Michaela Chen, une militante liée à l’ONG anglaise Foxglove, qui soutient la démarche des travailleurs, note que le visionnement en série de scènes de décapitation, de suicide, de viol et de mutilation d’animaux peut avoir un lourd impact.

« Les problèmes qu’on voit vont de la dépression au choc post-traumatique. Il y a eu aussi des tentatives de suicide », note cette avocate de formation.

Sama, le sous-traitant qui employait les modérateurs de contenu travaillant sur Facebook, leur permettait d’avoir accès à des « conseillers en bien-être » qui n’étaient généralement pas qualifiés pour prendre en charge des troubles d’une telle gravité, dit-elle.

Les employés étaient normalement recrutés à l’extérieur du Kenya dans des milieux défavorisés et amenés à Nairobi sans avoir été informés clairement, selon Mme Chen, de la nature du travail qu’ils auraient à effectuer.

Dans le cadre de leur journée de travail, ils disposaient normalement de 70 secondes pour étudier un message potentiellement problématique à partir d’une plateforme développée par Facebook et définir s’il contrevenait aux normes d’utilisation du site tout en précisant le type de violation. Chaque employé recevait un bilan hebdomadaire et était évalué notamment sur la qualité de ses décisions.

Plonger dans l’inconnu

Dans une autre requête déposée l’année dernière, le premier employé à avoir sonné l’alarme relativement aux conditions de travail chez Sama, Daniel Motaung, a indiqué qu’il avait été recruté en Afrique du Sud sans savoir dans quoi il s’engageait.

Il affirme avoir dû signer une entente de non-divulgation en même temps que son contrat d’embauche, toujours sans avoir été informé précisément de ce qui était attendu de lui. La première séquence qu’il a visionnée en commençant son travail est une décapitation.

L’ex-employé, qui a fait plusieurs sorties publiques contre Sama et Meta, explique qu’il a été mis à pied en 2019 après avoir pris la tête d’un mouvement de mobilisation ayant suscité une véritable campagne d’intimidation à l’interne.

Nombre d’employés avaient alors décidé de se taire par crainte de perdre leur emploi et de se voir retirer du même coup le visa leur permettant de demeurer au Kenya.

M. Motaung a lui-même été contraint de retourner en Afrique du Sud et mène sa bataille juridique à distance, tout en cherchant à traiter les traumatismes psychologiques découlant de son ancien travail.

Selon Mme Chen, la plupart des modérateurs de contenu n’ont pas les moyens de se payer eux-mêmes un thérapeute ou de prendre un nombre conséquent de jours de congé pour se remettre sur pied.

Le salaire horaire payé par Sama était d’environ 2 $ US de l’heure, alors que les modérateurs de contenu de Facebook aux États-Unis reçoivent au moins sept ou huit fois plus, au dire de Foxglove.

« Ce qu’ils font au Kenya, c’est abusif, profondément raciste et discriminatoire », accuse Mme Chen, qui reproche à Meta de chercher à se soustraire à ses responsabilités envers ces travailleurs en les recrutant par l’entremise de sous-traitants.

Meta, « principal employeur »

Un magistrat kényan a donné partiellement raison la semaine dernière aux employés de Sama mis à pied en accordant une injonction intérimaire qui oblige la firme et Meta à maintenir leurs emplois tant que la cause sur le fond n’aura pas été entendue. Il exige par ailleurs que des services de soutien psychologique appropriés leur soient rapidement fournis.

Le juge a relevé du même coup que Meta était le « principal employeur » des travailleurs en question, créant un précédent susceptible d’affecter des exploitants de réseaux sociaux qui utilisent une structure similaire pour réaliser la modération de contenus sur leur site.

Meta, qui compterait environ 15 000 modérateurs de contenu à travers le monde, avait conclu une entente en 2021 avec des milliers d’entre eux, établis aux États-Unis, qui lui reprochaient de ne pas avoir pris les moyens appropriés pour les protéger de blessures psychologiques.

Odanga Madung, analyste de la fondation Mozilla, qui a aussi travaillé sur le dossier kényan, note que Meta a cherché plusieurs fois à se dédouaner en prétendant que les employés travaillaient « pour Sama, pas pour Facebook ».

La compagnie [Meta] ne cesse de dire qu’elle est progressiste, mais on voit bien que c’est du vent en considérant comment les modérateurs de contenu sont traités.

Odanga Madung, analyste de la fondation Mozilla

Un porte-parole de Meta joint par La Presse a indiqué jeudi que l’entreprise n’entendait pas commenter la situation.

Plus tôt cette semaine, un vice-président de l’entreprise, Rob Sherman, a indiqué lors d’une conférence au Costa Rica que les modérateurs de contenu faisaient un « travail très difficile », mais essentiel pour le réseau social.

Il a précisé que Meta cherchait à raffiner ses méthodes d’analyse, notamment grâce à l’intelligence artificielle, pour réduire leur exposition à du contenu « préoccupant ».