Combien de messages Facebook bloque-t-il par mois au Canada ? Environ 123 000, ont appris La Presse et le Toronto Star dans le cadre d’une enquête sur les Facebook Papers.

123 000 messages bloqués par mois au Canada

PHOTO KIRILL KUDRYAVTSEV, ARCHIVES AGENCE FRANCE-PRESSE

Sur 38 pays, le Canada arrive au 38e rang pour le nombre de messages bloqués entre le 15 août et le 15 septembre 2019, selon un document interne de Facebook.

Ottawa veut réglementer Facebook pour savoir si le réseau social bloque assez de contenu criminel comme du contenu haineux. Or, combien de messages Facebook bloque-t-il au Canada ? Pour la première fois, on en a une idée : environ 123 000 messages par mois, selon un document des Facebook Papers.

Ces 123 000 messages bloqués sont des messages d’incitation à la violence ou à la haine, de la désinformation, de la nudité ou des messages contrevenant autrement aux règles d’utilisation de Facebook. Cette information a été obtenue en vertu des documents soumis en version caviardée à la Securities and Exchange Commission des États-Unis et au Congrès américain par l’avocat de la lanceuse d’alerte Frances Haugen. La version caviardée de ces documents reçus par le Congrès a été examinée par un consortium de médias d’information, dont La Presse et le Toronto Star. Mme Haugen est une ex-employée de Facebook. Ces documents ont été surnommés les Facebook Papers par les médias du monde entier.

Sur 38 pays, le Canada arrive au 38e rang pour le nombre de messages bloqués entre le 15 août et le 15 septembre 2019, selon ce document interne de Facebook. En proportion de la population du pays, Facebook bloquait environ 2,4 fois plus de messages aux États-Unis qu’au Canada. Facebook a bloqué le plus de messages aux États-Unis (2,6 millions) et en Inde (2,4 millions).

Facebook bloque la plupart des messages au moyen de systèmes d’intelligence artificielle. L’entreprise a aussi des employés pour gérer les messages bloqués et le processus d’appel des messages bloqués.

Selon le professeur Pierre Trudel, ces données tirées des Facebook Papers montrent « à quel point il pourrait être important et utile d’avoir un régulateur canadien » pour les réseaux sociaux. « Ce serait la moindre des choses qu’une autorité publique au Canada soit habilitée à vérifier comment les réseaux sociaux appliquent leurs pratiques de modération pour refléter les lois canadiennes », dit M. Trudel, professeur en droit des communications à l’Université de Montréal.

Restauration des messages bloqués

Les utilisateurs de Facebook peuvent en appeler de la décision de Facebook de bloquer leur message parce qu’il ne respecterait pas les conditions d’utilisation du réseau social (contenu haineux, illicite ou nudité, par exemple).

Après ce processus d’appel, Facebook a remis en ligne environ 4,1 % des messages bloqués au Canada durant ce mois de l’été 2019. Le Canada se classait au deuxième rang pour les taux les plus élevés de restauration (de remise en ligne) des messages bloqués, selon le document des Facebook Papers.

Facebook n’a pas voulu divulguer des données plus récentes au Canada sur le nombre de messages bloqués initialement et le taux de restauration des messages bloqués. L’entreprise n’a pas précisé son nombre de réviseurs de contenu pour le Canada.

« Ces décisions [de retirer du contenu] sont complexes et nécessitent souvent une mise en contexte, c’est pourquoi nous offrons aux gens des outils pour en appeler des décisions que nous prenons », a indiqué par courriel Meta, propriétaire de Facebook. « Les taux d’appel au Canada suggèrent que ces outils sont accessibles et bien compris. Parallèlement, nous nous efforçons toujours d’améliorer nos capacités en matière d’application de nos normes, notamment en renforçant les systèmes automatisés et en mettant à jour nos politiques pour les rendre plus claires. »

À l’été 2019, 3 pays parmi les 38 répertoriés dans le document interne de Facebook avaient un taux particulièrement élevé en matière de restauration des messages bloqués : l’Allemagne (5 % des messages initialement bloqués), le Canada (4,1 %) et les États-Unis (3,8 %).

Ces taux élevés d’appel et de restauration des messages bloqués veulent « probablement dire que nos produits fonctionnent le mieux dans ces pays », écrit Facebook dans ce document interne. Au contraire de la Birmanie, du Cambodge et de la République dominicaine, par exemple, dont les taux beaucoup moins élevés signifient que le système de modération de Facebook « ne fonctionne pas aussi bien » dans ces pays.

En même temps, Facebook s’inquiète un peu du taux élevé de 5 % de remise en ligne des messages bloqués en Allemagne, « qui nuit possiblement à notre légitimité là-bas », selon le document de Facebook.

La modération des contenus varie selon la langue et la région du monde

Ces données internes de Facebook montrent que la modération des contenus se fait en pratique avec des résultats fort différents selon la région du monde.

Pour les pays d’Europe et d’Amérique du Nord, le pourcentage de messages bloqués remis en ligne varie entre 2,8 % et 5 %. Pour les pays d’Asie, d’Amérique du Sud et du Moyen-Orient, ce pourcentage est beaucoup plus faible : il varie entre 0,8 % et 1,8 %. Facebook a beaucoup plus de difficulté à modérer les contenus problématiques dans les langues autres que l’anglais, notamment en arabe.

Ça met en évidence que l’entreprise n’a pas mis en place les mécanismes pour tenir compte du fait que tout le monde n’utilise pas l’anglais.

Pierre Trudel, professeur de droit des communications à l’Université de Montréal

Comment Ottawa réglementera-t-il Facebook ?

Ces révélations surviennent alors que le gouvernement Trudeau veut réglementer davantage les réseaux sociaux, particulièrement en matière de contenu criminel.

L’été dernier, Ottawa a annoncé son intention de créer deux organismes de réglementation des réseaux sociaux, dans le but d’y empêcher spécifiquement la publication et la distribution de cinq types de contenu criminel (discours haineux, incitation à la violence, contenu terroriste, partage non consensuel d’images intimes et contenu relatif à l’exploitation sexuelle des enfants). À la suite d’une plainte, les réseaux sociaux auraient 24 heures pour déterminer si le contenu doit être retiré. Le plaignant pourra faire appel auprès du réseau social, comme c’est le cas actuellement.

Le gouvernement Trudeau espère déposer son projet de loi sur les réseaux sociaux durant les 100 premiers jours de son nouveau mandat, soit d’ici à la fin de l’année.

Facebook indique « soutenir une réglementation qui préserve les avantages de l’économie numérique tout en répondant aux inconvénients potentiels ». « La dernière mise à jour des règles en matière d’internet date de 25 ans ; le temps est venu d’établir des normes au niveau de notre industrie », indique par courriel Meta. Le propriétaire de Facebook estime toutefois qu’une obligation de retirer les contenus signalés dans un délai de 24 heures « nuira à la régulation des contenus ».

Jean-Hugues Roy, professeur de journalisme à l’École des médias de l’UQAM, et Pierre Trudel, de l’Université de Montréal, estiment qu’Ottawa doit aussi exiger davantage de transparence de la part des réseaux sociaux. « Dans un monde où la majorité des Canadiens s’informent grâce à Facebook, on ne sait plus quelle information arrive aux Canadiens », dit M. Roy.

6 révélations qui contredisent Facebook

PHOTO SHANNON STAPLETON, ARCHIVES REUTERS

Le 6 janvier dernier, des partisans de l’ancien président Donald Trump ont pris d’assaut le Capitole, à Washington, lors de la certification de la victoire de Joe Biden à l’élection présidentielle de 2020.

Plus tôt cet automne, la lanceuse d’alerte Frances Haugen, ingénieure ex-employée de Facebook dans sa division de l’intégrité, a dévoilé des documents internes de l’entreprise à plusieurs médias américains. Des documents qui contredisent nombre d’affirmations publiques de Facebook – et qui relancent le débat sur la réglementation des réseaux sociaux.

1. Facebook ne dit pas toujours la vérité en public

Dans sa lettre aux autorités boursières américaines (la SEC), la lanceuse d’alerte Frances Haugen indique que les déclarations publiques de Facebook sont parfois contredites par leurs documents internes. Elle donne plusieurs cas précis. Un exemple ? En 2020, le PDG Mark Zuckerberg a dit au Congrès américain que Facebook supprimait 94 % du contenu haineux avant qu’une plainte soit déposée. Des documents des Facebook Papers montrent toutefois que l’entreprise supprimerait moins de 5 % de tout le contenu haineux sur Facebook.

PHOTO CHRISTOPHE ARCHAMBAULT, AGENCE FRANCE-PRESSE

La lanceuse d’alerte Frances Haugen, ingénieure ex-employée de Facebook, lors de son témoignage devant une commission parlementaire à l’Assemblée nationale de France, mercredi

Facebook n’est pas d’accord avec les allégations de Mme Haugen. « Nous faisons des divulgations détaillées au SEC à propos de nos défis. […] Nous ne doutons pas que ces divulgations donnent aux investisseurs les informations dont ils ont besoin pour prendre des décisions éclairées », a indiqué par courriel Meta, le propriétaire de Facebook. Meta dit être « engagée » à poursuivre son objectif de réduire le contenu haineux sur ses plateformes.

2. Facebook a agi trop tard avant les émeutes au Congrès en janvier dernier

Durant la campagne présidentielle de 2020, Facebook a rehaussé ses normes de sécurité. Mais après les élections, Facebook a mis un terme à plusieurs de ces mesures – ce qui aurait permis à certains groupes d’organiser et de coordonner plus facilement les manifestations du 6 janvier dernier au Capitole. Facebook a remis en place les mesures, mais trop tard, selon de nombreux observateurs. « Nous alimentons ce feu depuis longtemps et nous ne devrions pas être surpris que ce soit maintenant hors de contrôle », a écrit un employé de Facebook sur le système interne de messagerie après l’assaut du Capitole par des émeutiers pro-Trump le 6 janvier.

Meta estime au contraire avoir agi de la bonne façon. « Quand les signaux ont changé, les mesures ont changé », indique l’entreprise par courriel.

3. Facebook préfère l’engagement des usagers à leur sécurité

C’est le cœur du problème, a expliqué publiquement Frances Haugen après la sortie des Facebook Papers dans les médias américains (en premier dans le Wall Street Journal). L’algorithme de Facebook favorise les contenus générant le plus grand engagement (ex. : des contenus partagés et repartagés). En théorie, ça peut se justifier. Sauf qu’en pratique, les contenus radicaux et les contenus faisant la promotion de la haine et de la violence suscitent souvent davantage d’engagements de la part des usagers que des contenus plus neutres. Pour freiner la distribution de contenu haineux, il faudrait revoir les paramètres de l’algorithme et moins miser sur l’engagement des usagers. Plusieurs documents internes montrent que Facebook en a conscience. Par exemple, en 2019, Facebook a fait un test à l’interne : il a fallu cinq jours pour que l’algorithme suggère à une mère conservatrice américaine (fictive) de suivre QAnon, pourtant identifié par le FBI comme posant un danger pour la sécurité nationale.

« Nous sommes une entreprise et nous faisons des profits, mais l’idée que nous le ferions au détriment de la sécurité des gens découle d’une incompréhension de nos intérêts commerciaux, écrit par courriel Meta. La vérité, c’est que nous sommes en voie de dépenser plus de 5 milliards cette année en matière de sécurité et que nous avons plus de 40 000 personnes pour accomplir la tâche suivante : assurer la sécurité des personnes sur Facebook. »

4. Encore plus difficile en arabe

Vous trouvez que Facebook est trop permissif avec le contenu haineux en anglais aux États-Unis ? C’est encore pire ailleurs dans le monde dans d’autres langues, notamment en arabe au Moyen-Orient, en Afrique et en Inde. Les algorithmes de Facebook fonctionneraient moins bien avec ces langues, et l’entreprise n’aurait pas assez d’employés parlant ces langues pour encadrer ce type de contenus. Selon les documents, Facebook aurait consacré, en 2020, 87 % de ses efforts pour lutter contre la désinformation aux États-Unis, contre 13 % dans le reste du monde. Et ce, même si plusieurs pays du Moyen-Orient sont sur la liste des pays les plus dangereux en matière de contenu incitant à la violence, selon Facebook.

Meta dit avoir 15 000 personnes qui révisent le contenu en plus de 70 langues. « Nous avons travaillé pour améliorer nos capacités en arabe, mais nous reconnaissons que nous avons encore du travail à faire », écrit Meta.

5. Des normes de modération différentes pour certains politiciens

Facebook a des normes de modération différentes pour les comptes de personnalités publiques importantes, comme des chefs d’État, des politiciens et des vedettes. Ce système VIP pourrait possiblement avoir comme effet d’avantager certains politiciens au pouvoir en leur donnant une liberté d’expression accrue, notamment dans certains pays où l’état de la démocratie est plus fragile.

6. Instagram est nocif pour les jeunes adolescentes

Facebook sait que sa plateforme Instagram est nocive pour l’estime de soi des jeunes adolescentes. Selon une étude interne de l’entreprise, 13,5 % des adolescentes britanniques qui ont des pensées suicidaires disent les avoir plus fréquemment depuis qu’elles sont sur Instagram.

PHOTO JENNY KANE, ARCHIVES ASSOCIATED PRESS

Selon une étude interne de Facebook, 13,5 % des adolescentes britanniques qui ont des pensées suicidaires disent les avoir plus fréquemment depuis qu’elles sont sur Instagram.

Meta fait valoir que 38 % des adolescentes avec des pensées suicidaires estiment qu’Instagram a eu un effet positif, et qu’il n’y a pas eu d’impact pour 49 % des adolescentes avec des pensées suicidaires. « Notre recherche ne conclut pas qu’Instagram est intrinsèquement mauvais pour les adolescents. […] Cela dit, nous voulons aider ceux qui pourraient avoir des difficultés », écrit Meta.

Avec le Washington Post, le Wall Street Journal, NPR et le New York Times

Et la publicité sur les ventes d’armes à feu ?

PHOTO GETTY IMAGES

Actuellement, Facebook permet aux entreprises qui ont le droit de vendre des armes dans un État en particulier d’annoncer leurs activités commerciales sur Facebook (annoncer les armes vendues dans un magasin physique, par exemple).

Facebook doit-elle accepter les publicités d’entreprises qui vendent des armes à feu ?

En avril 2020, le réseau social a voulu savoir ce qu’en pensaient ses utilisateurs dans cinq pays, dont le Canada, selon des documents obtenus par La Presse en consultant les Facebook Papers.

La conclusion de ce sondage sur les armes à feu est claire : la grande majorité des utilisateurs de quatre des cinq pays en question (environ 65 % des répondants au Canada, en Nouvelle-Zélande et en Australie, ainsi qu’environ 80 % des répondants au Royaume-Uni) veulent que Facebook prenne des mesures fermes (hard actions) pour lutter contre les messages et les liens au sujet des ventes d’armes. En revanche, seulement 42 % des Américains souhaitent que Facebook prenne des mesures fermes à ce sujet.

« Comme vous pouviez le deviner, c’est clair que les États-Unis constituent une valeur aberrante (outlier) par rapport aux quatre autres pays », indique le document interne de Facebook.

Certaines permissions

Actuellement, Facebook permet aux entreprises qui ont le droit de vendre des armes dans un État en particulier d’annoncer leurs activités commerciales sur Facebook (annoncer les armes vendues dans un magasin physique, par exemple). Le réseau social interdit toutefois de vendre les armes directement sur Facebook, ainsi que la vente d’armes entre particuliers.

« Nous voulons toujours améliorer nos politiques et consultons régulièrement nos communautés [pour le faire], ainsi que des experts à travers le monde », a indiqué par courriel Meta, propriétaire de Facebook.

Environ 65 % des Canadiens estiment que les ventes d’armes à feu sont assez ou très mauvaises pour la société, comparativement à seulement 31 % des Américains, selon ce sondage interne de Facebook.