(New York) Une vidéo explicite d’un homme de Pennsylvanie accusé d’avoir décapité son père, qui a circulé pendant des heures sur YouTube, a mis une fois de plus en lumière l'incapacité des sociétés de médias sociaux à empêcher que des atrocités publiées sur leurs plateformes ne se propagent sur le Web.

La police a déclaré mercredi avoir inculpé Justin Mohn, 32 ans, de meurtre au premier degré et d’abus sur un cadavre après avoir décapité son père, Michael, dans leur maison du comté de Bucks et avoir rendu public son acte dans une vidéo YouTube de 14 minutes accessible à tous, n’importe où.

La nouvelle de l’incident – qui a été comparée aux vidéos de décapitation publiées en ligne par les militants de l’État islamique au sommet de leur notoriété il y a près de dix ans – est survenue alors que les dirigeants de Meta, TikTok et d’autres sociétés de médias sociaux témoignaient devant des législateurs fédéraux frustrés par ce qu’ils considèrent comme un manque de progrès en matière de sécurité des enfants en ligne.

YouTube, qui appartient à Google, n’a pas assisté à l’audience, malgré son statut d’une des plateformes les plus populaires auprès des adolescents.

La vidéo dérangeante de Pennsylvanie fait suite à d’autres vidéos d’atrocités qui ont été diffusées sur les réseaux sociaux ces dernières années, notamment des fusillades de masse nationales diffusées en direct depuis Louisville (Kentucky), Memphis (Tennessee) et Buffalo (New York) – ainsi que des carnages filmés à l’étranger à Christchurch, en Nouvelle-Zélande, et dans la ville allemande de Halle.

Le capitaine de police du canton de Middletown, Pete Feeney, a déclaré que la vidéo avait été publiée en Pennsylvanie vers 22 heures, mardi, et était restée en ligne pendant environ cinq heures, un décalage qui soulève la question de savoir si les plateformes de médias sociaux respectent les pratiques de modération, qui pourraient être plus que jamais nécessaires dans le contexte des guerres à Gaza et en Ukraine et d’une élection présidentielle extrêmement controversée aux États-Unis.

« C’est un autre exemple de l’échec flagrant de ces entreprises à nous protéger », a déclaré Alix Fraser, directrice du Council for Responsible Social Media de l’organisation à but non lucratif Issue One. « Nous ne pouvons pas leur faire confiance pour noter eux-mêmes leurs devoirs. »

Un porte-parole de YouTube a annoncé que la société avait supprimé la vidéo, supprimé la chaîne de Mohn et suivait et supprimait toutes les nouvelles mises en ligne qui pourraient apparaître.

Le site de partage de vidéos affirme utiliser une combinaison d’intelligence artificielle (IA) et de modérateurs humains pour surveiller sa plateforme, mais n’a pas répondu aux questions sur la manière dont la vidéo a été suspendue ou pourquoi cela n’a pas été réalisé plus tôt.

Les grandes sociétés de médias sociaux modèrent le contenu à l’aide de puissants systèmes automatisés, qui peuvent souvent détecter le contenu interdit avant qu’un humain ne le puisse. Mais cette technologie peut parfois échouer lorsqu’une vidéo est violente et explicite d’une manière nouvelle ou inhabituelle, comme ce le fut dans ce cas, a déclaré Brian Fishman, co-fondateur de la startup technologique de confiance et de sécurité Cinder.

C’est à ce moment-là que les modérateurs humains sont « vraiment, vraiment indispensables », a-t-il déclaré. « L’IA s’améliore, mais ce n’est pas encore là. »

Mercredi, environ 40 minutes après minuit, heure de l’Est, le Forum internet mondial de lutte contre le terrorisme, un groupe créé par des entreprises technologiques pour empêcher la diffusion de ce type de vidéos en ligne, a déclaré avoir alerté ses membres de la vidéo. Le forum permet à la plateforme possédant les images originales de soumettre un « hash » – une empreinte numérique correspondant à une vidéo – et informe près de deux douzaines d’autres sociétés membres afin qu’elles puissent les interdire sur leurs plateformes.

Mais mercredi matin, la vidéo s’était déjà répandue sur X, où une vidéo explicite de Mohn tenant la tête de son père est restée sur la plateforme pendant au moins sept heures et a été visionnée 20 000 fois. La société n’a pas répondu à une demande de commentaire.

Les experts en radicalisation affirment que les médias sociaux et internet ont réduit les obstacles pour les personnes souhaitant explorer des groupes et des idéologies extrémistes, permettant à toute personne susceptible d’être prédisposée à la violence de trouver une communauté qui renforce ces idées.

Dans la vidéo publiée après le meurtre, Mohn décrit son père comme un employé fédéral depuis 20 ans, épousant diverses théories du complot et divaguant contre le gouvernement.

La plupart des plateformes sociales ont des politiques visant à supprimer les contenus violents et extrémistes. Mais ils ne peuvent pas tout détecter, et l’émergence de nombreux sites plus récents, moins étroitement modérés, a permis à des idées plus haineuses de se propager sans contrôle, a déclaré Michael Jensen, chercheur principal au Consortium pour l’étude du terrorisme et des réponses au terrorisme, basé à l’Université du Maryland.

Malgré les obstacles, les sociétés de médias sociaux doivent être plus vigilantes dans la réglementation des contenus violents, a indiqué Jacob Ware, chercheur au Council on Foreign Relations.

« La réalité est que les médias sociaux sont devenus une ligne de front contre l’extrémisme et le terrorisme, a soulevé M. Ware. Cela va nécessiter des efforts plus sérieux et plus engagés pour réagir. »

Nora Benavidez, avocate principale du groupe de défense des médias Free Press, a déclaré qu’elle aimerait voir plus de transparence sur les types d’employés touchés par les licenciements et davantage d’investissements dans la confiance et la sécurité des travailleurs.

Google, propriétaire de YouTube, a licencié ce mois-ci des centaines d’employés travaillant dans ses équipes de matériel, d’assistance vocale et d’ingénierie. L’année dernière, l’entreprise a annoncé avoir supprimé 12 000 emplois dans Alphabet.

Les journalistes de l’AP Beatrice Dupuy et Mike Balsamo à New York, ainsi que Mike Catalini à Levittown, en Pennsylvanie, ont contribué à ce rapport.