(Paris) Alors que les réseaux sociaux sont régulièrement accusés de ne pas suffisamment protéger les mineurs en ligne, Meta a annoncé jeudi de nouvelles mesures sur Instagram pour protéger les jeunes du chantage aux photos de nu.

Le géant américain va ainsi mettre en place un « contrôleur de nudité » sur Instagram, paramétré par défaut sur les comptes des mineurs, qui détectera automatiquement les images avec de la nudité reçues sur la messagerie de l’application et les rendra floues.

« De cette façon, le destinataire n’est pas exposé de manière non désirée à un contenu intime et a le choix de voir cette image ou non », explique à l’AFP Capucine Tuffier, en charge de la protection de l’enfance chez Meta France.  

Des messages de sensibilisation sur le chantage aux photos à caractère sexuel, aussi appelé « sextorsion », seront dans le même temps envoyés à l’émetteur et au récepteur des images, leur rappelant que ces contenus sensibles peuvent aboutir à des captures d’écran et des transferts par des personnes malintentionnées.  

« Il s’agit de réduire la création et le partage de ce type d’images », résume Mme Tuffier.

Ces nouvelles mesures seront testées à partir de mai dans une poignée de pays en Amérique centrale et latine avant un déploiement mondial dans les prochains mois.

« C’est plutôt bien qu’ils donnent par défaut les moyens de se prémunir de ce type d’agression ou de harcèlement » indique à l’AFP Olivier Ertzscheid, chercheur à l’université de Nantes en sciences de l’information.  

Selon lui, « au regard du flux et du volume de contenus photographiques qui circulent sur les plateformes, on est obligé de passer par des automatisations qui relèvent de l’IA ».

Meta précise que lorsqu’un compte aura été identifié par ses outils d’intelligence artificielle comme étant potentiellement à l’origine de ce type de chantage, ses interactions avec des utilisateurs mineurs seront fortement limitées.

Modération humaine vs IA

Un compte de potentiel « malfaiteur » ne pourra ainsi pas envoyer de messages privés à un compte de mineur, n’aura pas accès à sa liste complète d’abonnés (les comptes de mineurs étant cachés) et les comptes de mineurs n’apparaîtront plus dans la barre de recherche, détaille Capucine Tuffier.  

Meta préviendra aussi un jeune utilisateur s’il est entré en contact avec un potentiel maître-chanteur. Le mineur sera alors dirigé vers un site dédié « Stop Sextorsion » et aura accès à une ligne d’écoute téléphonique en partenariat avec des associations.  

« La question qui se pose, c’est pourquoi ils ne l’ont pas fait jusqu’à maintenant ? » s’interroge Olivier Ertzscheid, qui estime que ce genre de technologie existe déjà depuis plusieurs années. Il pointe également le risque de dérives et de « faux positifs », et prend l’exemple de photos de femmes en maillot de bain qui, par le passé, ont déjà pris en défaut ces algorithmes.  

« Ces faux positifs ont un impact parce qu’ils installent de nouvelles formes de normativité », explique-t-il, poussant les utilisateurs de réseaux sociaux à se restreindre dans certains usages.  

Pour lui, l’intervention d’un modérateur peut éviter certains de ces écueils, mais « toutes ces plateformes sont aujourd’hui en défaut de modération humaine. »

Meta, accusé aux États-Unis et en France de nuire à la santé mentale des adolescents, avait déjà annoncé en janvier une première salve de mesures pour mieux protéger les jeunes utilisateurs.  

Parmi celles-ci, un utilisateur mineur aura désormais besoin de la permission explicite de ses parents pour faire passer son compte de privé à public, accéder à plus de contenus dits « sensibles » ou avoir la possibilité de recevoir des messages de personnes qu’il ne suit pas déjà sur la plateforme.

La Commission européenne a lancé des enquêtes séparées sur Meta, Snap (Snapchat), TikTok, YouTube sur les mesures mises en œuvre pour protéger la « santé physique et mentale » des mineurs.