(San Francisco) Twitter a établi que son algorithme qui recadre les photos est légèrement biaisé en faveur des personnes blanches et des femmes et préfère désormais se passer de cette technologie automatisée.

Agence France-Presse

« Les algorithmes ne conviennent pas à tout ce qui est sur Twitter », note le réseau social sur l’un de ses blogues mercredi. « Il vaut mieux que les utilisateurs décident de comment cadrer une image ».

La plateforme, qui a lancé des travaux pour rendre ses systèmes d’intelligence artificielle plus éthiques, a enquêté sur les biais perçus par les utilisateurs.

L’algorithme, mis en service en 2018, est conçu pour recadrer les images en fonction de ce qu’il considère comme prépondérant, afin de réduire leur taille et de moins encombrer le fil de tweets.

« Des gens sur Twitter ont observé des cas où notre programme a choisi des individus blancs plutôt que noirs », explique Rumman Chowdhury, directrice du logiciel. « Nous avons testé notre système sur une large base de données pour déterminer s’il y avait un problème ».

Les chercheurs du groupe ont trouvé qu’il y avait une différence de 4 % en faveur des personnes blanches en général, et de 7 % en faveur des femmes blanches par opposition aux femmes noires.

La comparaison entre les hommes et les femmes en général a révélé un écart de 8 % en faveur des femmes.

La société basée à San Francisco a aussi cherché un possible biais dit de « regard masculin », au sens où l’algorithme choisirait la poitrine ou les jambes d’une femme au lieu de son visage. Mais seulement 3 % des photos testées ont été recadrées en-dehors de la tête des personnes, et sur des éléments non physiques, comme un chiffre sur un maillot sportif.

« Nous n’avons pas trouvé de preuves d’un biais d’objectification », souligne Rumman Chowdhury.

Le réseau social a testé en mars une nouvelle façon d’afficher les images sans les recadrer, et a ensuite étendu l’outil à tous, pour permettre à chacun de voir à quoi ressemble son tweet avant de le publier.

« Cela réduit notre dépendance au “machine learning” (apprentissage automatisé du logiciel, NDLR) pour une tâche que nos utilisateurs sont mieux à même de réaliser », a-t-elle ajouté.

Les grandes plateformes sont régulièrement accusées de favoriser des pratiques répréhensibles, de l’incitation à la haine à diverses discriminations, notamment sexistes ou racistes.