(Paris) Voix féminine par défaut, « personnalité docile »… Un rapport de l’UNESCO publié vendredi reproche aux assistants vocaux numériques de véhiculer des « préjugés sexistes » et recommande à leurs développeurs d’intégrer un plus grand nombre de femmes à leurs équipes.

« La soumission et la servilité exprimées par tant d’assistantes vocales » sont « une illustration du préjugé sexiste véhiculé par les produits faisant appel à l’intelligence artificielle », estime l’UNESCO dans son étude.

Ce rapport a été réalisé en collaboration avec le ministère allemand de la Coopération économique et la coalition Equals Skills, regroupement de gouvernements et d’organisations internationales promouvant l’équilibre entre les genres dans le secteur de la technologie.

Il porte notamment sur les assistants vocaux développés par Amazon (Alexa), Apple (Siri), Google (Google Assistant) et Microsoft (Cortana), qui représentent dans de nombreux pays environ « 90 % du marché ».  

PHOTO PAUL SAKUMA, ARCHIVES ASSOCIATED PRESS

Le logo de Siri, l’assistant vocal des produits Apple.

Selon l’UNESCO, le rapport « I’d blush if I could » (Je rougirais si je le pouvais, NDLR) tire son titre de la réponse donnée pendant plusieurs années — mais rectifiée en avril dernier — par l’assistant vocal Siri, lorsque l’utilisateur lui adressait des insultes.

Les auteurs de l’étude constatent que la plupart des assistants vocaux sont dotés par défaut de noms et voix de femmes ainsi que d’une « personnalité docile ».

« Les machines obéissantes et serviles qui se présentent comme des femmes entrent dans nos maisons, nos voitures et nos bureaux », souligne Saniye Gülser Corat, directrice de la division sur l’égalité des genres à l’UNESCO, citée dans le rapport. Or « leur asservissement programmé influe sur la façon dont les hommes s’adressent aux voix féminines et façonnent la manière dont les femmes réagissent aux demandes et s’expriment ».

PHOTO DAVE PARESH, ARCHIVES REUTERS

Une station Google Home équipée du Google Assistant.

Entre autres impacts négatifs sur les représentations des femmes, le rapport pointe « un modèle d’acceptation et de tolérance du harcèlement sexuel et de la violence verbale » ou encore la façon dont les assistants vocaux « font des femmes le “visage” des défauts et des erreurs résultant des limitations du matériel et des logiciels conçus principalement par des hommes ».

Ces « stéréotypes » trouvent leur « origine dans l’inégalité des sexes en matière d’éducation et dans le secteur technologique », selon l’étude, qui précise que les femmes ne représentent que 12 % des chercheurs dans le domaine de l’intelligence artificielle et 6 % des développeurs de logiciels.

PHOTO MICROSOFT

Cortana est l’assistant vocal de Microsoft.

L’UNESCO recommande d’intégrer un plus grand nombre de femmes aux équipes de développeurs, mais aussi d’inclure la question du genre à l’apprentissage des compétences numériques.

L’UNESCO demande par ailleurs aux entreprises d’étudier la possibilité de développer une voix « non genrée » pour ses assistants vocaux.