Source ID:99bbafa79fe53aeca2b111c0b9e37c3b; App Source:StoryBuilder

Nos robots seront-ils machos ?

Yasmeen Hitti, Carolyne Pelletier et Andrea Eunbee Jang, chercheuses à l'institut d'intelligence... (PHOTO MARTIN CHAMBERLAND, LA PRESSE)

Agrandir

Yasmeen Hitti, Carolyne Pelletier et Andrea Eunbee Jang, chercheuses à l'institut d'intelligence artificielle Mila

PHOTO MARTIN CHAMBERLAND, LA PRESSE

Un algorithme qui élimine les femmes à l'embauche. Un service de recrutement en ligne qui propose des emplois d'ingénieur exclusivement aux hommes. Des assistantes personnelles féminines à notre service. Ceux et celles qui croyaient que l'intelligence artificielle allait créer un monde meilleur commencent à déchanter. Avait-on oublié que l'humain allait transmettre tous ses travers à la machine ?

Un lundi matin ensoleillé de la fin d'avril dans le Mile Ex. Des dizaines de personnes dans la vingtaine et dans la trentaine - surtout des hommes - marchent dans la rue Saint-Zotique en direction d'un immense édifice de la rue Saint-Urbain. C'est dans ce quartier, enclavé entre la Petite Italie et l'avenue du Parc, que bat le coeur de l'intelligence artificielle à Montréal. Dans le même pâté de maisons, on trouve les bureaux de Facebook, IVADO, Element AI et Mila, l'institut québécois d'intelligence artificielle. C'est là, sous la supervision du célèbre chercheur Yoshua Bengio, que Yasmeen Hitti et ses collègues, Carolyne Pelletier, Andrea Eunbee Jang et Ines Moreno, travaillent à développer un outil informatique qui devrait pouvoir traquer le sexisme caché dans les données utilisées en intelligence artificielle.

« Un biais sexiste, c'est un préjugé ou un stéréotype basé sur le genre. Par exemple, associer naturellement les femmes à des tâches domestiques ou assumer que si on parle d'un médecin ou d'un ingénieur, c'est automatiquement un homme », explique Yasmeen Hitti. Cette dernière a rencontré ses collègues dans le cadre d'AI for Good Summer Lab, une école d'été qui se tient à Montréal chaque année depuis trois ans, et dont l'objectif est de recruter davantage de femmes dans le domaine de l'intelligence artificielle.

Leur idée d'un outil capable de détecter les biais de genre enfouis dans des montagnes de textes leur a permis de décrocher un stage de recherche chez Mila, qui compte pour l'instant seulement un tiers de main-d'oeuvre féminine. « Nous sommes encore à l'étape de la méthodologie », explique la jeune femme. 

« Il faut expliquer à l'ordinateur ce qu'est un biais, il faut étiqueter chaque mot, c'est beaucoup de travail qui fait appel à plusieurs disciplines comme la linguistique, pas seulement l'informatique. » 

- Yasmeen Hitti, chercheuse chez Mila

Les chercheuses espèrent présenter les résultats préliminaires de leur recherche cet été dans une conférence de l'Association for Computational Linguistics qui aura lieu en Italie.

Prendre les bonnes décisions

Les algorithmes font partie de notre quotidien depuis toujours. On pourrait dire, en simplifiant beaucoup, que le mode d'emploi pour faire cuire des pâtes est un algorithme. C'est la solution à un problème. En informatique, on dira que c'est un système de traitement de l'information. Un exemple : c'est un algorithme qui permet à Netflix de vous proposer un choix de films basés sur ce que vous avez regardé au cours des derniers jours. Et c'est aussi un algorithme qui vous a proposé la photo d'une belle brune aimant le camping et la cuisine italienne sur Tinder l'autre soir.

L'algorithme travaille à partir de données déjà existantes. Des données créées par les humains. « Or, tous les humains ont des préjugés, des a priori, des biais inconscients, note Valérie Pisano, présidente et chef de la direction de Mila. J'en ai, vous en avez. Il faut donc commencer par prendre conscience de leur existence, les identifier et les nommer. »

Nettoyer les données

Depuis quelques années, la question des biais - de race, de classe sociale, de genre - préoccupe sérieusement le milieu de l'intelligence artificielle. On se demande comment faire pour éviter que les algorithmes et les robots de demain ne deviennent des outils de discrimination. Pour le néophyte, la réponse paraît toute simple : programmons les ordinateurs pour qu'il n'y ait aucun biais. Dans les faits, c'est plus complexe.

Car les algorithmes ne travaillent pas dans le vide. Ils traitent des données qui existent déjà et dans lesquelles sont enfouis différents biais, dont les biais de genre. 

« Or, c'est à partir de ces données et des biais qu'elles contiennent que l'algorithme tire des conclusions. On peut donc dire que les biais ont une influence sur les décisions que prennent les applications. »

- Philippe Beaudoin, cofondateur et vice-président à la recherche de l'entreprise Element AI

Pour éliminer les biais, le défi serait donc d'aller « nettoyer » les données afin qu'elles soient le plus neutres possible. C'est une tâche colossale. Mais pas impossible, selon Joëlle Pineau, directrice du laboratoire de recherche en intelligence artificielle chez Facebook.

Joëlle Pineau... (PHOTO ALAIN ROBERGE, LA PRESSE) - image 2.0

Agrandir

Joëlle Pineau

PHOTO ALAIN ROBERGE, LA PRESSE

« Un algorithme, ça essaie toujours d'optimiser quelque chose, note-t-elle. L'algorithme apprend à faire des recommandations qui optimisent un critère x ou y. Si on continue à recommander des emplois d'ingénieur à des garçons, c'est peut-être que dans notre société actuelle, on a un plus haut taux d'hameçonnage que si on les recommande à des jeunes femmes. L'algorithme l'a observé et se dit : pourquoi je changerais une formule gagnante ? On m'a demandé de maximiser le nombre d'associations gagnantes, alors je vais continuer. La machine n'invente pas les biais, ils ont été transmis par les humains. Cela dit, je peux très bien décider d'entraîner mon algorithme avec des données différentes en posant des questions différentes. »

Vieux comme le monde

Le matin où nous rencontrons Joëlle Pineau dans les bureaux de Facebook, une image est devenue virale depuis quelques jours sur les réseaux sociaux. Il s'agit d'un dessin de l'anatomie féminine. On y voit les muscles, les seins et même les glandes lactifères qui ressemblent aux pétales d'une fleur. « Je n'avais jamais vu cette image auparavant, observe la chercheuse, qui enseigne l'informatique à l'Université McGill. Depuis qu'on est tout petits, dans les livres, on nous montre toujours la musculature d'un homme. C'est LA référence. Si vous voulez un exemple de biais de genre, en voilà un... »

En intelligence artificielle, les biais peuvent avoir des impacts insoupçonnés. Le plus médiatisé est sans aucun doute le système de recrutement d'Amazon dont l'algorithme éliminait automatiquement les candidatures féminines. Le géant de la vente au détail a dû le retirer d'urgence lorsque le scandale a éclaté en octobre dernier.

Joëlle Pineau donne un autre exemple, moins spectaculaire, mais aux implications importantes.

« Nous travaillons sur un système de fauteuil roulant intelligent entraîné pour se promener dans les lieux publics, explique-t-elle. Il doit être capable de circuler, d'éviter des obstacles et de se faufiler dans les foules sans avoir d'accident. On a construit des modèles d'environnement avec des piétons qui circulent, etc. Un laser mesurait la distance avec les obstacles dans l'environnement du fauteuil. Tout ça a été testé à l'École Polytechnique. Or, à Poly, on retrouve surtout des jeunes hommes. Quand est venu le moment de tester notre système dans un environnement comme le centre commercial Alexis Nihon, où il y a une population beaucoup plus diversifiée avec des personnes âgées, des personnes à mobilité réduite, plus de femmes qui se promènent, on a réalisé que notre modèle avait des lacunes. C'est un type de biais de genre qu'il a fallu corriger. »

Où sont les femmes ?

À l'origine de toutes ces réflexions, il y a un douloureux constat : malgré les prises de conscience et les nombreuses initiatives des dernières décennies, les femmes sont encore peu présentes dans le domaine des sciences et de la technologie. « J'ai vécu en Roumanie les 20 premières années de ma vie et là-bas, on n'observait pas ce phénomène, remarque Doina Precup, chercheuse en informatique à l'Université McGill. Ce manque d'intérêt des filles pour les sciences et les mathématiques est-il culturel ? J'aimerais comprendre. »

C'est Doina Precup, avec Angelique Mannella, qui a mis sur pied le programme AI for Good Summer Lab dans l'espoir d'attirer et de retenir les femmes en intelligence artificielle. 

« Je veux m'assurer que les filles comprennent que ce sont des métiers très créatifs qui ne se résument pas à faire de la programmation sur un ordinateur toute seule dans un coin. C'est très diversifié. » 

- Doina Precup, chercheuse en informatique à l'Université McGill, au sujet du programme AI for Good Summer Lab

La troisième cohorte de jeunes femmes est arrivée à Montréal il y a quelques semaines. Elles viennent d'un peu partout au pays pour participer à des ateliers, développer leurs idées et multiplier les contacts. « Je veux qu'elles développent un réseau sur lequel elles pourront s'appuyer au cours des prochaines années », affirme Doina Precup.

La question du recrutement des femmes est aussi au coeur des réflexions de Valérie Pisano, qui est à la tête de Mila depuis un peu plus d'un an. « C'est un enjeu crucial, insiste-t-elle. On essaie d'accompagner les femmes tout au long du processus de recrutement. Financièrement, on essaie d'offrir plus. On essaie de comprendre leur processus de décision : pourquoi certaines hésitent à accepter un emploi ? Il y a peut-être des éléments dissuasifs dans notre milieu que nous pouvons travailler ? Lorsqu'une femme essaie d'intégrer un monde dominé par les hommes, il y a toutes sortes de détails qui peuvent faire en sorte qu'à la fin, elle n'acceptera pas l'emploi. Nous essayons d'être attentifs à cela. »

« Les domaines scientifique et technologique sont encore très machos, ajoute la chercheuse. Tant qu'ils vont le rester, on va avoir des robots machos... »




Les plus populaires : Société

Tous les plus populaires de la section Société
sur Lapresse.ca
»

Autres contenus populaires

La liste:-1:liste; la boite:219:box; tpl:html.tpl:file
image title
Fermer