L’intelligence artificielle (IA) peut facilement perpétuer les inégalités sociales et sanitaires. Mais il y a des manières de corriger les algorithmes. Des chercheurs ont proposé des pistes de solution au dernier congrès annuel de l’Association américaine pour l’avancement des sciences (AAAS), au début de mars à Washington.

Les coûts des soins…

En 2019, des chercheurs américains ont publié dans Science l’exemple classique des périls de l’utilisation de l’IA en santé, et, du même coup, les remèdes à ce problème. « C’est une situation qu’on retrouve fréquemment avec l’IA », explique Emma Pierson, informaticienne de Cornell Tech, un institut d’études supérieures de l’Université Cornell à New York. « Dans le cas de l’étude de 2019, l’idée était d’utiliser les coûts de santé futurs pour identifier les patients prioritaires dans une cohorte ayant plusieurs maladies. »

PHOTO TIRÉE DU SITE WEB DE CORNELL TECH

Emma Pierson, informaticienne de Cornell Tech

Le problème aux États-Unis, c’est que les Blancs sont plus susceptibles d’avoir de bonnes assurances, et donc d’avoir accès à des soins. Si on corrigeait la distorsion du coût, la proportion de patients noirs privilégiés passait de 18 % à 47 %.

Emma Pierson, informaticienne de Cornell Tech

… et douleurs ostéoarthritiques

Mme Pierson a elle-même publié sur les distorsions de l’IA en santé. En 2021 dans la revue Nature Medicine, elle a montré que l’analyse des images par rayons X du genou par l’IA reflétait bien les rapports de douleur des patients souffrant d’arthrose chez les Blancs, mais pas chez les Noirs. « Les patients moins éduqués et plus pauvres avaient aussi une sous-évaluation de la gravité de leur arthrose, dit Mme Pierson. Ça diminuait leur accès à l’opération du genou. » Dans ce cas, par contre, le correctif à apporter à l’algorithme d’IA n’était pas évident.

Bases de données

L’un des grands problèmes est que les bases de données utilisées pour entraîner les programmes d’IA ont des distorsions par rapport à la société. « Souvent, les Blancs sont surreprésentés dans les essais cliniques », dit Mme Pierson. Lance Waller, de l’Université Emory à Atlanta, qui organisait la séance de l’AAAS, ajoute que les essais cliniques regroupent souvent des gens en bonne santé. « On veut éviter les interférences avec les données liées au médicament, le bruit de fond qui empêche d’avoir une puissance statistique », dit M. Waller, qui est spécialiste des corrections des distorsions dans les bases de données en santé. « On voit aussi le même problème dans l’utilisation de l’IA dans les ressources humaines. Si l’IA est utilisée pour l’écrémage initial des candidats pour un poste dans une entreprise qui compte une grande majorité d’hommes, les femmes risquent d’être automatiquement défavorisées. On a même vu des situations où des mots-clés utilisés davantage dans les CV des hommes, comme l’“exécution de tâches”, sont privilégiés par un algorithme entraîné avec trop de CV d’hommes. »

Police

PHOTO GETTY IMAGES

Les algorithmes judiciaires doivent tenir compte des perceptions des populations plus susceptibles d'être visées par la police.

Les bases de données policières sont particulièrement problématiques, a expliqué Megan Price, une statisticienne qui dirige le Groupe d’analyse des données en droits de la personne (HRDAG) à San Francisco. « Certains types de crimes sont privilégiés par la police, et certains quartiers aussi, a expliqué Mme Price dans sa présentation. Il faut essayer d’inclure les perceptions et l’expérience des populations négligées ou plus susceptibles d’être visées par la police dans les algorithmes judiciaires. Ça peut introduire des distorsions dans l’évaluation par l’IA du risque de récidive, par exemple. » Mme Price n’est pas a priori opposée à l’IA. « Nous nous en sommes servis pour détecter les fosses communes de gens exécutés dans le cadre de la guerre contre les trafiquants de drogue au Mexique. »

Réseaux sociaux

Une solution potentielle à ces distorsions des bases de données est d’utiliser l’IA pour trouver des bases de données négligées par les chercheurs. « L’une de mes collègues à Cornell Tech, Tanzeem Choudhury, utilise l’IA pour trouver des marqueurs de certaines maladies dans les messages sur les réseaux sociaux, dit Mme Pierson. C’est un bon exemple d’une manière d’utiliser l’IA pour contrer les faiblesses de l’IA. » Le Laboratoire centré sur la personne (People Aware Computing Lab) de Mme Choudhury a notamment publié sur la détection à l’aide des « biomarqueurs numériques », des mots-clés sur les réseaux sociaux, de la fatigue mentale, de la schizophrénie, du complexe de persécution, de la douleur chronique, de l’anxiété et de la psychose.

IA dans le tiers-monde

PHOTO TIRÉE DU SITE WEB DE L’UNIVERSITÉ HARVARD

Milind Tambe, informaticien à l’Université Harvard et directeur du projet AI for Social Good de Google

Une autre séance du congrès de l’AAAS était beaucoup plus enthousiaste quant à l’utilisation de l’IA en santé. « Je comprends les inquiétudes sur les inégalités systémiques dans les pays riches, mais dans plusieurs pays en voie de développement, et même parmi les populations marginalisées des pays industrialisés, l’IA montre déjà de grandes promesses », indique le conférencier Milind Tambe, informaticien à l’Université Harvard et directeur du projet AI for Social Good de Google. Il cite l’exemple d’un programme visant à accompagner les mères pauvres en Inde, pour leur donner des informations sanitaires. « L’IA a permis de prédire quelles mères risquaient de quitter le programme. On va les voir chez elles pour leur donner un suivi personnalisé. »

Vous avez une question scientifique ? Posez-la à Mathieu Perreault.

Écrivez-nous
En savoir plus
  • 50 %
    Proportion des sociétés pharmaceutiques qui prévoient investir en IA en 2023
    Source : pharmaceutical technology
    60 %
    Proportion des Américains qui sont mal à l’aise devant l’idée que leur médecin utilise l’IA pour leurs soins
    Source : Pew Research Center
  • 3
    Nombre d’algorithmes d’IA approuvés par la FDA en radiologie en 2017
    Source : Goldman Sachs
    66
    Nombre d’algorithmes d’IA approuvés par la FDA en radiologie en 2022
    Source : Goldman Sachs