(Denver) En 2022, Jayashree Kalpathy-Cramer a vu dans le Lancet Digital Health une étude qui illustrait parfaitement les promesses de l’intelligence artificielle (IA)… et les raisons pour lesquelles son adoption par la médecine serait compliquée.

« L’IA était capable, à partir de radiographies de poumons, de déterminer si le patient était ou non afro-américain », a expliqué l’ingénieure électrique de l’Université du Colorado à la dernière réunion annuelle de l’Association américaine pour l’avancement des sciences (AAAS), à la mi-février à Denver. « C’était extrêmement précis. Mais on n’avait aucune idée de la façon dont l’IA arrivait à cette conclusion. Et ça ne servait à rien sur le plan médical. »

La conférence de l’AAAS à laquelle participait Mme Kalpathy-Cramer, qui dirige la division d’IA médicale à la faculté de médecine de l’université, portait sur le déploiement de l’IA en médecine, notamment sur la réduction des stéréotypes créés par l’IA. « L’IA peut faire des erreurs graves pour les populations sous-représentées dans les études médicales, a-t-elle dit. Il faut de grandes bases de données pour entraîner les algorithmes de prédiction basés sur l’IA. Si des sous-populations ont des profils de risque différents pour certaines maladies, la conclusion d’une analyse IA va être basée erronément sur la moyenne. »

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DU COLORADO

Jayashree Kalpathy-Cramer, ingénieure électrique de l’Université du Colorado

Ces « stéréotypes » (bias) peuvent aussi simplement refléter les iniquités existantes, dit l’ingénieure du Colorado. Ainsi, en 2020, une étude de l’Université Duke, publiée dans JMIR Medical Informatics, a montré que les médecins qui entraînaient un algorithme IA de détection de septicémie mettaient plus de temps à diagnostiquer cette infection généralisée chez les enfants hispaniques, peut-être à cause de problèmes de détection. Il a fallu corriger l’algorithme pour éviter qu’il postule que la septicémie progressait moins rapidement chez les Hispaniques.

Dans l’étude de 2022, menée par des pneumologues et des ingénieurs de l’Université Emory à Atlanta, ceux-ci avaient enlevé les mesures de densité osseuse des données des radiographies, parce que cette variable est étroitement liée à une ascendance afro-américaine. « Dans ce cas, il n’y a pas vraiment de dommage médical à l’identification des Afro-Américains par l’IA, mais l’histoire laisse malgré tout perplexe. »

Définition

La question des stéréotypes de l’IA forcera un travail qui n’a jamais été fait sur les iniquités en santé, selon Mme Kalpathy-Cramer. « Pour voir si un algorithme IA de diagnostic ou de dépistage fonctionne bien dans toutes les sous-populations, il faudra définir mathématiquement l’iniquité. Est-ce qu’il faut avoir la même sensibilité et spécificité [taux de faux positifs et faux négatifs] ? Sinon, quel écart accepte-t-on ? »

Une question similaire devra se poser pour d’autres possibilités d’erreurs de l’IA.

Dans certains cas, un algorithme IA donne des résultats différents avec le même patient, si on soumet plusieurs fois les mêmes données. C’est manifestement un problème qu’il faut régler.

Jayashree Kalpathy-Cramer, ingénieure électrique de l’Université du Colorado

« Mais on pourrait accepter un résultat différent sur 10 000 ou 100 000 ou 1 million, parce que même les médecins font des erreurs. Il faudra voir si on accepte que la performance, en ce qui concerne la reproductibilité des résultats, puisse être légèrement différente dans différentes populations. »

Hallucinations

Le grand problème de l’IA en santé est la possibilité d’« hallucinations ». « Si vous avez une vidéo sur TikTok avec quelqu’un qui a six doigts, ce n’est pas très grave, dit Mme Kalpathy-Cramer. Mais en médecine, les diagnostics et les traitements sont des questions de vie ou de mort. On a vu plusieurs exemples de ChatGPT, par exemple, qui écrivait des choses complètement disjonctées, par exemple dans des conversations avec un humain qui lui posait des questions. Ce genre d’hallucinations en médecine peut mener à des verdicts complètement erronés. Il y a beaucoup de travaux sur l’expression du doute en IA, pour que les algorithmes ne se trompent pas de façon assurée, mais indiquent quand leur analyse contient beaucoup d’incertitudes. »

ILLUSTRATION TIRÉE DU SITE D’ARS TECHNICA

Une image IA publiée puis retirée par la revue Frontiers in Cell Development and Biology en février montrant un rat avec un pénis démesuré résultant d’une mauvaise utilisation de l’IA

Juste avant la conférence de l’AAAS, la revue Frontiers in Cell Development and Biology avait publié, avec une étude chinoise, un graphique anatomique d’un rat fabriqué par le logiciel IA Midjourney. Le rat avait un pénis deux fois plus gros que son corps, et l’anatomie du pénis était complètement inventée, avec des termes comme « cellules iollotte sserotgomar » et « testtomcels ». « C’est un excellent exemple des dangers des hallucinations de l’IA en médecine », a dit Mme Kalpathy-Cramer.

Même si les verdicts de l’IA médicale sont justes, les médecins hésitent à s’en servir s’ils ne comprennent pas le processus d’analyse de l’algorithme. « Pour le moment, cette peur de la boîte noire de certains verdicts IA est un frein important. Par exemple, on ne comprend pas comment l’IA peut déterminer l’ascendance afro-américaine à partir de radios de poumons. Cela dit, parfois les médecins ne peuvent pas complètement expliquer les intuitions qui sous-tendent leurs investigations à propos d’un patient. »

PHOTO TIRÉE DU SITE DE L’INSTITUT NATIONAL DES STANDARDS ET DE LA TECHNOLOGIE DES ÉTATS-UNIS

Reva Schwartz, responsable du dossier de l’IA à l’Institut national des standards et de la technologie des États-Unis

Corruption

Tous ces risques ont mené le gouvernement américain à énumérer 72 variables que doivent documenter les programmes d’IA médicale, selon Reva Schwartz, responsable du dossier à l’Institut national des standards et de la technologie (NIST) des États-Unis.

« La question des stéréotypes est abordée dans plusieurs de ces 72 points, a dit Mme Schwartz, qui prenait la parole après Mme Kalpathy-Cramer. Nous voulons aussi éviter que l’utilisation de dossiers médicaux pour entraîner les algorithmes IA génère des problèmes de confidentialité [data privacy]. »

Une troisième conférencière, Maja Vukovic d’IBM Research, a quant à elle estimé que le danger le plus sous-estimé de l’IA médicale est la possibilité qu’un ennemi, un terroriste ou un criminel « empoisonne », ou corrompe, les bases de données utilisées pour entraîner les algorithmes IA, ce qui générerait des erreurs médicales.

En savoir plus
  • 6,6 milliards US
    Dépenses en IA médicale aux États-Unis en 2021
    Source : Artificial Intelligence in Healthcare
    763 millions US
    Dépenses en imagerie médicale IA aux États-Unis en 2022
    Source : Managed Healthcare Executive