L’intelligence artificielle ne sert pas qu’à vous proposer de nouvelles séries sur Netflix. Des chercheurs de Concordia ont montré qu’elle peut être utilisée pour déceler l’anorexie chez les internautes qui publient des messages sur les réseaux sociaux.

Philippe Mercure Philippe Mercure
La Presse

« On pense que des systèmes pourraient éventuellement surveiller ce qui se dit sur les réseaux sociaux et avertir une personne qui souffre d’anorexie, peut-être sans le savoir, et la [diriger vers] des professionnels », dit Leila Kosseim, professeure au Laboratoire de linguistique computationnelle à l’Université Concordia.

Avec ses étudiants Elham Mohammadi et Hessam Amini, l’experte a participé à une compétition organisée par le Conference and Labs of the Evaluation Forum, en Suisse, et réunissant une dizaine d’équipes internationales. L’équipe montréalaise a d’abord dû entraîner son système basé sur des algorithmes d’apprentissage profond.

Pour ça, elle a utilisé des messages publiés par 815 utilisateurs sur le site de communautés virtuelles Reddit. On savait que certains d’entre eux souffraient d’anorexie parce qu’ils l’avaient déclaré eux-mêmes. En analysant le langage utilisé, autant les mots que les émoticônes, le système tentait de deviner si les messages avaient été publiés par une personne anorexique.

Pendant cette phase, les chercheurs ont indiqué aux algorithmes s’ils visaient juste ou non – un processus appelé « entraînement dirigé ». Puis l’heure de vérité a sonné. Pendant la compétition, les organisateurs ont présenté une série de messages publiés sur Reddit par un même internaute en ordre chronologique. L’algorithme devait trancher si cette personne souffrait d’anorexie ou non.

Équilibre à atteindre

« L’idée est non seulement de détecter le problème d’anorexie, mais de le faire de façon précoce. Il y a un équilibre à atteindre entre la précision et la rapidité », explique Leila Kosseim. L’équipe de Concordia a justement obtenu la première place pour l’atteinte de cet équilibre. La rapidité de détection peut être cruciale quand on tente de détecter des problèmes comme les idées suicidaires ou la cyberintimidation, par exemple.

Étonnamment, on ignore quels indices exacts le modèle utilise pour déceler l’anorexie. « On a un gros problème de boîte noire, commente Leila Kosseim. Je peux vous montrer les mathématiques qui expliquent comment le modèle apprend, mais je ne peux pas vous montrer un message et vous dire pourquoi le système l’a déclaré comme provenant d’une personne anorexique. Ce problème d’explication qu’on a avec les modèles d’apprentissage profond est un problème de recherche en soi. »

Les chercheurs précisent qu’un tel système ne remplacerait pas l’évaluation par un professionnel de la santé mentale et qu’il pourrait soulever des enjeux de vie privée. Qui faudrait-il aviser en cas de problème détecté, et faudrait-il obtenir le consentement préalable de la personne concernée ? Leila Kosseim affirme que ces questions dépassent son expertise.

« Avec le volume d’interactions en ligne, repérer les billets dont le propos laisse présumer une anorexie est comme chercher une aiguille dans une botte de foin, dit-elle. Pour un humain, c’est impossible d’en assurer une surveillance constante. Mais une machine pourrait repérer ces aiguilles. »