Chefs de file dans la recherche, le Canada et le Québec traînent la patte dans l’application de l’intelligence artificielle (IA). Une des solutions, à laquelle contribue activement Olivier Blais, cofondateur de l’entreprise montréalaise Moov AI : élaborer une norme ISO qui établirait la fiabilité et l’éthique des applications.

Son objectif est de faire sortir l’IA des laboratoires et de voir plus de projets concrets s’implanter dans les entreprises. On estime que jusqu’à 85 % des projets d’IA vont être « mis aux poubelles », faute d’arriver à démontrer leurs bénéfices, note M. Blais.

« Il y a beaucoup de concret quand tu sors du Canada, mais nous, on a une forme de dissonance cognitive. On a des pôles de recherche reconnus, deux des trois parrains de l’apprentissage profond sont canadiens, on mène en recherche, mais on est très loin en ce qui concerne l’application. Il faut amener du concret. »

Lignes directrices

Depuis 2017, 33 pays, dont le Canada, travaillent sur le plan international à un ensemble de normes appelé ISO/IEC JTC 1/SC 42, qu’on résume par SC 42. Les travaux sont effectués sous l’égide de deux organismes, l’Organisation internationale de normalisation (ISO) et la Commission électrotechnique internationale (IEC).

Le cofondateur de Moov AI, jeune pousse fondée il y a trois ans, a proposé en mai 2020 une méthode d’analyse applicable à toutes les industries, appelée Quality Evaluation Guidelines for AI Systems, qui a été retenue et pour laquelle un groupe de travail formé d’experts internationaux a été mandaté en juin dernier.

On s’attend à ce que cette norme soit publiée vers le milieu de l’année 2023.

En entrevue, M. Blais évite farouchement le jargon associé à ce type de processus de normalisation. « On travaille sur des lignes directrices hyper concrètes […]. Si on est capable de bien structurer l’IA, on va contribuer à ce qu’elle soit plus utile et plus sécuritaire pour les gens. »

Mais comment évaluer la qualité d’une solution en IA ? Contrairement à des normes industrielles plus classiques, comme la série des ISO 9000, « il n’existe pas de listes d’éléments pour s’assurer qu’une solution soit de bonne qualité, précise-t-il. C’est rare. Habituellement, il y a une base qui est disponible. Ce qu’on fait est très avant-gardiste, c’est quelque chose qui n’existait pas ».

S’ajuster aux turbulences

Le premier défi est d’établir l’exactitude d’une application. « On va proposer des paramètres et des indicateurs de performance. Il s’agit de les mesurer, de développer une cible, de trouver les bons indicateurs selon différents types de problèmes. »

L’autre grand chantier, c’est d’arriver à évaluer la « robustesse » d’une intelligence artificielle, à quantifier sa capacité à s’adapter à des changements de tendance dans les données.

Tu as beau travailler beaucoup sur une solution, il faut qu’elle puisse évoluer dans le temps. Le gros défi, qui est sous-estimé, c’est le déploiement des stratégies d’évolution. Les gens n’y pensent pas encore assez.

Olivier Blais, cofondateur de Moov AI

Il cite l’exemple de la solution pour laquelle Moov AI a accompagné la Société de transport de Montréal afin de prédire la fréquentation du métro, qui s’est avérée fiable malgré les changements fréquents de données. « Tout chavirait chaque fois que François Legault annonçait de nouvelles mesures sanitaires […]. La COVID-19 a changé énormément de choses, beaucoup d’entreprises ont dû faire évoluer leurs techniques à partir de nouvelles données. »

Cela dit, les changements radicaux dans les données viennent plus souvent de l’intérieur des entreprises, par exemple lorsque des bases de données sont modifiées, que du contexte, note-t-il. « Il faut s’assurer d’avoir des mécanismes pour la stabilité des données, d’avoir une alerte si les données changent trop, pour éviter les résultats qui n’ont pas de sens. »

Enfin, spécificité typique de Montréal où on a lancé en 2017 la Déclaration pour un développement responsable de l’intelligence artificielle, la norme devra tenir compte de l’éthique. « Il s’agit de s’assurer qu’on minimise les risques éthiques, qu’on n’a pas de préjugés injustifiés, qu’on ne cause pas un préjudice à des groupes particuliers, explique M. Blais. Ce ne sont pas des règles hors de tout doute. Mais je ne peux pas dire que mon outil est de qualité si je ne peux m’assurer qu’il ne cause pas de préjudices. »