Avant de faire partie de la conception d’un avion, l’intelligence artificielle devra être capable de se faire comprendre. C’est ce à quoi devraient servir les 2,9 millions de dollars attribués lundi par le gouvernement du Québec à un consortium comprenant des entreprises québécoises et françaises.

Environ 30 millions de dollars sur cinq ans ont déjà été promis à ce projet nommé DEEL, pour « DEpendable Explainable Learning » ou « intelligence artificielle explicable et robuste ».

La somme avancée par Québec devrait être égalée par un consortium d’entreprises québécoises ou installées au Québec, dont Bombardier et CAE. Le gouvernement fédéral entend y consacrer 2,5 millions. Le reste de la somme (environ 15 millions d’euros) proviendra de partenaires français publics et privés, dont Airbus et Thales. Le budget prévoit qu’il faudra trouver encore 10 millions additionnels au cours des prochaines années.

« Le but est de former les étudiants de cinq universités aux problèmes spécifiques à l’aérospatiale », explique Alain Aubertin, président-directeur général du Consortium de recherche pour l’innovation en aérospatiale au Québec (CRIAQ), bénéficiaire direct des sommes promises par Québec.

L’apprentissage profond

Concrètement, le type d’intelligence artificielle le plus couramment utilisé actuellement, l’apprentissage profond, repose sur des algorithmes qui analysent de grandes quantités de données pour en extirper des tendances, des prévisions ou des décisions. Or, ces systèmes constituent une forme de boîte noire : on peut voir quelles données y entrent, on peut généralement constater le résultat (ce qui en sort), mais on ignore exactement comment l’intelligence artificielle a fait le lien entre les deux.

Qui plus est, ces systèmes sont en constant apprentissage, de sorte qu’une deuxième expérience menée avec les mêmes données peut produire un résultat différent.

Le problème avec ces intelligences artificielles, c’est qu’on ne sait pas comment elles apprennent. Or, des ordinateurs qui apprennent constamment, ça pose un défi en aviation, où on veut des systèmes déterministes.

Alain Aubertin, président-directeur général du Consortium de recherche pour l’innovation en aérospatiale au Québec

L’imprévisibilité de l’intelligence artificielle peut convenir dans des applications comme la sélection d’un film à télécharger, voire pour des transactions financières complexes, fait-il valoir. Mais lorsqu’il s’agit de lui confier les commandes d’un appareil transportant 300 passagers, il y a un problème.

Pour être « certifiables » par des organismes comme Transports Canada ou la Federal Aviation Administration (FAA) américaine, des systèmes contrôlés par l’intelligence artificielle devront donc être plus prévisibles et en mesure d’« expliquer » leurs décisions.

« On en a encore beaucoup à comprendre sur quelles données fournir, par exemple, ou sur comment être en mesure de prédire une certaine étendue de décisions. […] Ce n’est pas demain matin qu’on va faire ça. C’est plus dans 10 ans. Mais il faut commencer maintenant. »