En réponse au texte de Jocelyn Maclure, « Entre le technosolutionnisme et le catastrophisme »*, publié le 19 mai

Yves Gingras Yves Gingras
Directeur scientifique de l’Observatoire des sciences et de technologies (OST), UQAM

Dans son texte de La Presse du 19 mai dernier, Jocelyn Maclure discutait, avec un œil critique, la propagande, jusqu’ici unilatérale, du MILA (acronyme qui signifie, rappelons-le, Montreal Institute for Learning Algorithms), dont les porte-parole, qui occupent toutes les tribunes médiatiques, vantent leur nouveau gadget supposément intelligent.

Leur appli COVI est en effet censée évaluer le risque individuel d’infection à la COVID-19 et pourrait même contribuer à « renforcer la capacité des individus et leur solidarité face aux conséquences de la pandémie ».

Professeur de philosophie à l’Université Laval et président de la Commission de l’éthique en science et en technologie du Québec, Jocelyn Maclure a très bien vu « la philosophie politique sous-jacente aux choix de conception » du MILA, lequel se pense au-dessus des institutions publiques québécoises. Rappelant avec raison que « le MILA jouit depuis le début de tribunes publiques extraordinaires », l’auteur note qu’il « est maintenant temps que d’autres points de vue […] se fassent entendre ».

Répondant à cet appel, je voudrais apporter ici un point de vue complémentaire en notant que la stratégie du MILA consiste en fait à s’arroger le monopole sur toutes les questions qui portent sur les algorithmes d’intelligence apparente (IA, et non pas « intelligence artificielle » comme on le dit trop souvent, car il n’y aucune intelligence dans les algorithmes).

En effet, alors que l’on ne peut douter de l’expertise mondialement reconnue du professeur Joshua Bengio en matière d’algorithmes d’apprentissage profond, on peut légitimement douter de la valeur probante de ses discours sur les aspects éthiques et sociétaux de ces technologies, discours qui ne relèvent pas seulement de la philosophie spontanée, mais sont aussi le reflet de choix intéressés.

Car, comme le note Jocelyn Maclure, ce devait être à « des experts en éthique indépendants de se pencher sur les risques éthiques » des nouvelles technologies, et non pas aux auteurs des gadgets eux-mêmes de nous affirmer de manière péremptoire que tout est pour le mieux dans le meilleur des mondes possibles de l’IA.

À ce sujet, on peut aussi se poser de sérieuses questions quant à la composition du Conseil consultatif fédéral en matière d’intelligence artificielle qui a, entre autres, pour mission « de promouvoir une vision humaine et éthique de l’intelligence artificielle ». Y siègent non seulement Joshua Bengio, grand promoteur de l’appli COVI, mais aussi son ami le professeur Geoffrey Hinton, qui dirige Vector, pendant torontois du MILA montréalais et lui aussi grand promoteur d’algorithmes. Ce comité, dominé par des gens aux intérêts financiers évidents en faveur de l’IA comme Pierre Boivin de Claridge et Natalie Cartwright de FinIA comprend bien sûr, pour faire bonne mesure, un « éthicien » en la personne de Marc-Antoine Dilhac, professeur de philosophie à l’Université de Montréal. Or, comme l’affirme UdeMnouvelles, « Dilhac et Bengio ont travaillé main dans la main pour établir les principes d’une intelligence artificielle éthique et responsable ». C’est dire le degré d’indépendance de l’éthicien, spécialiste de philosophie politique, dans tel attelage « consultatif » bancal.

Il ne suffit pas de se draper dans la rhétorique généreuse de « l’IA pour l’humanité » pour justifier d’engranger sans examen critique des centaines de millions de dollars de fonds publics. Il est grand temps pour les journalistes et pour le public en général de se remémorer les règles éthiques de base définissant les conflits d’intérêts. Laisserait-on, par exemple, le DDidier Raoult, promoteur connu de la chloroquine, définir lui-même les règles éthiques et la méthode de validation de ses propres essais cliniques ? Bien sûr que non !

Tout essai clinique est d’ailleurs nécessairement supervisé par des experts indépendants de l’équipe qui conduit l’étude, et ce, dans le but d’éviter de regrettables conflits d’intérêts.

Ces précautions élémentaires ne sont pas respectées actuellement avec le MILA, dont l’appli COVI reste à ce jour non testée et non validée par des experts indépendants.

Il faut donc savoir gré à Jocelyn Maclure d’avoir enfin appelé à un peu plus de réflexion critique face à un discours envahissant fondé sur des arguments d’autorité mal placés et dont la naïveté ou le cynisme sont plus que problématiques. Car si la distance physique est essentielle pour se prémunir contre le virus qui nous assaille actuellement, une saine distance critique face à de prétendues solutions technologiques miracles est non moins essentielle, quel que soit l’aura scientifique de leurs promoteurs.

À l’adage rappelé par Maclure selon lequel « lorsque l’on a un marteau dans les mains, tout ressemble à un clou », on peut ajouter cet autre avertissement, plus profond peut-être, selon lequel la route vers l’enfer est pavé de bonnes intentions.

* Lisez « Entre le technosolutionnisme et le catastrophisme »