Alors qu’une seconde vague de COVID-19 est redoutée, les applications de traçage numérique de la population pourraient être de précieuses alliées, mais des experts préviennent que cette forme de surveillance de la population a des limites et peut aussi être source de discrimination et de stigmatisation.

Stéphanie Marin
La Presse canadienne

Depuis le début de la pandémie, ces applications défraient les manchettes un peu partout dans le monde : certains les craignent, d’autres les envisagent avec espoir.

Dans tous les cas, elles soulèvent des questions, et c’est pourquoi elles ont fait l’objet d’un débat virtuel d’experts mardi, organisé par l’Institut du Nouveau Monde (INM). L’Institut est un organisme non partisan dont la mission est d’accroître la participation des citoyens à la vie démocratique.

Ces applications visent à retracer et aviser les personnes qui ont été à proximité physique de ceux et celles ayant contracté la COVID-19 en utilisant les données de géolocalisation ou la technologie Bluetooth des téléphones cellulaires.

Plusieurs pays utilisent déjà cette technologie pour lutter contre la propagation du virus et les gouvernements du Québec et du Canada l’envisagent. L’Alberta a déjà choisi d’aller de l’avant avec une application qui peut être téléchargée de façon volontaire.

Alors que la possibilité d’une seconde vague plane, les gouvernements cherchent à se préparer, en l’absence de traitement et de vaccin pour la COVID-19, a souligné en introduction la professeure Marie-Pascale Pomey, du Département de gestion, évaluation et politique de santé de l’École de santé publique de l’Université de Montréal.

De telles applications pourraient éviter un autre confinement total, car si les éclosions sont bien localisées, cela donne la possibilité de faire des « confinements ciblés », sans fermer toute la province. « Mais pour cela, cela prend de l’information », dit-elle.

Elle a recensé diverses préoccupations des experts et des citoyens : les aînés et les personnes économiquement défavorisées n’ont pas tous accès à des téléphones intelligents possédant ces technologies. Elles pourraient être laissées en plan par une telle façon de procéder, alors qu’elles ont été les plus durement touchées par la première vague de la COVID-19.

Il faut toutefois noter qu’au Québec, comme ailleurs, les autorités sanitaires ont effectué ce travail de retraçage avec l’aide de leurs employés.

Les citoyens s’inquiètent aussi d’une mauvaise utilisation des données recueillies et d’atteintes à leur vie privée, a noté la professeure Pomey. Ils ne veulent pas que cette technologie se retourne contre eux, dit-elle.

Les risques de discrimination et de stigmatisation sont bien présents, ainsi que le fait que les individus n’auront peut-être pas le choix de se servir ou non d’une telle application : par exemple, si l’employeur requiert son utilisation.

Ceux qui refusent perdront-ils leur emploi ? a demandé lors du débat Karine Gentelet, professeure agrégée à l’UQO, chercheure au Laboratoire de cyberjustice et à l’Observatoire international des impacts sociétaux de l’intelligence artificielle et du numérique, qui craint aussi les violations des droits de la personne.

La banalisation de l’usage de ces technologies ouvre la porte à la surveillance des populations notamment vulnérables et marginalisées ou habitants dans certains quartiers.

Professeure Gentelet donne en exemple la recrudescence d’actes racistes envers les personnes d’origine asiatique depuis le début de la pandémie.

Mardi, Amnistie internationale mettait justement en garde contre les applications de traçage, notamment celles du Bahreïn et du Koweït, que l’organisme juge « dangereuses » pour la vie privée.

Et puis, des problèmes sont déjà survenus : la Norvège a dû retirer son application de traçage en raison de problèmes de sécurité et une application utilisée en France a amassé beaucoup plus d’informations que ce qui avait été promis, a rappelé la professeure Gentelet, aussi conseillère sur les enjeux d’intelligence artificielle pour Amnistie internationale Canada francophone.

Elle s’inquiète que certaines populations soient stigmatisées par l’usage de ces applications.

Jocelyn Maclure, professeur titulaire à la Faculté de philosophie de l’Université Laval et président de la Commission de l’éthique en science et en technologie (CEST) du gouvernement du Québec, note que le débat est très polarisé.

Il juge qu’il faut éviter le « technosolutionisme » (chercher à résoudre tous les problèmes sociaux complexes avec la technologie), mais aussi le « catastrophisme ».

Il ne croit pas qu’il faille exclure d’emblée ces applications, mais juge qu’il faut prendre le temps d’évaluer leurs bénéfices et leurs défauts.

Yoshua Bengio, le directeur scientifique de l’Institut québécois d’intelligence artificielle (MILA), qui a développé l’application de traçage COVI, a aussi participé au débat de l’INM.

Il a souligné bon nombre de solutions pour prévenir les violations des droits des citoyens : commencer par un projet pilote (le Royaume-Uni a procédé de la sorte) et la création d’une application qui va s’autodétruire avec la fin de la pandémie, tout comme les données recueillies — c’est le cas de COVI, l’application créée par MILA. Il a aussi signalé que des pays ont développé des technologies Bluetooth bon marché (5-10 $) pour que les personnes âgées y aient accès.

La rapidité de la mise en œuvre de telles applications dépend de la confiance que l’on a envers les différentes technologies, a-t-il dit. Mais selon lui, « étant donné le nombre de morts, on ne peut pas se permettre de dire “on attendra d’être 100 % sûrs avant d’essayer quelque chose” ».

La professeure Pomey croit qu’on peut regarder la question sous l’angle d’une espèce de compromis : comment sommes-nous prêts à renoncer à des libertés (en dévoilant des informations personnelles) pour gagner certaines libertés et éviter un confinement ?

Mais pour cela, il faut consulter la société civile, estime la professeure Gentelet, et faire de l’éducation pour que les gens comprennent de quoi il est question, en les consultant avant de décider ce qui est acceptable ou non.

« Il faut un débat de fond », dit-elle.

Sur le plan de la légitimité démocratique, « il me semble qu’un débat parlementaire s’impose », a renchéri M. Maclure.