Robert Williams, un Afro-Américain de la région de Detroit, aurait à coup sûr préféré ne pas devenir célèbre. Il a récemment fait la manchette, aux États-Unis, en tant que premier cas connu d’erreur sur la personne à la suite de l’utilisation d’un logiciel de reconnaissance faciale par des policiers.

Alexandre Sirois Alexandre Sirois
La Presse

La technologie est en vogue. La Sûreté du Québec est d’ailleurs en train de faire l’acquisition d’un tel logiciel.

Mais la technologie est aussi très controversée. L’entreprise américaine Clearview AI, qui se spécialise dans ce secteur, vient d’annoncer son retrait du Canada. La GRC, qui avait utilisé son logiciel, a cessé d’y avoir recours.

La mésaventure de Robert Williams démontre à quel point il faut prendre au sérieux les mises en garde de nombreux experts quant aux dangers potentiels de la reconnaissance faciale.

PHOTO ARCHIVES ASSOCIATED PRESS

Robert Williams

L’État du Michigan s’est servi de cette technologie pour comparer la vidéo d’un voleur de montres avec les images qui figurent dans une banque de données de photos des détenteurs de permis de conduire. L’algorithme s’est trompé. Les policiers n’ont visiblement pas pris le temps de valider, eux-mêmes, le verdict du logiciel. Robert Williams a été arrêté et menotté sur son terrain, devant sa femme et ses enfants. Direction : la prison.

Le New York Times a expliqué que les détectives qui l’ont interrogé le lendemain ont rapidement constaté qu’il ne ressemblait pas au voleur. « Je pense que l’ordinateur s’est trompé », aurait dit l’un d’eux. Bravo, champion !

* * *

Cette bourde démontre à quel point l’utilisation de la reconnaissance faciale doit être encadrée de façon extrêmement rigoureuse par nos gouvernements.

Rappelons qu’en février dernier, les autorités de protection des renseignements personnels du Canada, du Québec, de la Colombie-Britannique et de l’Alberta ont ouvert une enquête sur la technologie de reconnaissance faciale qui était alors offerte par l’entreprise Clearview AI à ces clients canadiens.

Dans ce contexte, comment expliquer que la Sûreté du Québec songe toujours à acheter un logiciel de reconnaissance faciale ? Et pourquoi le ministre délégué à la Transformation numérique gouvernementale, Éric Caire, s’est-il porté à la défense de cette initiative ?

Explications : on ne compare pas tout à fait, ici, des pommes à d’autres pommes.

Si vous avez poussé un soupir de soulagement en apprenant que Clearview AI tournait le dos au Canada, vous avez eu raison. Bon débarras. Le logiciel offert par cette entreprise utilisait une banque de données de plus de trois milliards de photos recueilles sur des sites web ainsi que de renseignements personnels qui y étaient associés.

Les policiers comparaient donc vraisemblablement des photos ou des vidéos de criminels présumés avec des images d’individus n’ayant commis aucun crime ni donné leur consentement pour qu’on utilise leurs photos.

« Quel est donc ce monde où un dispositif réservé à la traque des criminels récidivistes peut-être étendu à l’ensemble de la population dans l’indifférence générale ? », a déploré en début d’année le journaliste français Olivier Tesquet au sujet de ces pratiques, dans un petit ouvrage très éclairant sur les technologies de surveillance, À la trace. C’est effectivement très préoccupant.

D’autant plus que les forces de l’ordre peuvent possiblement utiliser le logiciel de Clearview AI pour faire de la surveillance en temps réel afin d’identifier les participants à une manifestation, par exemple. En somme, traquer les faits et gestes de tout un chacun.

Or, la Sûreté du Québec dit pour sa part vouloir uniquement comparer des photos et des images vidéo prises sur des scènes de crimes avec celles qui se retrouvent dans la Banque centrale provinciale d’empreintes digitales et de photographies signalétiques. Celles de criminels, en somme. Elle souhaite donc utiliser un logiciel pour faire ce que les agents font déjà, mais de façon plus rapide et efficace.

Les bénéfices pourraient, dans ce cas, être supérieurs aux risques. Mais utilisons ici le verbe « pouvoir » au conditionnel, car le diable est dans les détails. On ne sait pas comment ils comptent encadrer l’utilisation de ce logiciel. Ce n’est pas rassurant.

* * *

Il est impératif d’obtenir de la Sûreté du Québec à la fois davantage de transparence et des garanties sur les lignes rouges qui ne devront en aucun cas être franchies.

Prudence est un mot trop faible pour désigner l’attitude qu’il convient d’adopter face à cette technologie. L’utilisation d’un logiciel de reconnaissance faciale doit être encadrée avec soin. Les dérives potentielles ne sont pas dérisoires. Nos droits fondamentaux sont en jeu.

À commencer par le risque de discrimination à l’égard des personnes racisées, nettement plus élevé qu’envers les hommes blancs, ont révélé plusieurs études. L’heure est à la lutte contre les biais ethniques des forces de l’ordre alors que la reconnaissance faciale, mal encadrée, va assurément les accentuer. Les biais des algorithmes ont été documentés. L’arrestation de Robert Williams, elle, vient d’en fournir une preuve concrète.

Même si on comprend pourquoi Québec ne souhaite pas de moratoire sur l’utilisation de la reconnaissance artificielle, on ne peut tout de même pas faire comme si cette nouvelle technologie était inoffensive. Ni croire sur parole ceux qui, comme la Sûreté du Québec, promettent qu’ils ne joueront pas aux apprentis sorciers.