Après avoir refusé de révéler s’ils utilisaient une technologie controversée de reconnaissance faciale appelée Clearview AI, la Gendarmerie royale du Canada et le Service de police de la Ville de Montréal ont décidé de montrer leurs cartes : la GRC s’en est servi, dans des enquêtes d’exploitation de mineurs, mais pas le SPVM. 

Ces clarifications surviennent alors que les commissaires à la protection de la vie privée du Canada ont démarré, la semaine dernière, une vaste enquête nationale sur l’utilisation du logiciel de reconnaissance faciale par les corps policiers. 

Clearview AI utilise l’intelligence artificielle pour reconnaître des photos de suspects parmi une base de données de plus de 3 milliards d’images de citoyens. 

Une enquête du New York Times a révélé que ces images avaient été recueillies sans autorisation par Clearview dans des milliers de comptes personnels Facebook, YouTube, Twitter et de plusieurs autres réseaux sociaux. Les trois géants du web ont officiellement demandé à Clearview de cesser cette pratique, jugeant qu’elle viole le droit à la vie privée de leurs utilisateurs. 

Dans un communiqué diffusé tard jeudi, la GRC a déclaré avoir « commencé à utiliser et à examiner la technologie de reconnaissance faciale Clearview AI, dans une capacité limitée ». Son Centre national de coordination contre l’exploitation des enfants dispose de deux licences, dont il s’est servi à 15 occasions, ce qui lui a permis « d’identifier et de sauver deux enfants », indique le communiqué. 

« Nous avons aussi quelques unités au sein de la GRC qui mettent à l’essai, dans une capacité limitée, Clearview AI afin d’en déterminer l’utilité et de faciliter les enquêtes criminelles », ajoute la déclaration. 

La GRC avait jusqu’ici refusé de dévoiler ces informations, disant ne jamais faire de commentaires sur ses « outils et techniques d’enquête ». 

Le Commissariat à la protection de la vie privée du Canada a annoncé vendredi avoir lancé une enquête en vertu de la Loi sur la protection des renseignements personnels au sujet de l’utilisation de Clearview AI par la GRC.

L’avocate Danielle Olofsson, chef de la protection de la vie privée au cabinet BCF, s’inquiète de la fiabilité des résultats d’enquête obtenus par les policiers grâce à l’utilisation de Clearview AI. « Dans le cadre d’une enquête qui peut mener à une poursuite pénale, les erreurs sur la personne peuvent avoir de graves répercussions. La Loi sur la protection des renseignements personnels oblige la GRC à utiliser des données qui sont exactes », dit-elle. 

Pas utilisé au SPVM

Après avoir refusé dans un premier temps de révéler s’il l’utilisait, le SPVM a quant à lui déclaré à La Presse ne jamais avoir fait usage d’une quelconque technologie de reconnaissance faciale jusqu’à présent. 

Le SPVM n’exclut cependant pas, « dans des situations particulières et exceptionnelles, de recourir aux services d’une tierce partie possédant ce type de technologie pour faire avancer une enquête d’envergure », a précisé l’organisme dans un courriel. 

Les reportages du New York Times et de BuzzFeed ont révélé les pratiques agressives de Clearview AI pour gagner des parts de marché au sein des corps policiers d’Amérique du Nord. L’entreprise a fourni des accès gratuits, valides pour 30 jours, à des dizaines de policiers afin de les convaincre de la puissance du logiciel. 

Dans bien des cas, l’état-major de ces organisations n’en était pas informé, et aucune balise n’avait été établie pour encadrer l’utilisation du logiciel. 

« Tout cela illustre combien on n’a pas réfléchi, en tant que société, aux problèmes que posent les technologies d’intelligence artificielle, estime Me Olofsson. C’est ça qui est désolant. Notre société ne sait absolument pas quelle direction prendre avec ces technologies. »