La police de l'État américain du Delaware, dans l'est du pays, s'apprête à déployer des caméras «intelligentes» dans ses véhicules afin d'aider les autorités à détecter un véhicule transportant un fugitif, un enfant disparu ou une personne âgée désorientée.

Les vidéos seront analysées par des logiciels d'intelligence artificielle capables d'identifier les véhicules grâce à leur plaque d'immatriculation ou d'autres caractéristiques, et donner ainsi «des yeux supplémentaires» aux agents en patrouille, explique David Hinojosa de Coban Technologies, la société qui fournit ce matériel. 

«Nous aidons les policiers à rester concentrés sur leur travail», ajoute-t-il, qualifiant cette nouvelle technologie de «caméra embarquée sous stéroïdes». 

Le programme s'inscrit dans une utilisation croissante de l'alliance entre l'intelligence artificielle et la vidéo pour lutter contre la criminalité, une tendance qui inquiète les défenseurs de la vie privée et des libertés civiles.

La start-up américaine Deep Science utilise la même technologie pour aider les commerçants à détecter en temps réel un vol à main armée, en identifiant des armes ou des agresseurs masqués, ce qui permet de déclencher des alarmes automatiques.

Selon Sean Huver, le cofondateur de Deep Science et ancien ingénieur au Pentagone, cette technologie est plus efficace et moins coûteuse que les gardes de sécurité humains. 

«Le problème avec les gardes de sécurité, c'est qu'ils s'ennuient», explique-t-il. 

Écoles, hôtels, magasins

Les technologies de vision assistée par ordinateur sont déjà utilisées pour les véhicules autonomes ou les drones, afin de reconnaître et interpréter l'environnement, explique Saurabh Jain, chef de produit pour le groupe d'infographie Nvidia qui fabrique des puces informatiques pour ces nouveaux systèmes de sécurité.

Nvidia compte déjà une cinquantaine de partenaires qui utilisent sa technologie. L'un d'eux, Umbo Computer Vision, basé en Californie, a développé un système de surveillance qui peut être utilisé dans les écoles, les hôtels ou d'autres endroits, en analysant la vidéo pour détecter les intrusions et les menaces en temps réel et envoyer une alerte aux gardes de sécurité. 

La startup israélienne Briefcam utilise une technologie similaire pour interpréter les séquences de vidéosurveillance.

«Une vidéo n'est pas structurée, on ne peut faire des recherches dedans», explique Amit Gavish, directeur général de Briefcam aux États-Unis. Sans intelligence artificielle, dit-il, «il faudrait visionner des centaines d'heures d'images en utilisant seulement avance rapide et retour rapide». 

«Nous détectons, suivons, extrayons et classons chaque objet dans la vidéo pour en faire une base de données.» 

Cela peut permettre aux enquêteurs de trouver rapidement des suspects dans les images de vidéosurveillance, un système déjà utilisé par les forces de l'ordre dans des centaines de villes à travers le monde, dont Paris, Boston et Chicago, précise M. Gavish. 

«Ce n'est pas seulement un gain de temps. Dans bien des cas, ça ne serait pas possible parce que les gens qui regardent des images vidéos deviennent inefficaces après 10 à 20 minutes», affirme-t-il.

La start-up russe Vision Labs utilise la technologie Nvidia de reconnaissance faciale pour identifier les voleurs à l'étalage ou les clients fauteurs de troubles dans les casinos. 

«Nous pouvons déployer (cette technologie) n'importe où», s'enthousiasme Vadim Kilimnichenko, chef de projet chez Vision Labs. 

Ses clients comprennent aussi des banques pour lesquelles la reconnaissance faciale peut aider à déterminer si quelqu'un utilise une fausse identité.

Risques pour la vie privée

Pour Marc Rotenberg, président de l'Electronic Privacy Information Center, la croissance rapide de ces technologies soulève des risques pour la vie privée et appelle à un contrôle réglementaire sur la façon dont les données sont stockées et utilisées. 

«Certaines de ces techniques peuvent être utiles, mais il existe d'énormes problèmes de confidentialité lorsque les systèmes sont conçus pour capturer l'identité et prendre une décision basée sur des données personnelles», s'inquiète Marc Rotenberg. 

«C'est là que les problèmes de profilage, de partialité et de précision entrent en ligne de compte.» 

L'utilisation des systèmes d'intelligence artificielle en justice doit faire l'objet de garanties juridiques et de transparence, dit-il. 

Dans un article de blogue publié plus tôt cette année, Shelly Kramer de Futurum Research expliquait que l'intelligence artificielle est très prometteuse pour les forces de police, que ce soit pour la surveillance, l'identification de menaces sur les réseaux sociaux ou l'utilisation de «bots» pour détecter des mensonges. 

«Cette encourageante promesse s'accompagne cependant d'une foule de risques et de responsabilités», prévenait-elle.