(Ottawa) De hauts responsables de la cybersécurité exhortent les entreprises technologiques à intégrer des mesures de protection dans les systèmes d’intelligence artificielle (IA) futuristes qu’elles préparent, afin d’éviter qu’ils ne soient sabotés ou utilisés à des fins malveillantes.

Sans les garde-fous appropriés, il sera plus facile pour les nations malintentionnées, les terroristes et d’autres personnes d’exploiter les systèmes d’IA émergents rapidement pour commettre des cyberattaques et même développer des armes biologiques ou chimiques, a déclaré Jen Easterly, directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures, connue sous le nom de CISA.

Les entreprises qui conçoivent et développent des logiciels d’IA doivent s’efforcer de réduire considérablement le nombre de failles que les utilisateurs peuvent exploiter, a fait valoir Mme Easterly dans une entrevue. « Ces capacités sont incroyablement puissantes et peuvent être utilisées comme armes si elles ne sont pas créées de manière sécurisée. »

Le Centre canadien pour la cybersécurité s’est récemment joint au CISA et au Centre national de cybersécurité britannique, ainsi qu’à 20 organisations partenaires internationales, pour annoncer des lignes directrices pour le développement de systèmes d’IA sécurisés.

Les innovations en matière d’IA ont le potentiel d’apporter de nombreux avantages à la société, indique le document de référence. « Cependant, pour que les opportunités de l’IA soient pleinement exploitées, elle doit être développée, déployée et exploitée de manière sécurisée et responsable. »

Lors de ses débuts à la fin de l’année dernière, ChatGPT d’OpenAI a fasciné les utilisateurs par sa capacité à répondre aux requêtes avec des réponses détaillées, bien que parfois inexactes. Cela a également suscité l’inquiétude quant à d’éventuels abus de la technologie naissante.

La sécurité de l’IA a des dimensions particulières, car les systèmes permettent aux ordinateurs de reconnaître et de contextualiser les modèles de données sans règles explicitement programmées par un humain, selon les lignes directrices.

Les systèmes d’IA sont donc vulnérables au phénomène d’apprentissage automatique contradictoire, qui peut permettre aux attaquants de provoquer des actions non autorisées ou d’extraire des informations sensibles.

« Il existe un consensus général, parmi les gouvernements et l’industrie, sur le fait que nous devons nous unir pour garantir que ces capacités sont développées en gardant à l’esprit la sûreté et la sécurité », a indiqué Mme Easterly.

« Même si nous cherchons à innover, nous devons le faire de manière responsable. »

Beaucoup de choses peuvent mal tourner si la sécurité n’est pas prise en compte lors de la conception, du développement ou du déploiement d’un système d’IA, a déclaré Sami Khoury, chef du Centre pour la cybersécurité du Canada.

Dans la même entrevue, M. Khoury a qualifié l’engagement international initial envers les nouvelles lignes directrices d’« extrêmement positif ».

« Je pense que nous devons montrer l’exemple, et peut-être que d’autres suivront plus tard. »

En juillet, le Centre pour la cybersécurité du Canada a publié un avis signalant les vulnérabilités du système d’IA. Par exemple, une personne mal intentionnée pourrait injecter du code destructeur dans l’ensemble de données utilisé pour entraîner un système d’IA, faussant ainsi l’exactitude et la qualité des résultats.

Le « pire scénario » serait qu’un acteur malveillant empoisonne un système d’IA crucial « sur lequel nous comptons », provoquant un dysfonctionnement de celui-ci, a déclaré M. Khoury.

Le centre a également averti que les cybercriminels pourraient utiliser les systèmes pour lancer des attaques de harponnage plus fréquemment, automatiquement et avec un niveau de sophistication plus élevé. « Des courriels de harponnage ou des messages frauduleux très réalistes pourraient conduire à un vol d’identité, à une fraude financière ou à d’autres formes de cybercriminalité. »

Les malfaiteurs qualifiés pourraient également contourner les restrictions imposées par les outils d’IA pour créer des logiciels malveillants destinés à être utilisés dans une cyberattaque ciblée, a prévenu le centre. Même les personnes ayant « peu ou pas d’expérience en codage peuvent utiliser l’IA générative pour écrire facilement des logiciels malveillants fonctionnels susceptibles de nuire à une entreprise ou une organisation ».

Au début de cette année, alors que ChatGPT faisait la une des journaux, une note d’information du Service canadien du renseignement de sécurité (SCRS) mettait en garde contre des dangers similaires. L’outil pourrait être utilisé « pour générer du code malveillant, qui pourrait être injecté dans des sites Web et utilisé pour voler des informations ou propager des logiciels malveillants ».

La note du SCRS du 15 février, récemment publiée dans le cadre de la Loi sur l’accès à l’information, indiquait également que ChatGPT pourrait contribuer à générer « de fausses nouvelles et des critiques, à manipuler l’opinion publique et à créer de la désinformation ».

OpenAI affirme qu’il n’autorise pas l’utilisation de ses outils à des fins d’activités illégales, de désinformation, de génération de contenu haineux ou violent, de création de logiciels malveillants ou de tentatives de génération de code conçu pour perturber, endommager ou obtenir un accès non autorisé à un système informatique.

L’entreprise interdit également l’utilisation de ses outils pour des activités présentant un risque élevé de dommages physiques, tels que le développement d’armes, les opérations militaires ou la gestion d’infrastructures critiques pour l’énergie, les transports ou l’eau.