L’intelligence artificielle (IA) ? Des masses de données, très souvent personnelles ou privées, qui sont avalées, analysées, combinées et régurgitées sous de nouvelles formes avec une agrégation et des objectifs généralement obscurs.

Trois adjectifs, ici : personnelles, nouvelles et obscurs.

Et trois préoccupations.

Les données personnelles sont-elles protégées ?

Les nouvelles formes violent-elles la protection intellectuelle, ou en jouissent-elles ?

Qui est responsable lorsqu’une solution d’IA prend une décision préjudiciable ?

Ce ne sont là que quelques-uns des enjeux.

L’IA entraîne « des risques d’affaires, des risques réputationnels, des risques juridiques », énumère MPaul Gagnon, un des deux coleaders technologies et intelligence artificielle chez BCF Avocats d’affaires.

« Un bel exemple qui démontre comment les trois peuvent arriver tous en même temps : les chatbots internes, qui sont très populaires », ajoute son collègue Misha Benjamin.

Ce que d’aucuns appellent en français un agent conversationnel ou un dialogueur.

On prend ChatGPT, on le met à l’interne, on l’expose à nos données. Si je travaille dans une firme de génie-conseil et je veux savoir comment on règle un problème quelconque, plutôt que d’aller parler à trois collègues, je peux le demander au chatbot.

Misha Benjamin, coleader technologies et intelligence artificielle chez BCF Avocats d’affaires

L’agent conversationnel produira un sommaire de l’information déjà détenue par l’entreprise, fera des liens avec des documents pertinents au sujet, nommera peut-être des personnes qui détiennent une expertise dans le domaine.

« Très utile. Mais si on n’a pas bien balisé la gouvernance de la chose et qu’on n’a pas prévu notre projet en conséquence, je pourrais aussi lui demander quel est le salaire de mon collègue d’en face, ou qui a été réprimandé par les RH. Sur le plan juridique, en matière de protection de la vie privée, on peut voir les enjeux. »

Le droit actuel

Car l’intelligence artificielle n’est pas apparue dans une société dépourvue de garde-fous.

« Il y a plein de lois existantes qui donnent un cadre juridique à l’intelligence artificielle avant même qu’on adopte les lois qui seront spécifiques à l’IA », rappelle Me Éric Lavallée, responsable du Laboratoire juridique Lavery sur l’intelligence artificielle.

« On avait déjà au Québec la Loi concernant le cadre juridique des technologies de l’information, qui vient encadrer jusqu’à un certain point l’intelligence artificielle ou son usage par les entreprises. »

Le droit du travail est lui aussi interpellé.

« Si on utilise un outil d’IA pour des décisions d’embauche ou des décisions disciplinaires, puis on réalise ensuite qu’il y a un biais là-dedans, ce sont les lois existantes qui vont s’appliquer à ça et on n’a pas besoin d’une nouvelle loi pour nous dire qu’on va être responsable », soulève Misha Benjamin.

Par ailleurs, l’émergence explosive de l’intelligence artificielle générative – capable de créer du texte ou des images, par exemple – soulève de nouveaux enjeux à l’égard de la propriété intellectuelle.

On peut utiliser l’IA comme outil selon les lois en vigueur et créer quelque chose dont on est quand même propriétaire. Mais il se pourrait qu’on utilise l’IA pour inventer des choses dont on ne sera pas propriétaire à 100 %, selon l’entente avec celui qui met l’IA à ta disposition.

Misha Benjamin

Les nouveaux cadres juridiques

Pour affronter ces défis inédits, de nouveaux cadres juridiques sont en construction.

Le Parlement européen a adopté en mars dernier ce qui se veut la première loi sur l’intelligence artificielle au monde, qui veut garantir la sécurité et le respect des droits fondamentaux tout en encourageant l’innovation.

« Dans certains contextes et selon les risques en cause, des obligations sont créées, par exemple de divulgation au public ou encore d’analyse des risques, décrit Paul Gagnon. Au Canada, le projet de loi C-27, qui est à l’étude en ce moment, vient sensiblement présenter le même genre d’analyse de risques par rapport au développement de systèmes d’intelligence artificielle. »

Ces cadres juridiques, existants et nouveaux, tracent des normes de pratique et des précautions que les entreprises devraient dès maintenant introduire dans leur usage de l’IA.

« On est là justement pour aider les gens à commencer à bâtir ce muscle – comment bien gérer les projets, comment faire la gouvernance d’IA dans l’entreprise en amont – pour qu’il soit bien développé quand les lois seront applicables », expose Misha Benjamin.

Les entreprises peuvent déjà se mettre à l’entraînement.