C’est peut-être le plus clair signal des enjeux croissants de l’intelligence artificielle (IA) dans les entreprises : les cabinets d’avocats d’affaires s’en mêlent.

L’important cabinet québécois BCF, fort de plus de 520 employés, a annoncé au début d’avril l’embauche de deux jeunes avocats qui constituent son équipe de choc en matière d’IA.

Paul Gagnon et Misha Benjamin, tous deux associés, portent chez BCF l’étiquette de coleaders technologies et intelligence artificielle, après trois années dans l’équipe juridique interne de la techno montréalaise Element AI.

PHOTO DOMINICK GRAVEL, LA PRESSE

Misha Benjamin et Paul Gagnon, avocats chez BCF Avocats d’affaires

« Ça nous a exposés à beaucoup d’apprentissage, et beaucoup de contacts avec des gens aussi, sinon plus, curieux que nous », décrit Paul Gagnon dans une entrevue vidéo commune avec son collègue Misha Benjamin, tous deux souriants et enthousiastes. « Ç’a été très amusant d’être très souvent les gens les plus niaiseux à l’intérieur d’une pièce », rigole l’avocat.

En l’absence de normes de pratique reconnues à l’égard de l’intelligence artificielle, il leur a fallu élaborer leurs propres barèmes pour guider les relations contractuelles de la bourgeonnante entreprise avec ses clients et partenaires commerciaux.

« Il n’y avait pas de cadre juridique qui s’appliquait directement à l’IA, souligne Misha Benjamin. Mais il reste qu’il y a un cadre législatif existant qu’il faut quand même appliquer à une nouvelle technologie, même si ça n’a pas été pensé avec cette technologie en tête. C’est quelque chose qu’on oublie souvent. Oui, plusieurs nouvelles lois s’en viennent, qui vont directement s’appliquer à l’IA, mais on a aussi toutes les lois existantes que, de plus en plus, les gouvernements sont en train d’appliquer à l’IA. »

On s’est joints au cabinet BCF justement pour bâtir cette expertise-là, parce que c’est un moment qui est vraiment charnière pour le genre d’approche qu’on propose, c’est-à-dire de penser l’IA dans une perspective de gestion de risque, mais également dans une perspective de gouvernance.

MPaul Gagnon, avocat et associé chez BCF

Un laboratoire juridique

Ils ne sont pas les seuls. La plupart des grands cabinets d’affaires ont constitué une phalange en intelligence artificielle.

Borden Ladner Gervais, pour ne prendre que cet exemple, se targue d’être « le cabinet juridique de référence au Canada en matière d’intelligence artificielle ».

Au Québec, le cabinet Lavery avait mis sur pied dès 2018 son Laboratoire juridique sur l’intelligence artificielle.

« [L’équipe] s’intéresse à rendre des services aux clients, donc mieux comprendre leurs besoins, et aussi à nos besoins internes, à la manière dont on va utiliser cette technologie au sein même de notre cabinet », décrit son responsable, Me Éric Lavallée.

Son premier « livre blanc », produit la même année, décrivait déjà en 67 pages les principaux enjeux juridiques de l’intelligence artificielle, « de la propriété intellectuelle à la cybersécurité ».

« On s’attend à une évolution des lois, à un meilleur encadrement des solutions d’intelligence artificielle, avec des exigences peut-être de transparence face au public, observe Éric Lavallée. C’est certainement des choses que les entreprises doivent être en mesure de voir venir. »

De nouvelles pièces

En effet, les pièces continuent de s’ajouter au puzzle juridique de l’IA.

Au Canada, le projet de loi C27, déposé en juin 2022, édicte dans sa troisième partie la Loi sur l’intelligence artificielle et les données, qui veut prémunir la population contre les dérapages des systèmes d’IA, « notamment les risques de préjudice physique ou psychologique ou de résultat biaisé ayant des effets négatifs sur les individus ».

Après la deuxième lecture et quelques amendements suscités par les critiques, le projet de loi est toujours étudié par le Comité permanent de l’industrie et de la technologie du Parlement.

Entre-temps, l’Europe a pris l’Amérique du Nord de vitesse.

Le 13 mars dernier, les députés de l’Union européenne ont adopté un ambitieux cadre réglementaire qui entend protéger les citoyens et la société contre les risques de l’IA sans décourager l’innovation. Il établit des obligations pour les systèmes d’IA en fonction de leurs risques potentiels, il interdit certaines applications et il impose des exigences de transparence.

Le dos au mur

Les entreprises québécoises s’en préoccupent-elles ?

La Fédération canadienne de l’entreprise indépendante (FCEI), qui sonde régulièrement ses membres sur les sujets les plus variés, n’a pas encore recueilli de données sur l’utilisation et l’impact de l’IA chez les PME. « Mais c’est quelque chose que nous allons mettre sur notre liste d’idées de sondage à court terme », assure Simon Gaudreault, économiste en chef et vice-président, recherche, à la FCEI.

Même les associations d’entreprises composent avec l’IA !

« Notre service des ressources aux entreprises utilise depuis quelque temps déjà un logiciel qui s’appelle Blue J, qui fait de la recherche de décisions judiciaires portant sur des questions de fiscalité et de droit du travail », indique Simon Gaudreault.

« Le logiciel, qui est basé sur l’intelligence artificielle, établit ensuite les liens entre ces décisions et les faits que nos membres vont nous relater. »

Son équipe de conseillers aux entreprises a jusqu’ici rédigé près de 1000 rapports Blue J à la demande des chefs de PME membres de la FCEI.

« L’outil illustre le fait que l’intelligence artificielle et ses outils sont appelés à prendre de plus en plus de place dans le quotidien des entreprises », observe l’économiste, qui les invite « à être prudentes, mais proactives ».

« Les entreprises et les PME pourraient bénéficier d’une réflexion là-dessus avant qu’elles soient trop mises le dos au mur. »

Plus elles attendront, plus le puzzle sera difficile à résoudre.