L’arrivée de l’intelligence artificielle (IA) générative dans l’espace collectif, grâce à ChatGPT, a donné lieu à de nombreux appels à réglementer l’IA.

Plusieurs de ces appels reposent sur des mythes. Le premier est que l’IA en tant que telle devrait faire l’objet d’une réglementation. Attention au syndrome de l’objet brillant ! L’IA n’a pas d’existence propre : c’est une technologie qui s’insérera dans des produits et services offerts par des entreprises à des usagers. Réglementer l’IA, c’est donc plutôt réglementer les entreprises qui l’offrent, les contrats ou autres mécanismes de cette offre, et aussi les usagers qui l’emploient. Ce genre de réglementation n’est pas nouveau.

Cela mène au deuxième mythe, celui de la page blanche : l’IA évoluerait dans un vide juridique, en l’absence de règles spécifiques à l’IA qui énonceraient ce qui est permis ou interdit. Au contraire, des libertés fondamentales au droit privé, le droit s’étend d’ores et déjà au développement, à la mise en marché et à l’usage de l’IA. Toutefois, ce droit doit être développé pour l’appliquer aux problématiques spécifiques à l’IA. En ce sens, réglementer l’IA s’apparente plus à un exercice de mise à jour qu’à une création littéraire.

Ces deux mythes proviennent sans doute de la culture d’innovation du secteur numérique, qui préside jusqu’ici au développement de l’IA. S’appuyant sur un cadre juridique permissif face à l’innovation numérique, cette culture veut que toute invention soit rapidement diffusée sur le marché pour percer, quitte à corriger le tir plus tard si des difficultés surviennent. Cela a bien servi nos sociétés depuis les années 1980, mais le déploiement des réseaux sociaux, par exemple, a déjà montré les limites de cette approche.

En comparaison, d’autres secteurs, tels que le pharmaceutique, sont gouvernés par un cadre juridique plus protecteur, où aucune invention ne se rend au marché sans avoir été testée et approuvée au préalable. Ces secteurs ne sont pas moins innovateurs pour autant.

Mais l’approche protectrice mène à une culture d’entreprise plus prudente, où on évalue les risques des inventions bien en amont pour recalibrer si nécessaire (ou abandonner, le cas échéant), et on tente d’en prévenir les usages abusifs ou malintentionnés.

Au-delà des mythes, le grand défi de la réglementation de l’IA est donc de faire évoluer la culture d’innovation du secteur numérique, ce qui passe par un cadre juridique plus protecteur. Toutefois, étant donné la nature dynamique de l’IA et le manque de données probantes, ce cadre ne pourra ressembler à celui du pharmaceutique. Un modèle d’« innovation responsable », où l’entreprise cogère la production et l’analyse d’informations sur l’impact socioéconomique de ses inventions avec l’autorité publique et les autres parties prenantes, semble plus approprié.

C’est vers un tel modèle que se dirige l’Union européenne (UE), qui a pris l’initiative avec son projet de Règlement sur l’IA, qui devrait être adopté d’ici la fin de l’année. Ce règlement force les producteurs de systèmes d’IA à s’assurer que ces derniers sont conformes aux principes réglementaires avant leur mise en marché, et contribue ainsi à les responsabiliser. Le Canada suit les traces de l’UE avec le projet de loi C-27, qui est toutefois moins bien étayé.

À plus court terme, une autre réforme juridique peut aussi déjà pousser le secteur numérique à changer sa culture face à l’innovation. Le numérique a bénéficié d’une grande indulgence en matière de responsabilité civile depuis 30 ans, qui allait de pair avec l’approche permissive décrite plus haut. Il conviendrait de placer les systèmes d’IA sous un régime plus strict, comme celui de la responsabilité des produits défectueux. Ici encore, l’UE s’est engagée sur cette voie, que le Québec gagnerait à suivre.

Qu’en pensez-vous ? Exprimez votre opinion Qu'en pensez-vous? Exprimez votre opinion