Faut-il se réjouir ou s’inquiéter des avancées très rapides de la recherche sur l’intelligence artificielle (IA) et de son adoption dans une multitude de sphères de nos vies ? On en parlait peu il y a six mois, même si l’intelligence artificielle était déjà partout sans qu’on s’en rende toujours bien compte. Depuis, tout le monde et son cousin a conversé avec ChatGPT et généré de fausses images avec DALL-E.

Succès mitigé : de belles réussites, une créativité impressionnante en trompe-l’œil, mais aussi des erreurs flagrantes produites avec autant d’aplomb que de rapidité. Le constat se dessine plus clairement : si l’intelligence artificielle peut servir le bien commun et accélérer la découverte scientifique, elle peut aussi nourrir la désinformation, alimenter les conflits et creuser les inégalités.

Les plus grands experts réclament aujourd’hui une pause du développement des systèmes les plus puissants d’intelligence artificielle générative, le temps qu’on trouve le moyen d’en contrôler le territoire et la puissance. Que cette proposition soit suivie ou non, le vif débat qu’elle a suscité nous permet de remettre en lumière certains éléments importants de la recherche qui est menée dans les universités.

L’écosystème en IA est particulièrement développé à Montréal, où se concentrent une expertise inégalée en la matière et de nombreux partenariats avec le secteur privé, soutenus par des fonds publics. Par conséquent, les universités, et la mienne au premier chef, portent une responsabilité fondamentale de favoriser, sinon de piloter, le développement d’une IA qui réponde aux attentes de l’humanité, non seulement en matière de progrès et de productivité, mais aussi de bien-être collectif, de justice et d’équité.

J’en tire trois constats.

D’abord, en matière d’innovation, on ne doit pas faire l’erreur de ne considérer les sciences humaines et sociales qu’a posteriori pour préparer des brevets ou rédiger des contrats de commercialisation.

Elles sont des contributrices directes de la transformation numérique de nos sociétés et doivent investir le terrain de l’IA pour que l’innovation numérique serve véritablement le bien commun. On le voit, l’anxiété ambiante et légitime autour de l’accélération des découvertes en IA illustre bien la nécessité d’investir aussi dans les disciplines qui permettent de comprendre, de contextualiser, d’encadrer l’évolution de la connaissance : l’anthropologie, le droit, l’éthique, l’histoire, la littérature, la philosophie, la sociologie. J’entends souvent que le Québec a besoin de plus d’ingénieurs et d’informaticiens. C’est vrai. Mais le Québec et le reste du monde ont aussi un besoin criant de l’apport des sciences humaines et sociales.

Deuxièmement, les universités doivent se montrer à la hauteur du capital de confiance dont elles jouissent pour baliser adéquatement les avancées scientifiques en matière d’intelligence artificielle et favoriser l’adoption de pratiques et d’orientations de recherche fondées sur des valeurs partagées.

L’Université de Montréal s’est engagée résolument dans cette voie il y a quelques années, en rassemblant les acteurs et les actrices de ce secteur, avec des experts des sciences humaines et sociales, des organisations et des membres du public autour de principes éthiques rassemblés dans la Déclaration de Montréal sur l’intelligence artificielle responsable1. Il faut maintenant aller encore plus loin et faire vivre davantage ces principes.

Enfin, les universités doivent revoir leurs programmes de formation afin de préparer les prochaines générations à l’environnement numérique qui se construit aujourd’hui. La mission première et historique des universités demeure la transmission de la connaissance et le plein déploiement du potentiel humain, mais il faudra vite l’adapter à un contexte radicalement différent. La maîtrise des innovations numériques et de l’IA ne se fera pas sans le développement du sens critique, de l’autonomie et de l’agilité intellectuelles.

Les universités devront offrir aux futurs professionnels du génie, de l’informatique et des sciences naturelles et physiques les ferments d’une culture humaniste qui permette d’assurer le développement responsable de l’innovation.

Inversement, les programmes en sciences humaines et sociales devront aussi promouvoir la littératie numérique et scientifique de leurs étudiants et étudiantes en urbanisme, en communications ou en travail social par exemple.

Tout cela devra se faire en réseau, à l’échelle planétaire, parce que les avancées scientifiques en intelligence artificielle ne connaissent pas de frontières. À l’Université de Montréal, nous travaillons avec une quarantaine d’universités de premier plan partout dans le monde, pour faire partager nos expertises sur l’IA responsable, au sein du regroupement U7+.

Sous la houlette de la professeure Catherine Régis, de l’Université de Montréal, le regroupement a publié en 2021 un rapport qui anticipait déjà des questions que tous se posent aujourd’hui, et rédige la feuille de route pour un développement responsable de l’IA. Ensemble, nous avons le pouvoir de créer une intelligence artificielle qui sera véritablement au service du bien commun et qui fera progresser notre intelligence collective.

1. Consultez la Déclaration de Montréal sur l’intelligence artificielle responsable 2. Consultez le rapport pour une université innovante (en anglais) Qu'en pensez-vous? Exprimez votre opinion