Des étudiants sont soupçonnés d’utiliser l’intelligence artificielle pour rédiger leurs travaux de session. Parfois même à l’insu de leurs coéquipiers. Faute d’outils pour détecter la triche, des professeurs reviennent aux bons vieux examens en classe… avec du papier et un crayon.

Ce qu’il faut savoir

Des étudiants copient-collent des textes pondus par l’intelligence artificielle dans leur travaux de session.

Devant le risque de plagiat, des professeurs revoient leurs méthodes d’évaluation, ramenant les examens en classe.

Certains s’inquiètent des conséquences à long terme de l’intelligence artificielle en éducation.

En près de 20 ans d’enseignement, Marianne Di Croce n’a jamais vu ça.

« Normalement, j’ai peut-être un cas de plagiat par année. Là, j’en vois chaque session », laisse tomber l’enseignante en philosophie au cégep de Saint-Jérôme.

Depuis un an, les cas de tricherie se sont multipliés dans ses groupes. Le coupable : l’intelligence artificielle générative.

L’automne dernier, j’ai donné un petit travail et sur 120 étudiants, je suis convaincue qu’il y en a près de 40 qui ont utilisé un outil d’intelligence artificielle.

Marianne Di Croce, enseignante en philosophie au cégep de Saint-Jérôme

Mme Di Croce n’est pas la seule. Des travaux qui semblent entièrement pondus par un robot conversationnel, David Joly en a vu à plus d’une reprise dans la dernière année.

L’enseignant en physique se souvient d’un cas particulier où un étudiant a remis un travail sur une planète qui n’existe pas… dans un système solaire qui n’existe pas.

« Ça n’avait pas de sens. Je lui ai demandé d’où il sortait ça et il n’était pas capable de me le dire », soutient celui qui enseigne au cégep de Joliette.

Difficile de prouver le plagiat

Déceler le plagiat n’est pas la partie difficile, estiment les enseignants.

Il saute même parfois aux yeux : les travaux générés par l’intelligence artificielle répondent rarement aux consignes, inventent ou déforment certains faits, et emploient un niveau de langage supérieur à celui de l’étudiant moyen.

Ce qui est difficile, c’est de prouver hors de tout doute le méfait. « Avec le plagiat traditionnel, on était capable de retrouver la source », explique Marianne Di Croce.

Il existe bien des outils en ligne permettant de détecter l’intelligence artificielle comme Copyleaks, mais aucun n’est fiable à 100 %.

« Le taux d’erreur reste quand même assez élevé », note Nabil Tayeb, cofondateur de la firme montréalaise Draft & Goal, qui a développé un logiciel de ce genre.

Chaque semaine, il estime recevoir « un, voire souvent deux courriels » d’enseignants cherchant à confirmer leurs soupçons. « Pendant les périodes d’examen, c’est encore plus », dit-il.

Le retour des examens en classe

Sans outil pour détecter la triche, des enseignants revoient carrément leurs méthodes d’évaluation.

« On fait plus d’examens en classe, plus d’examens oraux », énumère Marie-Hélène Parizeau, présidente du Syndicat des professeurs et professeures de l’Université Laval.

Une solution loin d’être idéale, assure-t-elle.

Les examens en classe grugent du temps d’enseignement précieux. Et ils ne remplacent pas les travaux longs, communs dans plusieurs matières, dont la rédaction peut s’échelonner sur plusieurs semaines.

« Est-ce qu’on supprime ce genre d’exercice ? », se demande Mme Parizeau.

Enseignant en adaptation scolaire, Ismaël Seck a lui aussi réduit le nombre de travaux à faire à la maison.

« Sinon, comment peut-on savoir que ce sont les élèves qui l’ont fait ? », soulève-t-il.

Il donne l’exemple de Photomath, une application gratuite utilisée par ses élèves qui peut résoudre une équation mathématique à partir d’une photo.

« Je pense qu’on a une responsabilité de montrer aux élèves comment être critiques par rapport à ces outils », dit-il.

Une situation « stressante »

Les profs ne sont pas les seuls à être dépassés par la situation. « Je trouve ça extrêmement stressant », lâche Alice*.

Au cours de la dernière année seulement, l’étudiante à l’Université Laval a soupçonné deux camarades de classe d’avoir copié une réponse générée par un robot conversationnel dans un travail d’équipe.

La première fois, la partie du travail produite par l’étudiant fautif ne répondait pas aux consignes.

« On a eu l’idée de poser la même question à ChatGPT et c’était la même réponse, à quelques verbes près », raconte-t-elle.

L’étudiant, qui a nié avoir triché, a été exclu de l’équipe avec la permission du professeur.

Alice n’est pas contre une utilisation responsable de l’intelligence artificielle. Le problème, selon elle, survient lorsque les étudiants l’utilisent par paresse. Ou pire, lorsqu’ils y ont recours à l’insu de leurs coéquipiers.

Étudiante en enseignement, Daphnée* raconte avoir elle aussi douté de l’authenticité d’un travail d’un coéquipier.

Ce qui lui a mis la puce à l’oreille ? « C’étaient des phrases compliquées avec plein d’ouvrages cités, et je me disais que c’était impossible qu’il ait lu tout ça », se souvient-elle.

Confronté par ses coéquipiers, l’étudiant a tout avoué. « Il n’a même pas essayé de le cacher ! Il pensait que c’était correct ! », déplore-t-elle.

Je pense qu’on ne mesure pas le changement civilisationnel que l’intelligence artificielle pourrait entraîner.

Marianne Di Croce, enseignante en philosophie au cégep de Saint-Jérôme

« En éducation, on se fait beaucoup dire qu’il faut intégrer les technologies, qu’il faut apprendre à vivre avec. Mais cette capacité d’articuler des idées, de réfléchir, de comparer des concepts, si les étudiants utilisent ces outils-là, ils ne l’acquerront pas », poursuit Marianne Di Croce.

Un avis partagé par Marie-Hélène Parizeau.

« Quel genre de formation est-ce qu’on donne aux étudiants s’ils prennent l’habitude d’utiliser un robot conversationnel pour rédiger une partie de leur texte ? »

* Nom fictif pour protéger l’identité des étudiantes, qui craignent des représailles de leur université.

Comment les établissements s’adaptent-ils à l’arrivée de l’intelligence artificielle ?

L’Université McGill n’interdit pas le recours à l’intelligence artificielle, à condition que celui-ci se fasse en respectant les normes d’intégrité académique et en étant énoncé comme tel. Comme les étudiants, le corps professoral doit être éduqué sur « les opportunités et les défis que présentent ces outils ». À l’Université du Québec à Montréal, l’utilisation non autorisée de l’intelligence artificielle est considérée comme du plagiat. Sept étudiants ont commis une telle infraction entre septembre 2022 et août 2023. De son côté, l’Université Laval dit ne pas avoir observé de hausse de plagiat lié à l’IA. « Nous souhaitons que la communauté étudiante apprenne à utiliser ces nouveaux outils, qui font désormais partie de notre réalité, en gardant son esprit critique et sa capacité d’analyse », écrit-elle.