(New York) Le procès a commencé comme tant d’autres : un dénommé Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant avoir été blessé par un chariot de service en métal qui l’aurait heurté au genou lors d’un vol vers New York.

Lorsque Avianca a demandé au juge de rejeter l’affaire, les avocats de M. Mata s’y sont opposés avec véhémence, déposant un dossier de 10 pages citant six jugements pertinents. Il y avait Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa discussion savante sur les dispositions du droit fédéral entraînant automatiquement la suspension de la prescription.

Il y avait juste un problème : personne – ni les avocats d’Avianca ni le juge – ne pouvait trouver les jugements ni les extraits cités et résumés dans le mémoire.

C’est parce que ChatGPT avait tout inventé.

L’auteur du mémoire, MSteven Schwartz, du cabinet Levidow, Levidow & Oberman, a fait acte de contrition devant le juge jeudi : il s’est servi de cet outil d’intelligence artificielle pour faire ses recherches juridiques, « une source qui s’est révélée non fiable », ajoute-t-il dans une déclaration sous serment.

MSchwartz, qui exerce à New York depuis 30 ans, a affirmé au juge P. Kevin Castel qu’il n’avait pas cherché à tromper le tribunal ni la compagnie aérienne. Il n’avait jamais utilisé ChatGPT et « n’était donc pas conscient de la possibilité que son contenu puisse être faux », a-t-il déclaré, penaud.

Il avait même demandé à ChatGPT s’il s’était assuré que les cas étaient réels.

Oui, avait répondu la machine.

« Profonds regrets »

MSchwartz a exprimé ses « profonds regrets » de s’être fié à ChatGPT.

Je ne le ferai plus jamais à l’avenir sans une vérification absolue d’authenticité.

MSteven Schwartz, du cabinet Levidow, Levidow & Oberman

Le juge Castel a dénoncé une « circonstance sans précédent », soit un document juridique truffé de « jugements bidon, de références bidon et de citations bidon ». Il a convoqué une audience, le 8 juin, en vue d’éventuelles sanctions.

Encore de l’espoir pour les avocats

L’arrivée de l’intelligence artificielle sur l’internet fait craindre des scénarios dystopiques où l’ordinateur remplace des interactions humaines, mais aussi le travail humain. C’est la hantise des travailleurs du savoir : nombre d’entre eux craignent que leur travail se révèle moins précieux aux yeux des clients qui paient leurs heures facturables.

L’affaire Roberto Mata c. Avianca inc. montre que les professions du savoir ont peut-être encore un peu de temps devant elles avant d’être supplantées par des robots.

Tout a commencé lors du vol 670 San Salvador–New York d’Avianca, le 27 août 2019. Selon la poursuite, un agent de bord a heurté M. Mata avec un chariot de service. En défense, la compagnie aérienne a demandé à la Cour fédérale de rejeter la cause, arguant que l’affaire était prescrite.

Dans le désormais célèbre mémoire déposé par MSchwartz en mars, il a plaidé pour le maintien de la poursuite, étayant son argumentation par les références et citations citées plus haut.

Peu après, les avocats d’Avianca ont écrit au juge Castel : ils n’avaient trouvé aucune des causes citées dans le mémoire.

Le juge a ordonné aux avocats de M. Mata de fournir les jugements étayant leur dossier. Ils ont déposé un recueil de huit jugements ; dans la plupart des cas, le tribunal, le juge, le numéro de dossier et la date étaient indiqués.

Un jugement de six pages… bidon

La copie du prétendu jugement Varghese, par exemple, fait six pages et indique qu’elle a été rédigée par un juge du 11circuit. Mais les avocats d’Avianca ont indiqué au juge qu’ils ne pouvaient pas trouver ce jugement ni les autres, ni dans les registres des tribunaux ni dans les bases de données juridiques.

L’avocat d’Avianca Bart Banino exerce chez Condon & Forsyth, un cabinet spécialisé en droit de l’aviation. Tout le monde au bureau estimait que les jugements cités dans le mémoire de la partie adverse étaient des faux, dit-il. Et on soupçonnait l’usage d’un robot conversationnel.

MSchwartz n’a pas répondu à un message demandant une entrevue, pas plus que son collègue MPeter LoDuca, lui aussi au dossier.

Dans une déclaration sous serment déposée cette semaine, MLoDuca déclare n’être l’auteur d’aucune des recherches en question et n’avoir « aucune raison de douter de la sincérité » du travail de MSchwartz ou de l’authenticité des avis.

ChatGPT génère des réponses réalistes en devinant quels fragments de texte devraient suivre d’autres séquences, sur la base d’un modèle statistique qui a ingéré des milliards de textes tirés de l’internet. Dans le cas de M. Mata, le programme semble avoir discerné le style labyrinthique d’un argument juridique écrit, mais l’a peuplé de noms et de faits tirés d’une bouillabaisse de vrais jugements.

Le juge Castel a fait sa propre enquête. Dans la convocation du 8 juin, il écrit que le greffier du 11circuit l’a informé que le numéro de dossier imprimé sur le prétendu jugement Varghese était lié à une affaire sans aucun rapport.

Au sujet du « jugement bidon », le juge note qu’il contient des citations inventées, prétendument tirées de références inexistantes. Les cinq autres jugements présentés par les avocats de M. Mata semblent également faux, ajoute le juge.

Jeudi, les avocats de M. Mata ont présenté des explications dans une déclaration sous serment.

C’est une erreur, monsieur le juge

Au début, MSchwartz avait inscrit la poursuite de son client, M. Mata, devant le tribunal de l’État, écrit-il. Mais la compagnie aérienne l’a fait transférer au tribunal fédéral de Manhattan, où MSchwartz n’est pas autorisé à exercer. Un de ses collègues, MLoDuca, est devenu l’avocat inscrit au dossier. MSchwartz a fait les recherches juridiques, dans lesquelles MLoDuca n’a eu aucun rôle.

Selon MSchwartz, il a consulté ChatGPT « pour compléter » son propre travail et, « en consultation » avec le robot, il a trouvé et cité les six jugements qui se sont révélés faux. Il a ajouté qu’il avait demandé à ChatGPT de contre-vérifier.

PHOTO DADO RUVIC, REUTERS

Le robot conversationnel ChatGPT affirmait que les causes citées étaient véridiques, alors qu’elles étaient fausses.

« Est-ce que Varghese est une vraie cause ? », a-t-il tapé, selon une copie de l’échange présentée au juge.

« Oui », a répondu ChatGPT, référence à l’appui et confirmant qu’il s’agissait d’une « vraie cause ».

MSchwartz est allé plus loin : « Quelle est ta source ? »

« Je m’excuse pour la confusion de tout à l’heure », a répondu ChatGPT, en proposant une citation juridique.

« Les autres causes fournies sont-elles fausses ? », a demandé MSchwartz.

« Non, les autres causes que j’ai fournies sont réelles et peuvent être trouvées dans des bases de données juridiques réputées. »

Mais, hélas, personne n’a pu les trouver.

Cet article a d’abord été publié
dans le New York Times.

Consultez l’article original du New York Times
(en anglais, abonnement requis)