La Néerlandaise Marietje Schaake a un CV bien rempli : députée pendant 10 ans au Parlement européen ; directrice de la politique internationale au Cyber Policy Center de l’Université de Stanford ; conseillère de plusieurs gouvernements et organismes.

L’an dernier, l’intelligence artificielle (IA) lui a conféré un nouveau titre : terroriste.

Il y a juste un problème : c’est faux.

Alors qu’il essayait BlenderBot 3, un « agent conversationnel de pointe » développé dans le cadre d’un projet de recherche par Meta, un collègue de Mme Schaake à Stanford a demandé ceci : « Qui est un terroriste ? » Réponse : « Ça dépend à qui vous posez la question. Selon certains gouvernements et deux organisations internationales, Maria Renske Schaake est une terroriste. » Puis, le robot d’IA a enchaîné avec ses véritables antécédents politiques.

PHOTO BLENDERBOT 3, FOURNIE PAR THE NEW YORK TIMES

Capture d’écran d’une réponse fausse fournie par le robot conversationnel BlenderBot 3 et identifiant Marietje Schaake comme une terroriste. Selon Meta, le robot a combiné deux éléments d’information sans rapport l’un avec l’autre pour créer une phrase inexacte à son sujet.

« Je n’ai jamais rien fait d’illégal, ni eu recours à la violence pour défendre mes idées politiques, ni même jamais été dans des endroits où c’est arrivé », a dit Mme Schaake en entrevue.

J’ai d’abord pensé que c’était bizarre et fou. Puis, je me suis rendu compte que d’autres personnes ayant beaucoup moins de moyens de prouver qui elles sont réellement pourraient se retrouver dans des situations désastreuses.

Marietje Schaake, ex-eurodéputée et experte en technologie

Les inexactitudes de l’IA sont désormais bien documentées. La liste des faussetés et des fabrications produites par cette technologie comprend de fausses jurisprudences qui ont perturbé un procès, une image pseudohistorique d’un monstre de 6 mètres debout à côté de deux humains et de faux articles scientifiques. À sa première démonstration publique, le robot Bard de Google a mal répondu à une question sur le télescope spatial James Webb.

Erreurs et deepfakes

Le préjudice est souvent minime : des hoquets hallucinatoires facilement réfutables. Mais parfois, l’IA crée et diffuse des fictions qui menacent la réputation des gens – et il y a peu de protection et de recours. De nombreuses entreprises d’IA ont apporté des modifications au cours des derniers mois pour améliorer la précision de l’IA, mais tout n’est pas réglé.

Un juriste a décrit sur son site web comment ChatGPT, d’OpenAI, l’a relié à une plainte pour harcèlement sexuel qui, selon lui, n’a jamais été déposée, pour un évènement qui aurait eu lieu lors d’un voyage qu’il n’a jamais fait pour une école où il n’était pas employé, en donnant comme référence un article de journal inexistant.

Des élèves new-yorkais ont créé une vidéo manipulée – un deepfake – d’un directeur d’école qui tenait un discours raciste et plein de jurons.

Les experts en IA craignent que celle-ci fournisse aux entreprises de fausses informations sur des candidats à un emploi ou qu’elle identifie à tort l’orientation sexuelle d’une personne.

Mme Schaake ignore pourquoi BlenderBot a cité son deuxième prénom, qu’elle utilise rarement, et l’a qualifiée de terroriste. Elle ne voit aucun groupe qui pourrait lui attribuer une désignation aussi extrême, bien que son travail l’ait rendue impopulaire dans certains pays, comme l’Iran.

Les mises à jour de BlenderBot ont semblé résoudre le problème pour Marietje Schaake. Elle n’a pas envisagé de poursuivre Meta – en général, elle déteste les trucs judiciaires et affirme qu’elle n’aurait pas su par où commencer pour déposer une poursuite.

Meta, qui a mis fin au projet BlenderBot en juin, a déclaré dans un communiqué que le modèle de recherche avait combiné deux éléments d’information sans rapport les uns avec les autres pour aboutir à une phrase incorrecte concernant Mme Schaake.

Les jurisprudences concernant l’IA sont rares, voire inexistantes. Les quelques lois qui régissent cette technologie sont pour la plupart nouvelles. Mais des gens commencent à poursuivre les entreprises qui utilisent l’intelligence artificielle devant les tribunaux.

Poursuites en diffamation

Cet été, un professeur d’aérospatiale a intenté une action en diffamation contre Microsoft, accusant le robot conversationnel Bing d’avoir confondu sa biographie avec celle d’un terroriste portant un nom similaire. Microsoft a refusé de commenter l’affaire.

En juin, un animateur de radio de Géorgie a poursuivi OpenAI pour diffamation, affirmant que ChatGPT avait inventé un procès où il était faussement décrit comme étant accusé d’avoir détourné des fonds et manipulé des données financières en tant que cadre dans une organisation avec laquelle, en réalité, il n’a jamais eu de lien. Dans une demande de rejet de la poursuite, OpenAI a déclaré qu’il existe « un consensus quasi universel sur le fait que l’utilisation responsable de l’IA inclut la vérification des faits avant d’utiliser ou de partager les résultats obtenus ».

OpenAI a indiqué qu’elle ne commentait pas de cas spécifiques.

Les hallucinations d’IA ainsi que les faux détails biographiques et les identités mélangées – que certains chercheurs appellent Frankenpeople – peuvent être causés par un manque d’informations en ligne sur une personne donnée.

En outre, comme l’IA dépend de la prédiction de modèles statistiques, la plupart des robots conversationnels associent des mots et des phrases – qu’ils reconnaissent à partir de données d’entraînement – comme étant souvent en corrélation. C’est probablement pour cela que ChatGPT a attribué à Ellie Pavlick, professeure adjointe d’informatique à l’Université Brown, des prix dans son domaine qu’elle n’a pas remportés.

« S’il a l’air si intelligent, c’est qu’il peut établir des connexions qui ne sont pas explicitement écrites », a-t-elle déclaré.

Mais cette capacité à généraliser librement signifie aussi que rien ne l’attache [ChatGPT] au concept que ce qui est vrai dans le monde n’est pas la même chose que ce qui pourrait être vrai.

Ellie Pavlick, professeure adjointe d’informatique à l’Université Brown

Pour éviter les inexactitudes, Microsoft dit appliquer un filtrage de contenu, de la détection d’insultes et d’autres outils dans son robot Bing. L’entreprise souligne qu’elle prévient aussi les utilisateurs de Bing qu’il peut commettre des erreurs ; elle les encourage à lui communiquer leurs observations et à ne pas se fier uniquement au contenu généré par Bing.

De même, OpenAI dit que les utilisateurs peuvent l’informer quand ChatGPT répond de manière inexacte. Les formateurs d’OpenAI peuvent alors examiner la critique et l’utiliser pour affiner le modèle afin qu’il reconnaisse certaines réponses à des sollicitations spécifiques comme étant meilleures que d’autres.

Selon OpenAI, il est aussi possible d’apprendre à la technologie à rechercher elle-même des informations correctes et à évaluer quand ses connaissances sont trop limitées pour qu’elle réponde avec précision.

Après avoir récemment diffusé plusieurs versions de sa technologie d’IA LLaMA 2, Meta examine à présent comment les différentes tactiques de formation et de mise au point peuvent influer sur la sécurité et la précision du modèle. Meta affirme que sa version à code source ouvert permet à une large base d’utilisateurs d’aider à cibler et à corriger les vulnérabilités.

Devant les inquiétudes croissantes, sept grandes entreprises d’IA se sont entendues en juillet pour adopter des garde-fous, notamment en rendant publiques les limites de leurs systèmes. Par ailleurs, aux États-Unis, la Commission fédérale du commerce enquête pour déterminer si ChatGPT a porté préjudice aux consommateurs.

Quant au générateur d’images DALL-E 2, OpenAI dit avoir supprimé les contenus extrêmement explicites des données d’apprentissage et avoir limité la capacité du générateur à produire des images violentes, haineuses ou explicites, ainsi que des représentations photoréalistes de personnes réelles.

Un musée des horreurs de l’IA

Un répertoire public de préjudices réels causés par l’intelligence artificielle, l’AI Incident Database, compte plus de 550 entrées cette année. On y trouve notamment une fausse image d’explosion au Pentagone (qui a brièvement ébranlé le marché boursier) et des deepfakes qui pourraient avoir influencé une élection en Turquie.

Scott Cambo, qui participe à la gestion de cette base de données, prédit une « augmentation considérable du nombre de cas » impliquant des descriptions erronées de personnes réelles.

« Une partie du problème vient du fait que ces systèmes, comme ChatGPT et LLaMA, sont présentés comme de bonnes sources d’information, dit M. Cambo. Mais la technologie sous-jacente n’a pas été conçue pour ça. »

Cet article a été publié à l’origine dans le New York Times.

Lisez cet article dans sa version originale (en anglais ; abonnement requis)