(Boston) Rohit Prasad, cadre supérieur d’Amazon, avait un message urgent à transmettre aux élèves [des niveaux équivalents à la 3e et la 4e année du secondaire] de la Dearborn STEM Academy, une école publique située dans le quartier de Roxbury, à Boston.

Il était venu à l’école un matin récent pour observer une leçon d’intelligence artificielle (IA) parrainée par Amazon, qui apprend aux élèves à programmer des tâches simples pour Alexa, l’assistant virtuel à commande vocale d’Amazon. Il a assuré aux élèves de Dearborn qu’il y aurait bientôt des millions de nouveaux emplois dans le domaine de l’intelligence artificielle.

« Nous devons créer des talents pour la prochaine génération », a déclaré M. Prasad, responsable scientifique d’Alexa, à la classe. « C’est pourquoi nous sensibilisons les élèves à l’IA dès le plus jeune âge. »

PHOTO SOPHIE PARK, THE NEW YORK TIMES

Le cadre supérieur d’Amazon Rohit Prasad devant des élèves du secondaire à Boston

À quelques kilomètres de là, Sally Kornbluth, présidente du Massachusetts Institute of Technology (MIT), adressait un message plus sérieux sur l’IA aux élèves des écoles locales qui s’étaient rassemblés dans le complexe de la bibliothèque Kennedy de Boston pour un atelier sur les risques et la réglementation de l’IA.

« L’IA est une nouvelle technologie si puissante que, pour qu’elle fonctionne bien dans la société, elle a vraiment besoin de règles », a déclaré Mme Kornbluth. « Nous devons nous assurer qu’elle ne cause pas de dommages. »

La « maîtrise de l’IA »

Les évènements organisés le même jour – l’un encourageant les travaux sur l’intelligence artificielle et l’autre mettant en garde contre un déploiement trop hâtif de cette technologie – reflètent le débat plus large qui fait rage actuellement aux États-Unis sur les promesses et les dangers potentiels de l’intelligence artificielle.

Les deux ateliers pour les élèves ont été organisés à l’initiative du MIT sur « l’IA responsable » dont les donateurs sont Amazon, Google et Microsoft. Ils ont mis l’accent sur une question qui a préoccupé les districts scolaires de tout le pays cette année : comment les écoles doivent-elles préparer les élèves à naviguer dans un monde où, selon d’éminents développeurs d’IA, la montée en puissance des outils alimentés par l’IA semble tout à fait inévitable ?

L’enseignement de l’IA dans les écoles n’est pas nouveau. Les cours d’informatique et d’éducation civique comprennent désormais régulièrement des exercices sur les conséquences sociétales de la reconnaissance faciale et d’autres systèmes automatisés.

Mais la pression en faveur de l’enseignement de l’IA s’est faite plus pressante cette année, après que des informations sur ChatGPT – un nouveau robot conversationnel capable de produire des devoirs semblables à ceux des humains et parfois de fabriquer des informations erronées – ont commencé à se répandre dans les écoles.

Aujourd’hui, la « maîtrise de l’IA » est une nouvelle expression à la mode dans le domaine de l’éducation. Les écoles se démènent pour trouver les ressources nécessaires à son enseignement. Certaines universités, entreprises technologiques et organisations à but non lucratif proposent des programmes prêts à l’emploi.

Former et prévenir

Les cours se multiplient alors même que les écoles sont confrontées à une question fondamentale : doivent-elles enseigner aux élèves la programmation et l’utilisation des outils d’IA, afin de les former aux compétences techniques recherchées par les employeurs ? Ou bien les élèves doivent-ils apprendre à anticiper et à atténuer les effets néfastes de l’IA ?

Cynthia Breazeal, professeure au MIT qui dirige l’initiative de l’université sur l’IA responsable de l’autonomisation sociale et de l’éducation, a expliqué que son programme visait à aider les écoles à faire les deux.

« Nous voulons que les élèves soient des utilisateurs et des concepteurs informés et responsables de ces technologies », a dit Mme Breazeal, dont le groupe a organisé les ateliers sur l’IA pour les écoles.

PHOTO SOPHIE PARK, THE NEW YORK TIMES

Cynthia Breazeal, professeure au MIT

Nous voulons en faire des citoyens informés et responsables en ce qui concerne l’évolution rapide de l’IA et les nombreuses façons dont elle influence nos vies personnelles et professionnelles.

Cynthia Breazeal, professeure au MIT

(Par souci de transparence : l’autrice de ce texte a récemment bénéficié d’une bourse dans le cadre du programme Knight Science Journalism au MIT.)

Les ateliers de Boston faisaient partie d’une « Journée de l’IA » organisée par le programme de Mme Breazeal, qui a attiré plusieurs milliers d’élèves dans le monde entier. Cet évènement a donné un aperçu des différentes approches adoptées par les écoles en matière d’enseignement de l’IA.

PHOTO SOPHIE PARK, THE NEW YORK TIMES

Hilah Barbot, gestionnaire principale de produits chez Amazon Future Engineer

À Dearborn STEM, Hilah Barbot, gestionnaire principale de produits chez Amazon Future Engineer, le programme d’enseignement de l’informatique de l’entreprise, a animé une leçon sur l’IA vocale pour les élèves. Les leçons ont été élaborées par le MIT en collaboration avec le programme d’Amazon, qui propose des formations de codage et d’autres formations aux écoles primaires et secondaires. L’entreprise a accordé plus de 2 millions de dollars de subventions au MIT pour ce projet.

Tout d’abord, Mme Barbot a expliqué le jargon de l’IA vocale. Elle a expliqué aux élèves les « énoncés », c’est-à-dire les phrases que les consommateurs peuvent prononcer pour demander à Alexa de répondre.

Les élèves ont ensuite programmé des tâches simples pour Alexa, comme raconter des blagues. Jada Reed, élève de 3e secondaire, a programmé Alexa pour qu’elle réponde à des questions sur les personnages de mangas japonais. « Je pense que c’est vraiment cool de pouvoir l’entraîner à faire différentes choses », a-t-elle raconté.

Outils de premier plan

Mme Breazeal affirme qu’il était important que les élèves aient accès à des outils logiciels professionnels proposés par des entreprises technologiques de premier plan. « Nous leur donnons des compétences et des perspectives sur la manière dont ils peuvent travailler avec l’IA pour faire des choses qui leur tiennent à cœur », a-t-elle dit.

Certains élèves de Dearborn, qui avaient déjà construit et programmé des robots à l’école, ont déclaré qu’ils avaient aimé apprendre à coder une technologie différente : les robots d’assistance à commande vocale. Alexa utilise une série de techniques d’intelligence artificielle, notamment la reconnaissance automatique de la parole.

PHOTO SOPHIE PARK, THE NEW YORK TIMES

Amazon a accordé plus de 2 millions de dollars de subventions au MIT pour ce projet.

Quelques élèves au moins ont également fait part de leurs préoccupations en matière de protection de la vie privée et d’autres aspects des outils assistés par l’IA.

« Saviez-vous qu’il existe une théorie du complot selon laquelle Alexa écoute vos conversations pour vous montrer des publicités ? », a demandé Eboni Maxwell, une élève de 14 ans.

« Je n’ai pas peur qu’elle écoute », a répondu Laniya Sanders, une autre élève de son âge. Malgré tout, Laniya Sanders a indiqué qu’elle évitait d’utiliser les assistants vocaux parce que, dit-elle, « je veux le faire moi-même ».

À quelques kilomètres de là, à l’Edward M. Kennedy Institute for the United States Senate, un centre éducatif qui abrite une réplique grandeur nature de la salle du Sénat américain, des dizaines d’élèves de l’école Warren Prescott de Charlestown, dans le Massachusetts, exploraient un sujet différent : la politique de l’IA et les règles de sécurité.

PHOTO SOPHIE PARK, THE NEW YORK TIMES

Réplique grandeur nature de la salle du Sénat américain à l’Edward M. Kennedy Institute

Jouant le rôle de sénateurs de différents États, les élèves ont participé à une simulation d’audition au cours de laquelle ils ont débattu des dispositions d’un hypothétique projet de loi sur la sécurité de l’IA.

Certains élèves voulaient interdire aux entreprises et aux services de police d’utiliser l’IA pour cibler des personnes sur la base de données telles que leur race ou leur appartenance ethnique. D’autres voulaient obliger les écoles et les hôpitaux à évaluer l’équité des systèmes d’IA avant de les déployer.

L’exercice n’était pas inconnu des élèves. Nancy Arsenault, professeure d’anglais et d’éducation civique à Warren Prescott, a déclaré qu’elle demandait souvent à ses élèves de réfléchir à la manière dont les outils numériques les affectaient, eux et les personnes qui leur sont chères.

« Même si les élèves adorent la technologie, ils sont parfaitement conscients qu’ils ne veulent pas d’une IA débridée », a-t-elle dit. « Ils veulent des limites. »

Cet article a été publié à l’origine dans le New York Times.

Lisez l’article complet (en anglais ; abonnement requis)