(Paris) L’UNESCO a appelé jeudi les États à appliquer sa recommandation émise en 2021 afin d’encadrer l’intelligence artificielle (IA), alors qu’Elon Musk et des centaines d’experts ont appelé à une pause de six mois sur ces recherches, invoquant des « risques majeurs pour l’humanité ».

« Le monde a besoin de règles éthiques pour l’intelligence artificielle : c’est le défi de notre temps. La recommandation de l’UNESCO sur l’éthique de l’IA définit le cadre normatif approprié », a commenté Audrey Azoulay, la directrice générale de l’UNESCO, dans un communiqué.

Les 193 États-membres de cette organisation onusienne avaient adopté à l’unanimité en novembre 2021 un « premier cadre normatif mondial pour une utilisation éthique de l’IA », une « feuille de route pour les pays, qui décrit comment amplifier les avantages de l’IA tout en réduisant les risques que cette technologie comporte », selon l’UNESCO.

Fruit de trois ans de travail, ce texte liste des actions à réaliser, notamment la mise en place d’un outil législatif pour encadrer et surveiller les IA, « assurer une sécurité totale pour les données personnelles et sensibles » ou encore éduquer les masses à leur sujet.

« Il est aujourd’hui urgent que tous transposent ce cadre sous la forme de stratégies et de réglementations nationales. Nous devons traduire les engagements en actes », a souligné Mme Azoulay, car selon son organisation, « l’autorégulation de l’industrie n’est manifestement pas suffisante pour éviter ces préjudices éthiques ».

Plus de quarante pays « de toutes les régions du monde » travaillent déjà à développer ces garde-fous « en s’appuyant sur la recommandation », d’après l’UNESCO.

Des centaines d’experts mondiaux, dont Elon Musk, le propriétaire de Twitter et fondateur de SpaceX et de Tesla, ou encore le cofondateur d’Apple Steve Wozniak, ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles.

Dans cette pétition, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ».

« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? […] Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus », ont-ils argumenté.