(New York) Les entreprises les plus avancées dans le domaine de l’intelligence artificielle (IA) doivent accepter que leurs employés portent publiquement un regard critique sur leurs activités et les risques liés à l’IA, ont réclamé plusieurs salariés d’OpenAI sous couvert d’anonymat ainsi que des anciens de la start-up.

« Dans la mesure où ces sociétés ne sont pas soumises à la supervision des autorités, les employés actuels ou anciens font partie des rares personnes qui peuvent leur demander des comptes », expliquent les 13 signataires de la lettre ouverte, publiée mardi.

Parmi eux figurent quatre employés d’OpenAI et sept anciens.

Ces signataires regrettent que « des clauses de confidentialité exhaustives les empêchent d’exprimer (leurs) préoccupations » publiquement.

Dans la mesure où les problèmes que souhaitent évoquer ces programmeurs ne relèvent pas d’activités illégales, ils ne peuvent bénéficier du statut de lanceur d’alerte, soulignent-ils.

« Certains d’entre nous craignent des représailles (au cas où ils communiqueraient ouvertement), compte tenu des précédents qui existent dans l’industrie », selon la lettre.

Parmi les risques cités, « le renforcement des inégalités, la manipulation, la désinformation, en allant jusqu’à la perte de contrôle de systèmes d’IA autonomes qui pourraient entraîner l’extinction de l’humanité ».

S’ils estiment que ces risques peuvent être limités « avec le concours de la communauté scientifique, des autorités et du public », « les entreprises de l’IA sont incitées financièrement à échapper à une supervision efficace ».

Les auteurs de la lettre demandent ainsi aux sociétés phares de l’IA de « soutenir une culture de la critique ouverte en permettant à leurs employés actuels et anciens de mettre en avant publiquement des inquiétudes liées à leurs technologies ».

Ils encouragent aussi la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques.

Sollicité par l’AFP, Open AI s’est dit « fier » de posséder ce qu’il considère comme les systèmes d’IA « les plus puissants et les plus sûrs ».

« Nous partageons l’idée selon laquelle un débat rigoureux est crucial vue la portée de cette technologie et nous allons continuer à échanger avec les gouvernements, la société civile et d’autres entités à travers le monde », a ajouté une porte-parole d’OpenAI.