L’agent conversationnel d’intelligence artificielle (IA) Claude, l’un des plus en vogue dans le secteur technologique, a débarqué au Canada dans l’espoir de propager sa philosophie axée sur la sécurité.

Claude, qui peut répondre à des questions, résumer des documents, rédiger des textes et même coder, a été rendu disponible au Canada mercredi. La technologie lancée par l’entreprise émergente Anthropic, établie à San Francisco, en 2023, était déjà disponible dans plus d’une centaine de pays.

Elle traverse maintenant la frontière parce que l’entreprise a constaté des signes les informant que les Canadiens sont désireux de se lancer dans l’IA, a déclaré Jack Clark, un des cofondateurs d’Anthropic et responsable des politiques de l’entreprise.

« Nous avons un énorme intérêt de la part des Canadiens pour cette technologie, et nous avons étendu nos produits ainsi que nos organisations de manière conforme, nous sommes donc en mesure d’opérer dans d’autres régions », a-t-il dit.

PHOTO ANTHONY WALLACE, ARCHIVES AGENCE FRANCE-PRESSE

Jack Clark

L’entreprise a rendu sa politique de confidentialité plus claire et plus facile à comprendre avant le lancement de Claude au Canada.

Bien que le Canada a eu accès à bon nombre des plus grands produits d’intelligence artificielle, certains agents conversationnels ont mis plus de temps à arriver au pays.

Google, par exemple, n’a introduit son agent conversationnel Gemini au Canada qu’en février parce qu’il négociait avec le gouvernement fédéral autour d’une loi l’obligeant à indemniser les entreprises médiatiques canadiennes pour le contenu publié ou réutilisé sur ses plateformes.

Malgré les retards, les Canadiens ont essayé de nombreux systèmes d’intelligence artificielle, notamment Copilot de Microsoft et ChatGPT d’OpenAI, qui a déclenché la récente frénésie de l’IA à sa sortie en novembre 2022.

La sécurité, plus qu’une « quête secondaire »

Les fondateurs d’Anthropic se sont rencontrés à OpenAI, mais ont bâti leur propre entreprise avant les débuts de ChatGPT et ont rapidement décidé que leur mission était de rendre Claude autant sécuritaire que possible.

« Nous avons toujours pensé à la sécurité comme quelque chose qui, pendant de nombreuses années, a été considéré comme un complément ou une sorte de quête secondaire de l’IA », a déclaré Jack Clark.

« Mais notre pari chez Anthropic est que si nous en faisons le cœur du produit, cela crée à la fois un produit plus utile et plus précieux pour les gens, mais aussi plus sûr. »

Dans le cadre de cette mission, Anthropic n’entraîne pas ses modèles avec les données des utilisateurs par défaut. Il utilise plutôt des informations accessibles au public sur l’internet, des ensembles de données avec l’autorisation d’entreprises tierces et des données fournies par les utilisateurs.

Il s’appuie également sur une IA dite « constitutionnelle », c’est-à-dire qu’un ensemble de valeurs est donné aux systèmes d’IA de l’entreprise, qui peuvent s’entraîner afin de devenir plus utiles et moins nocifs.

Chez Anthropic, ces valeurs incluent la Déclaration universelle des droits de l’homme des Nations unies, qui met en avant le traitement équitable des personnes, peu importe leur âge, leur sexe, leur religion et leur couleur.

Les rivaux d’Anthropic en prennent note, d’après M. Clark.

« Chaque fois que nous gagnons des clients –– et c’est en partie à cause de la sécurité - d’autres entreprises y prêtent beaucoup d’attention et finissent par développer des produits similaires, ce qui, je pense, est un bon incitatif pour tous les acteurs du secteur », a-t-il déclaré.

Il s’attend à ce que cette tendance se poursuive.

« Notre point de vue général est que la sécurité de l’IA sera un peu comme les ceintures de sécurité pour les voitures et que si vous développez des technologies assez simples et suffisamment bonnes, tout le monde finira par les adopter parce que ce ne sont que de bonnes idées. »

L’engagement d’Anthropic en faveur de la sécurité survient alors que de nombreux pays en sont encore aux premiers stades de l’élaboration de politiques susceptibles de réglementer la manière dont l’IA peut être utilisée et de minimiser les dommages potentiels de la technologie.

Le Canada a déposé un projet de loi centré sur l’IA en 2022, mais il ne sera pas mis en œuvre avant 2025. Le pays a entre-temps créé un code de conduite volontaire.

Le code demande aux signataires comme Cohere, OpenText et BlackBerry de surveiller les risques liés aux systèmes d’IA et de tester leurs biais avant de les lancer.

Jack Clark ne s’est pas engagé à ce qu’Anthropic signe le code. Il a déclaré que l’entreprise se concentrait sur des efforts mondiaux ou du moins concernant plusieurs pays, comme le processus d’IA d’Hiroshima, que les pays du G7 ont utilisé pour produire un cadre destiné à promouvoir une IA sûre, sécurisée et digne de confiance.