(La Haye) Les criminels sont prêts à tirer parti de l’intelligence artificielle comme le robot conversationnel ChatGPT pour commettre des fraudes et d’autres cybercrimes, a averti lundi l’agence de police européenne Europol.

De l’hameçonnage à la désinformation et aux logiciels malveillants, les capacités en évolution rapide des robots de conversation (dialogueurs) sont susceptibles d’être rapidement exploitées par des personnes mal intentionnées, a déclaré Europol dans un nouveau rapport.

Créé par la startup américaine OpenAI, ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs émerveillés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code, et même à réussir des examens.

« L’exploitation potentielle de ces types de systèmes d’IA [intelligence artificielle] par des criminels offre de sombres perspectives », a déclaré Europol, basé à La Haye (Pays-Bas).

Le nouveau « Laboratoire d’innovation » d’Europol a examiné l’utilisation des dialogueurs dans son ensemble mais s’est concentré sur ChatGPT, car il s’agit du plus médiatisé et du plus utilisé.

Les criminels pourraient utiliser ChatGPT pour « accélérer considérablement le processus de recherche » dans des domaines dont ils ne connaissent rien, comme la rédaction d’un texte pour commettre une fraude ou donner des informations sur « comment entrer par effraction dans une maison, le terrorisme, la cybercriminalité et les abus sexuels sur des enfants », a soulevé l’agence.

La capacité du robots de conversation à imiter les styles de discours l’a rendu particulièrement efficace pour créer des courriels d’hameçonnage, et sa capacité à produire rapidement un texte le rend « idéal à des fins de propagande et de désinformation », avertit Europol.

ChatGPT peut également être utilisé pour écrire du code informatique, sans avoir les connaissances techniques.

Bien que ChatGPT ait des garanties, comme une modération du contenu — qui implique que le robot ne répond pas aux questions classées nuisibles ou biaisées —, celles-ci pourraient être contournées, a déclaré Europol.

L’IA en est encore à ses débuts et ses capacités devraient « s’améliorer encore avec le temps », a ajouté l’agence. « Il est de la plus haute importance que la sensibilisation soit accrue à ce sujet, afin de garantir que toute faille potentielle soit découverte et comblée le plus rapidement possible ».