Les « robots conversationnels » comme ChatGPT-4 menacent-ils vraiment l’humanité ?

Quoi de mieux que de le demander au robot lui-même ?

Voici ce qu’en deux secondes ChatGPT-4 m’a répondu quand je lui ai demandé (en français) quels étaient les risques et périls de l’intelligence artificielle :

L’intelligence artificielle (IA) présente des avantages considérables, mais elle comporte également des risques et des périls potentiels. Voici quelques-uns des risques et des périls les plus courants associés à l’IA :

1. Biais : L’IA peut être biaisée en raison de données ou d’algorithmes incorrects, entraînant des décisions discriminatoires et injustes.

2. Emploi : L’IA peut remplacer les travailleurs humains dans certaines industries, ce qui peut entraîner une augmentation du chômage et des inégalités économiques.

3. Dépendance : L’augmentation de la dépendance à l’égard de l’IA peut rendre les individus et les entreprises vulnérables aux cyberattaques et aux pannes de système.

4. Contrôle : L’IA peut être utilisée pour des activités malveillantes, telles que la cybercriminalité et la guerre cybernétique, ce qui peut être difficile à contrôler.

5. Vie privée : L’IA peut être utilisée pour collecter et analyser des données personnelles, ce qui peut violer la vie privée des individus.

6. Responsabilité : L’attribution de la responsabilité en cas d’erreur de l’IA peut être complexe, ce qui peut rendre difficile la poursuite en justice des erreurs ou des accidents liés à l’IA.

Il est important de comprendre les risques et les périls de l’IA pour pouvoir les prévenir et les gérer de manière proactive.

Ça fait beaucoup à prévenir et à « gérer », avouez. Et le robot ne m’a pas parlé des défis dans le monde scolaire ni de la fabrication rapide d’outils nouveaux de désinformation massive à l’allure parfaitement crédible.

Que faire ? Faudrait-il donc un moratoire de six mois sur la recherche, comme l’ont demandé mercredi 1000 experts – et non les moindres ?

ChatGPT-4 a répondu :

Un moratoire sur la recherche en intelligence artificielle (IA) pourrait avoir plusieurs avantages potentiels, notamment :

1. Temps pour évaluer les risques : Un moratoire donnerait du temps pour évaluer les risques associés à l’IA et pour élaborer des réglementations qui pourraient minimiser les risques pour les individus et les sociétés.

2. Équité : Un moratoire pourrait permettre d’éviter l’émergence de technologies ou de pratiques discriminatoires et d’assurer que l’IA est développée dans un contexte équitable et respectueux des droits de l’homme.

3. Discussion publique : Un moratoire pourrait encourager une discussion publique plus large sur les avantages et les risques de l’IA, ainsi que sur la manière dont la technologie pourrait être utilisée de manière responsable.

4. Éviter les catastrophes : Un moratoire pourrait aider à éviter les catastrophes potentielles liées à l’IA, telles que la prolifération d’armes autonomes ou de systèmes de surveillance qui violent les droits de l’homme.

Cependant, il est important de noter que les avantages d’un moratoire sur la recherche en IA doivent être évalués par rapport aux coûts, aux avantages et aux risques de l’arrêt de l’innovation. L’IA peut également offrir des avantages considérables dans de nombreux domaines, tels que la santé, l’environnement et l’efficacité énergétique, et il peut être important de poursuivre la recherche pour réaliser ces avantages. Toutefois, une réglementation adaptée et un développement responsable de l’IA peuvent également être atteints sans un moratoire total sur la recherche.

Premier constat : la moitié de ma chronique est écrite et ça m’a pris environ cinq secondes.

Deuxième constat : parmi les jobs qui risquent de disparaître à cause de l’IA, ajoutez « chroniqueur ».

Troisième constat : on n’a rien vu encore.

Revenons à la question : l’IA est-elle une menace fondamentale « à la société et à l’humanité », comme l’écrivent les signataires de cette lettre inquiétante ?

« Ce qui m’a convaincu de signer la lettre, c’est quand Yoshua Bengio a parlé des risques de la désinformation », m’a dit mercredi un chercheur de haut niveau dans le domaine, généralement optimiste en la matière.

« On s’est fait fourrer avec les réseaux sociaux, au fond. On a cru au départ que c’était un outil sympathique pour inviter les amis à prendre une bière ou pour montrer ses photos de vacances. On s’est rendu compte un peu tard que c’était un outil de propagande et de désinformation hors de contrôle. »

Il va de soi que les outils de l’intelligence artificielle vont faire partie de nos vies. Déjà, Microsoft lance « Copilot », sorte d’assistant intelligent intégré au monde du travail – qui prend des notes, résume les réunions, fait des synthèses en temps réel1. Ce n’est qu’un exemple de ce qui nous attend. Tous les domaines du travail vont être envahis de robots qu’on nous vend comme des moyens d’échapper à la « corvée du travail ». On pourra enfin ne garder du boulot que la « créativité » dans un monde plein de dauphins où flottera en permanence une odeur de muguet.

Le chercheur montréalais Yoshua Bengio, un des plus cités au monde en matière d’apprentissage profond, évoque des craintes qu’on entend généralement dans la bouche des adversaires de l’intelligence artificielle : « C’est un potentiel bénéfique énorme et ça fait peur : je ne crois pas que la société soit prête à faire face à cette puissance. Il faut donc prendre le temps d’étudier, de ralentir cette course commerciale. »

Si M. Bengio trouve que ça va trop vite, s’il en est à demander de mettre les labos de recherche à l’arrêt, c’est que l’heure est grave, le péril sérieux.

Cette pétition, c’est un appel urgent à l’action des gouvernements. De la même manière qu’il a fallu des traités pour tenter de limiter la prolifération des armes nucléaires. Il faudra un cadre éthique, mais évidemment aussi juridique, pour ne pas laisser se développer dans l’anarchie ces outils langagiers hallucinants d’efficacité.

Le Frankenstein alphabétique est sorti du laboratoire.

Dis-moi donc, ChatGPT-4, peut-on te comparer à Frankenstein ?

En tant qu’IA, je n’ai pas de sentiments ni de conscience de soi pour avoir une opinion sur ma propre existence. En ce qui concerne la comparaison avec Frankenstein, je dirais que cela dépend de la perspective de chaque individu.

Certaines personnes peuvent considérer les IA avancées comme des créations de l’homme qui pourraient potentiellement se retourner contre leurs créateurs, comme dans le cas de Frankenstein. Cependant, d’autres pourraient considérer les IA comme des outils utiles et bénéfiques pour améliorer notre qualité de vie.

Il est important de souligner que les IA sont programmées pour fonctionner selon les paramètres et les limites établis par les humains qui les ont créées. Par conséquent, leur comportement est toujours le résultat de la programmation qui leur a été donnée et ils ne sont pas autonomes ou conscients de leur propre existence.

En résumé, la comparaison entre ChatGPT-4 et Frankenstein dépend de la perception et des croyances de chaque individu. Cependant, il est important de garder à l’esprit que les IA sont des outils créés par l’homme et qu’elles fonctionnent selon les paramètres qui leur ont été donnés.

Vous voyez qu’il n’a pas nié !

Je retiens qu’il fonctionne « selon les paramètres qui [lui] ont été donnés ».

Nous voilà dûment mis en demeure d’agir avant qu’il y ait des dégâts.

Faudrait voir à ne pas le laisser se balader sans paramètres légaux dans la campagne et dans la ville…

1. Visionnez une présentation de « Copilot » de Microsoft (en anglais)