• Accueil > 
  • Sciences 
  • > L'intelligence artificielle, notre futur Terminator? 

L'intelligence artificielle, notre futur Terminator?

Nick Bostrom, futurologue à l'Université d'Oxford, pense que... (PHOTO JOCHEN LUEBKE, ARCHIVES ASSOCIATED PRESS)

Agrandir

Nick Bostrom, futurologue à l'Université d'Oxford, pense que «la machine intelligente parviendra à dépasser l'intelligence biologique. Il y aura alors des risques existentiels associés à cette transition».

PHOTO JOCHEN LUEBKE, ARCHIVES ASSOCIATED PRESS

Partage

Partager par courriel
Taille de police
Imprimer la page
Pascale MOLLARD-CHENEBENOIT, Richard INGHAM
Agence France-Presse
Paris

L'intelligence artificielle pourrait menacer à terme l'Humanité: il ne s'agit pas d'un film de science-fiction, mais de la prédiction du célèbre physicien Stephen Hawking, qui relance le débat sur le risque de voir l'homme dépassé par les technologies qu'il a lui-même créées.

Interrogés par l'AFP, anthropologue, futurologues et experts en intelligence artificielle se montrent partagés sur les craintes d'Hawking.

Les craintes d'un homme apprenti sorcier sont anciennes et elles ont nourri nombre de romans et des films comme 2001: Odyssée de l'espace avec son ordinateur meurtrier Hal 9000 et plus récemment Terminator, le robot exterminateur.

Mais aujourd'hui, c'est un astrophysicien très respecté, le Britannique Stephen Hawking, qui lance un pavé dans la mare. Atteint d'une dystrophie neuromusculaire, il s'exprime grâce à un ordinateur.

«Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles», reconnaît-il. «Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine», a-t-il déclaré cette semaine à la BBC.

Déjà, le milliardaire Elon Musk avait expliqué avoir investi dans des sociétés d'intelligence artificielle pour «garder un oeil» sur ce qui se passe dans ce domaine. «Nous devons nous assurer que les conséquences sont bonnes et non mauvaises», selon lui.

«Cela me fait plaisir qu'un scientifique des «Sciences dures» dise cela. Je le dis depuis des années», déclare Daniela Cerqui, anthropologue à l'université de Lausanne.

«Nous déléguons à ces machines de plus en plus de prérogatives de l'humain, afin qu'elles soient plus performantes que nous. On va finir par devenir leur esclave», selon elle.

À l'inverse, Jean-Gabriel Ganascia, philosophe et expert en intelligence artificielle, juge «excessif» le «cri d'alarme» de Hawking.

«Le danger, c'est davantage l'homme qui se servirait de ces technologies pour asservir» d'autres humains, considère ce professeur à l'Université Pierre-et-Marie-Curie à Paris.

Développer une intelligence artificielle «amicale»

Nick Bostrom, futurologue à l'Université d'Oxford, pense que «la machine intelligente parviendra à dépasser l'intelligence biologique. Il y aura alors des risques existentiels associés à cette transition».

«Les machines sont déjà plus fortes que nous. Je pense qu'elles finiront aussi par devenir plus intelligentes, même si ce n'est pas le cas actuellement», ajoute-t-il.

Au cours de ces dernières années, d'énormes progrès ont été réalisés dans le domaine de l'intelligence artificielle, en tant que capacité à traiter, à analyser des données et à répondre à des questions.

Mais on est «encore loin» de l'intelligence artificielle générale «complète», qui inquiète Stephen Hawking, souligne Anthony Cohn, professeur à l'université de Leeds (centre du Royaume-Uni). «Il faudra encore plusieurs décennies.»

Mathieu Lafourcade, spécialiste en intelligence artificielle et en traitement du langage à l'Université de Montpellier (sud de la France), juge «alarmiste» l'avertissement du physicien.

Mais il pense que «dans un futur hypothétique», il faudra peut-être «s'en remettre» dans certains domaines aux machines, car leurs capacités intellectuelles auront dépassé les nôtres. «La machine nous proposera une solution que nous ne serons pas à même de comprendre, mais il faudra lui faire confiance», par exemple si elle nous recommande des mesures contre le réchauffement climatique, considère-t-il.

«Toutefois, si la machine débloque, il faudra se réserver la possibilité de la débrancher», souligne-t-il.

Stuart Armstrong, futurologue à l'université d'Oxford, relève que «les incertitudes sur le développement de l'intelligence artificielle sont extrêmes».

«Le problème, c'est qu'il est extrêmement difficile de programmer des objectifs compatibles avec la dignité voire la survie de l'Humanité», dit-il.

«Il faudrait programmer presque toutes les valeurs humaines parfaitement dans l'ordinateur afin d'éviter que l'Intelligence artificielle n'interprète «éradique la maladie» comme «tue tout le monde» ou bien «garde les humains sains et saufs et contents» comme «enterre tout le monde dans des bunkers avec de l'héroïne»».

«Il faut que les ingénieurs prennent ces problèmes au sérieux et trouvent des solutions pour développer une intelligence artificielle «amicale», pleinement compatible avec les valeurs humaines», considère-t-il.

Partager

publicité

publicité

Les plus populaires

Tous les plus populaires
sur lapresse.ca
»

publicité

Autres contenus populaires

publicité

image title
Fermer