En attendant Terminator...

On est encore loin du moment où les... (Photothèque Le Soleil)

Agrandir

On est encore loin du moment où les machines, comme dans le film Terminator, vont réagir et penser comme un être humain.

Photothèque Le Soleil

Partage

Partager par courriel
Taille de police
Imprimer la page

(Québec) «Je serais curieux de lire ce que vous pensez de la récente mise en garde de Stephen Hawking à propos de l'intelligence artificielle qui serait la plus grande menace à la survie de l'humanité», demande Nicolas Gagnon, de Rivière-du-Loup.

L'an dernier, rappelons-le, au cours d'une entrevue avec la BBC (la télé publique anglaise), le célèbre physicien Stephen Hawking avait prévu qu'éventuellement, des ordinateurs suffisamment sophistiqués et capables d'apprentissage pourraient, disait-il, «finir par voler de leurs propres ailes et se reprogrammer eux-mêmes de façon à s'améliorer à une vitesse toujours croissante. L'espèce humaine, qui est limitée par la lenteur de l'évolution biologique, serait déclassée» ce qui, à terme, pourrait mener à «la fin de l'humanité».

Cette crainte, remarquez, ne date pas d'hier, tant s'en faut. Dès 1967, le mathématicien américain Ray Solomonoff, un des pionniers de l'intelligence artificielle, estimait qu'il s'agissait d'un problème «très sérieux et très difficile» parce qu'il avait le sentiment que, même si c'était très loin dans le futur, il surgirait soudainement, sans avertissement. Et comme on le sait, bien des romans et des films populaires ont par la suite exploité ce thème, les plus connus étant sans doute 2001 : A Space Odyssey et Terminator.

Cela dit, si beaucoup d'experts ont réagi aux propos de M. Hawking, bien peu (en fait, aucun, à notre connaissance) se sont montrés convaincus de l'utilité de lancer un tel avertissement dès maintenant. Et ce n'est pas Xavier Bouthillier, doctorant en informatique à l'Université de Montréal, qui va les contredire.

«C'est difficile de dire que ça n'arrivera jamais, dit-il. Ça relèverait de la croyance. Mais, étant donné ce qu'on sait sur le cerveau, sur la différence de complexité entre ce qu'on peut faire faire à un ordinateur et ce dont le cerveau est capable, je pense qu'on en est encore très, très loin. C'est sûr que, des fois, les choses évoluent beaucoup plus vite qu'on le pense, mais à la vitesse à laquelle ça évolue présentement, cela prendra plusieurs siècles avant que l'intelligence artificielle puisse possiblement poser ce genre de danger. À l'heure actuelle, avoir peur de l'intelligence artificielle pour ça, cela revient à regarder les voitures d'aujourd'hui aller et avoir peur d'aller à vitesse lumière.»

C'est que, explique M. Bouthillier, si les ordinateurs sont capables de faire en une fraction de seconde des calculs que les cerveaux les plus matheux mettraient des heures à finir, l'«intelligence artificielle» ne peut pas se résumer à cela. Il s'agit plutôt d'une notion plus large, d'une capacité à résoudre des problèmes et à apprendre. Et de ce point de vue, nos machines sont encore, sauf tout le respect qu'on leur doit, d'intégrales idiotes à bien des égards.

Manifestement, le cerveau humain et les puces informatiques ne fonctionnent pas (encore) de la même manière. «Une des premières approches en intelligence artificielle, dans les années 50 et 60, c'est qu'on essayait de résoudre des problèmes uniquement avec de la logique pure, parce qu'on pensait que l'humain raisonnait comme ça. Mais ce n'est pas vrai qu'on fait juste de la logique pure, on a aussi des réponses intuitives, on apprend des choses et on donne des réponses approximatives», dit notre informaticien.

Toute une aventure

Ainsi, illustre-t-il, on a énormément de difficulté à faire reconnaître des images par des ordinateurs. Par exemple, la tâche prodigieusement simple de déterminer si une voiture se trouve ou non dans une image représente toute une aventure pour un ordinateur. On peut bien encoder dans un ordinateur la forme générale d'une voiture, cela ne le rendra pas capable de «voir» des autos atypiques comme les Smart ou les Formules 1 sur une photo, même si c'est à la portée d'un enfant de 2 ans. Et encore, dit

M. Bouthillier, même avec les meilleurs programmes, le simple fait qu'une voiture soit cachée à moitié sur une image suffit souvent à berner l'«intelligence artificielle».

«L'ordinateur a une certaine rigidité que nous n'avons pas dans notre compréhension du monde. Nous, on interagit avec le monde, on vit dedans, donc on comprend que des objets se déplacent, peuvent être cachés, etc. Ce n'est pas le cas de l'ordinateur», explique M. Bouthillier.

Et l'intelligence artificielle se montre tout aussi rudimentaire dans bien d'autres types de tâches. Que l'on songe simplement aux innombrables «perles» des traductions automatiques pour s'en convaincre...

En fin de compte, déplore M. Bouthillier, ce débat entourant une éventualité théorique et très lointaine risque de «nous faire ignorer d'autres dangers de l'intelligence artificielle. Par exemple, Big Data, qui permettrait de faire de l'espionnage. [...] Supposons qu'on veut chercher des terroristes, alors on fouille sur le Web, et on peut imaginer une intelligence artificielle qui serait capable de trouver des informations intéressantes [dans la masse d'infos disponibles]. Mais le même genre d'outil pourrait aussi être utilisé, par exemple, pour chercher des chômeurs qui feraient un peu de travail au noir. Ça peut facilement être détourné de sa mission d'origine.»

Autre source : David Bowe, «Is Stephen Hawking right? Could AI lead to the end of humankind?», The Conversation, 2015, http://goo.gl/TYZcwf

Partager

publicité

publicité

la liste:1710:liste;la boite:91290:box

En vedette

Précédent

publicité

la boite:1608467:box; tpl:300_B73_videos_playlist.tpl:file;

Les plus populaires : Le Soleil

Tous les plus populaires de la section Le Soleil
sur Lapresse.ca
»

CONTRIBUEZ >

Vous avez assisté à un évènement d'intérêt public ?

Envoyez-nous vos textes, photos ou vidéos

Autres contenus populaires

image title
Fermer