Pionnier de l’apprentissage profond, une discipline discréditée à ses débuts, le Torontois Geoffrey Hinton veut en faire un outil pour améliorer le sort des humains. La Presse l’a rencontré.

À 75 ans, rien n’arrête Geoffrey Hinton. Entre son travail à temps partiel pour Google et l’enseignement à l’Université de Toronto, il s’est engagé bénévolement comme conseiller scientifique en chef pour l’Institut Vecteur. Rencontre avec ce touche-à-tout érudit, considéré comme un des trois « parrains de l’apprentissage profond », mais moins connu au Québec que son alter ego Yoshua Bengio.

D’entrée de jeu, dans la cour arrière de sa coquette maison à moins d’une vingtaine de minutes du centre-ville de Toronto, Geoffrey Hinton s’excuse de ne pas avoir appris le français. Son frère, qui a épousé une Française, pourra heureusement lui traduire l’article de La Presse.

« Ils m’ont appris le français à l’école, de la pire des façons. Elle n’impliquait pas une conversation, seulement de se rappeler une liste de mots et tenter de se rappeler lesquels étaient “le”, lesquels étaient “la”, ce qui est impossible. »

De la psychologie aux ordinateurs

Ce commentaire anodin reflète pourtant ce qui est devenu la ligne directrice des travaux de ce Britannique devenu torontois d’adoption en 1987. « C’était mon obsession : comment la connaissance entre dans le cerveau, et sous quelle forme ? Je n’ai jamais cru que c’était une chaîne de symboles. J’ai toujours cru que presque toute la connaissance s’acquérait par l’apprentissage, non pas en ayant été explicitement informé, mais en voyant des fragments de données. »

Celui qui allait poser les bases à partir de 2004, avec Yoshua Bengio et son étudiant au postdoctorat Yann LeCun, de l’apprentissage profond qui allait révolutionner l’intelligence artificielle quelques années plus tard a pourtant commencé sa carrière dans un tout autre domaine, obtenant un baccalauréat en psychologie expérimentale à Cambridge en 1970. Il choisit la voie la plus difficile lorsqu’il entreprend un doctorat en intelligence artificielle à l’Université d’Édimbourg entre 1972 et 1975.

Tous mes collègues croyaient dans l’IA symbolique. L’idée était que l’intelligence consistait à avoir des représentations […], avec des règles et des inférences. Les règles vous apprennent comment manipuler les symboles, pour obtenir de nouvelles chaînes de symboles. […] C’était le paradigme pour l’IA.

Geoffrey Hinton

Cette vision de l’IA, pour lui, était « erronée de façon irrémédiable ». Il avait été influencé à ce chapitre par deux monuments de l’informatique, Alan Turing et John Von Neumann, qui préféraient expliquer le fonctionnement du cerveau humain de manière probabilistique plutôt qu’avec la logique formelle.

« Malheureusement, Turing et Von Neumann sont morts trop tôt. S’ils avaient vécu plus longtemps, tout aurait été très différent. » Ce qu’il leur manquait, en outre, c’était des ordinateurs assez puissants et des bases de données assez larges pour mettre au point ce qu’on appelle des « réseaux de neurones », essentiellement des algorithmes qui envoient des informations plus complexes d’une couche à l’autre.

Une question d’échelle

Cette approche, convient M. Hinton, était généralement discréditée à ses débuts. Les premiers réseaux de neurones étaient peu fonctionnels et seuls quelques irréductibles comme Bengio et LeCun y croyaient. Une conjonction d’éléments, comme l’avènement d’ordinateurs plus rapides, le web, qui a permis de générer des masses de données, et le financement fédéral au Canada à partir de 2004 ont changé la donne.

« Rétrospectivement, il est apparu que c’était une question d’échelle, note M. Hinton. Si vous continuez à le faire de manière répétitive, avec beaucoup de données, vous aboutissez à ces incroyables et impressionnants réseaux de neurones, qui peuvent compétitionner avec des humains dans certains domaines. »

Les premiers succès notables pour ce qu’on a baptisé l’« apprentissage profond » sont survenus à la fin des années 2000 avec la reconnaissance vocale. C’est toutefois en 2012, quand une équipe de l’Université de Toronto remporte haut la main une compétition de reconnaissance visuelle en se basant sur l’apprentissage profond, que la nouvelle discipline est consacrée.

Il n’y a pratiquement aucune entreprise d’importance aujourd’hui qui n’intègre pas une forme d’apprentissage profond dans ses activités. Les applications en cybersécurité, en reconnaissance visuelle et vocale, en finances et en santé sont innombrables. Et les trois partenaires sont officiellement devenus les trois « parrains » de cette discipline. Comment vivent-ils cette gloire partagée ? Sont-ils amis ou rivaux ?

« Les deux, répond M. Hinton. Nous sommes en compétition et nous sommes de bons amis. Yann a été un de mes étudiants au postdoctorat. Une grande partie de l’amitié repose sur le fait que nous avons la même vision. Il n’y avait pas beaucoup de gens qui croyaient en cette approche. Nous nous entendons bien. »

Prochaine étape : la santé

Quant au titre un peu pompeux de « parrain », il le tourne un peu en dérision. « À l’origine, j’étais le parrain ! Et Yoshua [Bengio] et Yann [LeCun] aimaient ce terme, alors ils sont devenus aussi des parrains », lance-t-il en éclatant de rire.

Il rend un vibrant hommage au premier pour son implication dans la formation de nouveaux étudiants dans ce domaine.

« Parce que Yoshua a fondé un groupe fort, qui produit beaucoup de bons étudiants diplômés, ça a mené à une grande culture de jeunes pousses, et d’entreprises qui s’installent à Montréal et la soutiennent. »

Il rappelle que le Canada était le leader incontesté de l’apprentissage profond vers 2010, mais qu’il a été rejoint par d’autres pays qui ont mis les moyens. « Mais nous frappons encore au-delà de notre catégorie de poids… Nous sommes toujours parmi les leaders, et c’est largement grâce à l’appui combiné des deux ordres de gouvernement et de l’industrie. »

Lui qui refuse de prédire à long terme les prochains développements de sa discipline accepte de le faire pour les cinq prochaines années. « Je crois que c’est très clair maintenant que l’imagerie médicale associée à l’apprentissage profond va faire mieux que les humains. De toute évidence, il y aura symbiose, ces systèmes seront utilisés par des gens qui pourront s’assurer que l’IA ne fait rien de cinglé. »

L’utilisation des réseaux de neurones pour la santé, « ça fait une grande différence, ça peut sauver des vies humaines ».

Geoffrey Hinton en quelques dates

• Né le 6 décembre 1947 dans le quartier de Wimbledon, à Londres, en Angleterre.

• A reçu un baccalauréat en psychologie expérimentale à l’Université de Cambridge en 1970, puis un doctorat en intelligence artificielle de l’Université d’Édimbourg en 1978.

• Est devenu chercheur invité en sciences cognitives à l’Université de Californie à San Diego en octobre 1978.

• A été engagé comme professeur au département de sciences informatiques de l’Université de Toronto en juillet 1987. Il y travaille toujours.

• En 2004, il dirige le programme Calcul neuronal et perception adaptative financé par l’Institut canadien de recherches avancées, CIFAR, qui relance l’apprentissage profond.

• En 2012, l’équipe de l’Université de Toronto, sur la base de travaux dirigés par Hinton, remporte le concours ImageNet avec un taux d’erreurs jamais vu de 15,3 %.

• S’est joint à Google en 2013 à temps partiel, comme chercheur puis comme vice-président à l’ingénierie.

• A reçu le prix Turing, avec Yoshua Bengio et Yann LeCun, en 2019.

• Compte 240 articles publiés selon le site Scopus, cités 239 976 fois.

Qu’est-ce que l’apprentissage profond ?

Il s’agit de la forme la plus avancée de ce qu’on appelle plus globalement l’« intelligence artificielle », qui tente de reproduire avec des machines le fonctionnement du cerveau humain. La forme la plus simple d’intelligence artificielle consiste à programmer des commandes précises. L’apprentissage profond, ou « deep learning » en anglais, repose sur plusieurs couches de « réseaux de neurones ». Chaque couche traite un niveau d’information-lettres, photos, couleurs par exemple – qui est renvoyé à la couche suivante pour un traitement supplémentaire, de plus en plus précis. On distingue l’apprentissage supervisé, où les données sont étiquetées généralement par des humains, de l’apprentissage non supervisé, où l’algorithme fait seul le tri.

Pour la « bonne » IA

Il a quitté les États-Unis sous Reagan parce qu’il refusait que ses travaux servent à des fins militaires, estime que l’intelligence artificielle peut aider à contrer le populisme à la Trump, et qualifie le Québec d’« influence civilisatrice sur le reste du Canada ». Entrevue avec un apôtre de « l’IA pour le bien commun ».

Q. Est-ce vrai que vous avez quitté les États-Unis dans les années 1980 pour protester contre les projets de l’administration Reagan d’utiliser l’IA à des fins militaires ?

R. C’était l’époque de l’affaire Iran-Contras. La plupart des gens que je connaissais à Pittsburgh trouvaient ça acceptable, parce que « nous sommes américains et que nous pouvons faire ce que nous voulons en Amérique ». J’étais plus heureux de ne pas accepter d’argent pour des projets militaires, mais il est apparu qu’aux États-Unis, il est très difficile de survivre sans cet argent.

Q. Vous êtes également contre les armes autonomes mortelles…

R. Je suis complètement contre. Je crois que ça va faciliter l’invasion par de grands pays de plus petits pays, parce que les plus gros complexes militaro-industriels seront derrière eux.

Q. Mais après avoir pris position, comme scientifique, quel est votre pouvoir pour empêcher cela ? Pouvez-vous imaginer une façon d’intégrer une limite dans vos recherches ?

R. Non. Asimov avait ses trois lois de la robotique. La première loi était qu’un robot ne pouvait nuire à un être humain. Comparez cela avec le fait que le gros de l’argent pour le développement des robots vient du département de la Défense. Ça ne marche pas vraiment.

Mais laissez-moi vous dire quelque chose que j’aime beaucoup du Canada. C’est plus socialiste que les États-Unis, et en particulier, le Québec est la raison pour laquelle le Canada n’a pas été impliqué dans la guerre en Irak. À l’extérieur du Québec, environ 50 % du Canada était contre cette guerre ; au Québec, c’était 70 %. Le Québec a une grande influence civilisatrice sur le reste du Canada, l’empêchant de suivre tout ce que les États-Unis font.

Q. On constate que, dans vos entrevues, vous êtes questionné sur de nombreux domaines qui n’ont pas de liens directs avec l’IA, de la philosophie à la sociologie à l’histoire. On vous demande votre avis, et vous le donnez volontiers.

R. C’est très dangereux quand vous êtes un expert dans un domaine, et que les gens pensent que vous pouvez donner de bons conseils dans tout ! Les experts devraient résister à la tentation de donner leur avis sur d’autres domaines. C’est mon conseil !

Q. Est-ce que l’apprentissage profond a fait de vous quelqu’un qui comprend mieux l’être humain ?

R. Je crois, oui. L’expertise en apprentissage profond donne effectivement beaucoup d’indices sur le fonctionnement du cerveau humain.

La vision rationaliste est que nous sommes des êtres raisonnables et, bien sûr, il y a un peu de ça. Mais à la base, nous sommes une grosse machine à analogies. Nous raisonnons par analogies. Vous devez comprendre que les gens fonctionnent comme cela, pour comprendre plein d’autres choses sur la politique.

Trump a compris le raisonnement des gens par analogie. Hillary croyait qu’ils étaient rationnels. Tenter de combattre ces populistes qui fonctionnent par analogie par la raison est une proposition perdante. C’est dans la nature même des gens d’être ainsi.

Q. Mais les analogies peuvent être fallacieuses…

R. Laissez-moi vous donner un exemple de quelque chose qui semble intuitivement raisonnable, mais qui n’a aucun sens et qui ne peut être expliqué par la logique. Vous savez qu’il y a des chiens mâles et femelles, et des chats mâles et femelles. Oubliez ça, supposez que je vous dise : vous devez faire un choix, décider si tous les chiens sont mâles et tous les chats femelles, ou tous les chiens sont femelles et tous les chats sont mâles. Dans quel sens allez-vous prendre votre décision ? Presque tout le monde dans notre culture, et dans la vôtre, décidera que les chats sont femelles et les chiens sont mâles. Pourquoi ? Parce que le vecteur d’activité neuronale que vous utilisez pour représenter les chats est plus proche de celui des femmes que de celui des hommes. Et vice versa pour les chiens.

Ce n’est pas rationnel, c’est basé sur des analogies. C’est le genre de choses utilisées par des politiciens populistes pour prendre, par exemple, des groupes raciaux particuliers et leur coller toutes les mauvaises choses. On voit ça tout le temps.

Q. Je vous demandais comment vous, comme scientifique, vous pouviez empêcher une mauvaise utilisation de l’IA. Vous venez d’en donner un bon exemple…

R. Vous pouvez au moins rendre les gens conscients de ce qui se passe.

Pour des considérations de concision et de clarté, cette entrevue a été remaniée.