L’intelligence artificielle pourrait dépasser le cerveau humain d’ici 2029, et être un milliard de fois plus intelligente que nous d’ici 2050. « Pour les robots, nous ne serons alors qu’une mouche dans la pièce, et personne ne sait comment ils traiteront cette mouche », prévient l’informaticien et auteur Mo Gawdat, ex-directeur commercial de Google X, le volet innovation de Google. Voici cinq éléments frappants tirés de son nouveau livre best-seller Scary Smart : The Future of Artificial Intelligence and How You Can Save Our World (Terriblement intelligent : L’avenir de l’intelligence artificielle et comment vous pouvez sauver notre monde), paru aux éditions Pan Macmillan.

Publié le 23 janvier
Nicolas Bérubé
Nicolas Bérubé La Presse

Nouvelle ère

Développée depuis des décennies, l’intelligence artificielle (IA) a produit des résultats frappants : les meilleurs joueurs d’échecs et de go (jeu de stratégie complexe chinois) sont désormais des robots. Sans parler de l’usage commercial et militaire, où des drones autonomes armés sont aujourd’hui capables d’identifier le visage de leur cible et de trouver la meilleure façon de l’atteindre. Or, une hausse exponentielle des capacités de l’IA est à nos portes, notamment en raison des nouveaux ordinateurs quantiques, beaucoup plus rapides. « Nous ne vivrons pas 100 ans de progrès en IA au cours du prochain siècle : nous vivrons plutôt 20 000 ans de progrès au rythme actuel, écrit Mo Gawdat. Et ça, c’est en supposant qu’aucune révolution technologique imprévue ne vienne en augmenter davantage la cadence. »

PHOTO TIRÉE DU COMPTE LINKEDIN DE MO GAWDAT

Mo Gawdat, ex-directeur commercial de Google X, le volet innovation de Google

Une mouche

D’ici le milieu du siècle, l’intelligence artificielle sera un milliard de fois plus intelligente que le cerveau humain. « Ce sera comme comparer l’intelligence d’une mouche avec l’intelligence d’Einstein. Et dans cet exemple, nous sommes la mouche. » Et si nous avons été capables, avec notre intelligence limitée d’humains, d’inventer l’IA, personne ne sait ce que l’IA, avec son intelligence suprême, pourra inventer à son tour, note-t-il. Selon M. Gawdat, des conséquences négatives sont à prévoir, tout simplement parce qu’on ne sait pas quels intérêts auront à cœur les robots de l’IA. « Mettre des machines capables d’intelligence entre les mains d’humains capables de cruauté produira inévitablement des scénarios où les machines n’agiront pas pour le bien de tous. »

Course à l’armement IA

La course qui oppose diverses entreprises comme IBM et Google, et différents États comme les États-Unis, la Russie et la Chine, pour développer une IA toujours plus puissante ressemble beaucoup à celle pour développer l’arme atomique, note l’auteur. « Mises au service d’un État, ces machines superintelligentes pourraient créer un virus avancé, manipuler l’information ou encore causer le chaos dans les marchés financiers en quelques secondes. » Sans parler des applications militaires : si le côté opposé permet à l’IA de prendre des décisions quant à l’usage de la force, nous devrons soit faire la même chose, soit accepter d’être dépassés quant à notre temps de réponse ou à notre stratégie militaire, note-t-il. « C’est le genre de scénario que l’humanité a réussi à éviter lorsqu’il était minuit moins une dans les années 60 [lors de la crise des missiles nucléaires entre les États-Unis et l’URSS] parce que nous bougions à la vitesse des humains. Mais quand ce sont des machines qui pensent à notre place, nous ne pouvons qu’espérer qu’elles arrivent aux mêmes conclusions que nous. »

Solutions ?

Mo Gawdat croit aussi que notre futur avec l’IA peut être généralement positif. Comment ? « Il faut enseigner à l’IA comme nous enseignons à nos enfants. L’IA va maximiser nos intentions. Une voiture nous permet d’améliorer notre aptitude à nous déplacer. De la même manière, l’IA va accélérer notre intelligence, nos valeurs et notre éthique. » Le défi, écrit-il, est de transmettre les bonnes valeurs et la bonne éthique aux robots. « L’IA va prendre cette graine et créer un arbre qui offrira une abondance de cette même graine. » À ce titre, nous avons tous un rôle à jouer. Même être poli et constructif sur les réseaux sociaux peut aider, car l’IA lira ces messages et s’en inspirera pour déterminer quel type de réaction est acceptable ou non. « Si nous utilisons l’amour et la compassion, l’IA utilisera ces principes également, conclut M. Gawdat. Nous sommes comme les parents d’un enfant prodigieux. Un jour, il sera autonome. Notre rôle est de faire en sorte qu’il ait les bons outils. »

Il a dit

Les robots seront capables de tout faire mieux que nous… Je ne sais pas exactement quoi faire à ce sujet. C’est vraiment le problème le plus effrayant à mon avis. […] Je ne suis pas normalement un défenseur de la réglementation… mais [l’intelligence artificielle] est un cas où vous avez un danger très grave pour le public.

Elon Musk, cofondateur de Tesla et de SpaceX, en 2018

Scary Smart : The Future of Artificial Intelligence and How You Can Save Our World

Scary Smart : The Future of Artificial Intelligence and How You Can Save Our World

Éditions Pan Macmillan

208 pages