Comment devraient se comporter les robots ? C’est la question que pose l’éthicien Martin Gibert dans Faire la morale aux robots. Il propose qu’on les programme pour qu’ils se comportent comme des personnes vertueuses. Un essai qui parle de philosophie, d’intelligence artificielle, mais aussi de vivre-ensemble.

Nathalie Collard Nathalie Collard
La Presse

Les robots nous empêchent parfois de dormir. On se demande s’ils vont voler nos emplois ou, pire encore, s’ils prendront un jour le contrôle de nos vies.

Notre vision est bien sûr alimentée par les nombreux romans et films de science-fiction qui ont forgé notre imaginaire. Dans les faits, un robot est simplement une série d’algorithmes programmés par… des humains.

Reste que de la voiture autonome à l’assistante personnelle Siri ou Alexia, ces machines sont programmées sur la base de principes moraux. Lesquels ?

C’est ce que nous explique Martin Gibert dans un essai très bien vulgarisé qui se veut une porte d’entrée sur le domaine de l’éthique de l’intelligence artificielle.

Ce chercheur affilié au Centre de recherche en éthique (CRE) et à l’Institut de valorisation des données (IVADO) réfléchit à la manière dont les théories traditionnelles en philosophie s’appliquent aux décisions que les robots doivent prendre.

À partir du classique dilemme du tramway (en gros, vous pouvez influencer la course d’un tramway fou et choisir de tuer une personne pour éviter d’en tuer cinq, que faites-vous ?), Martin Gibert nous présente deux théories morales utilisées en éthique, soit le déontologisme et l’utilitarisme.

« Le déontologisme considère que tous les individus sont égaux et jouissent donc des mêmes droits, explique Martin Gibert. La décision du robot est donc basée sur un tirage au sort. L’utilitarisme ou conséquentialisme prendra en considération le bien-être général pour baser sa décision. On pourrait donc argumenter qu’en choisissant de laisser mourir un vieillard, par exemple, on sauverait la vie d’un enfant qui aurait toute la vie devant lui. C’est un peu le raisonnement à la base du triage dans les hôpitaux pendant la COVID-19. »

IMAGE FOURNIE PAR ATELIER 10

Couverture du livre Faire la morale aux robots : une introduction à l’éthique des algorithmes

Le robot vertueux

Martin Gibert estime que ces deux approches sont imparfaites. Il propose donc une troisième voie, qui s’appuierait sur l’éthique de la vertu, un mot qu’on n’utilise plus beaucoup et qui fait référence à une certaine « sagesse ».

« Que ferait un robot s’il agissait comme une personne vertueuse ? » demande Martin Gibert.

À partir du principe d’apprentissage supervisé (ou « machine learning »), on soumettrait au robot des exemples de comportements de gens vertueux. Que feraient-ils devant tel ou tel choix ? On pourrait ensuite établir des proportions de réponses possibles dans lesquelles le robot pourrait piger.

Mais au fait, on trouve ça où, des gens vertueux ? Et surtout, avons-nous tous la même conception de la vertu ? « Si on demande autour de nous, on risque d’observer que les gens ont une intuition assez fiable de ce qu’est une personne vertueuse, estime Martin Gibert. Ce sont des gens qui font preuve de non-violence, d’un sens de la justice, etc. On leur soumettrait ensuite des dilemmes qu’ils devraient résoudre, puis on leur demanderait d’établir un degré de confiance par rapport à leurs réponses afin de raffiner les données qui seraient ensuite soumises au robot. Si on reprend notre tramway, ou une voiture autonome par exemple, un robot vertueux irait piger dans les données et sa décision serait basée sur les proportions établies. »

Martin Gibert se dit convaincu que les robots vertueux inspireraient davantage confiance que des robots qui n’agiraient que sur la base du déontologisme, par exemple.

Des robots biaisés

Impossible de parler d’éthique de l’intelligence artificielle sans parler de ceux et celles (peu nombreuses) qui programment les machines intelligentes. Il y a un peu plus d’un an, La Presse avait publié un dossier sur les biais transmis de l’humain à la machine et l’importance de la diversité dans les milieux des nouvelles technologies.

Lisez le texte « Nos robots seront-ils machos ? »

Martin Gibert aborde la question dans son essai. « Je suis optimiste, je pense que les gens en sont conscients et j’ai l’impression que cela va se résorber avec le temps, estime celui qui a rédigé la première version de la Déclaration de Montréal pour une IA responsable. Les programmeurs n’ont pas envie de reproduire des algorithmes sexistes ou racistes, ou qui reflètent seulement des valeurs masculines. »

L’autre écueil, plus difficile à surmonter selon l’éthicien, c’est le biais intégré dans les données avec lesquelles travaillent les programmeurs. « On peut avoir un faux sentiment d’objectivité quand on travaille avec des données, souligne-t-il. Or, elles comportent des biais transmis par les humains. Il faut être vigilant. »

L’essai de Martin Gibert est une véritable fenêtre ouverte sur le type de réflexions qui devraient être au cœur du développement de l’intelligence artificielle. Or, dans ce milieu comme dans tous les secteurs en forte croissance, tout va très vite. Prend-on vraiment le temps de consulter un éthicien dans le feu de l’action ?

« C’est sûr que des gens comme Yoshua Bengio se préoccupent de ça, répond Martin Gibert. On a tous en tête le cas d’Einstein qui a découvert la théorie de la relativité qui a donné lieu à la bombe atomique. Donc oui, il y a un souci éthique, mais notre position n’est pas toujours confortable. Nous, on est payés pour réfléchir, on n’est pas du tout dans la même temporalité que ceux et celles qui baignent dans une culture de start-up où tout va très vite. L’éthique, ça prend du temps, alors il y a inévitablement des frottements. »

Essai. Faire la morale aux robots : une introduction à l’éthique des algorithmes, de Martin Gibert. Atelier 10. 103 pages.