Périlleux inconnu

Un robot présenté lors d'une exposition consacrée à... (Photo Michael Buholzer, Reuters)

Agrandir

Un robot présenté lors d'une exposition consacrée à l'intelligence artificielle, en mars dernier en Suisse.

Photo Michael Buholzer, Reuters

Partager

Oyez, oyez, la fin du monde est proche! ... Vous rigolez? Cela ne vous effraie plus? On l'a trop entendu, en effet, partout et de toutes parts, pas seulement de la bouche de vieux gourous illuminés à la longue barbe blanche vêtus de toges et portant pancartes...

Pourtant, le syndrome de Frankenstein guette.

La science explore en effet des domaines dont elle ne voit pas encore très bien les contours. De sorte que, théoriquement, le danger existe de voir ses créations, ou ses créatures, lui échapper. En particulier, trois champs de recherche relativement nouveaux, la biologie synthétique, les nanosciences et l'intelligence artificielle présentent des risques.

C'est ce qui intéresse une brigade de scientifiques, mathématiciens et philosophes travaillant à l'enseigne de l'université d'Oxford, en Grande-Bretagne. Ils proposent la création d'un organisme à portée internationale voué à la prévention d'«accidents» pouvant conduire à l'extinction de la vie humaine.

***

Cela semble un peu ésotérique.

Mais l'affaire se justifie: le danger inhérent aux trois disciplines concernées tient surtout dans ce que même les scientifiques de haut niveau ignorent à leur sujet. «L'humanité n'a pas vécu de précédents en ces matières», dit (à la BBC) Nick Bostrom, directeur du groupe de travail.

Ainsi, la biologie synthétique a à composer avec les capacités d'adaptation inouïes des organismes vivants: la perte d'efficacité de certains antibiotiques en est une illustration et une conséquence. D'autre part, en Europe, le projet Nanogenotox s'intéresse depuis quelques années à la sécurité des nanotechnologies puisqu'on a constaté des conflits entre les objets ainsi créés et les organismes vivants. Enfin, les problèmes liés à l'intelligence artificielle sont à la fois les plus improbables et les mieux connus du public: la science-fiction a déjà élaboré mille scénarios de domination par des «machines» ... ce qui, soit dit en passant, offre un sujet de réflexion philosophique fort intéressant.

Dans les trois cas, le risque est celui de l'affolement, de la réaction en chaîne dont l'humain perdrait le contrôle.

Ces dangers ne sont pas mineurs. Et on sait gré aux gens d'Oxford d'éviter cette sorte de catastrophisme parfois hystérique que nous assène depuis des années une autre jeune science, celle du climat. Ils ont même dressé une liste des désastres qui, bien que possibles, ne menacent pas d'extinction: les pandémies en font partie, tout comme les grands cataclysmes naturels ou les conflits nucléaires.

De plus, l'humanité a des précédents - nous sommes là pour en témoigner! - en matière de survie aux plus audacieuses expériences et aux pires catastrophes. S'il est question de réaction en chaîne, par exemple, nous avons parfaitement maîtrisé la fission et la fusion de l'atome - ce qui n'est pas inoffensif non plus!

L'attitude à adopter est simple: prudence, mais pas de panique.

Partager

publicité

publicité

Les plus populaires

Tous les plus populaires
sur lapresse.ca
»

publicité

la boite:2525685:box
la boite:1609999:box; tpl:300_B73_videos_playlist.tpl:file;

publicité

Autres contenus populaires

publicité

image title
Fermer