Il y a deux jours, l'avocat de James Holmes a assez clairement indiqué qu'il comptait plaider la folie pour disculper son client. Holmes est ce jeune homme soupçonné d'avoir ouvert le feu dans une salle de cinéma d'Aurora (Colorado), le 20 juillet dernier, tuant 12 personnes et en blessant 58 autres.

Publié le 11 août 2012
Mario Roy LA PRESSE

La défense d'aliénation mentale est relativement courante dans les causes de meurtre, on le sait. Essentiellement, elle consiste à soutenir que l'accusé n'avait au moment des faits aucun libre arbitre.

Or, la tuerie d'Aurora est survenue quelques semaines après la publication d'un ouvrage controversé: Free Will, de Sam Harris, qui est surtout connu pour son militantisme athée (il a signé The End of Faith) et sa collaboration avec le regretté journaliste et auteur Christopher Hitchens (Dieu n'est pas grand).

Harris affirme: personne ne jouit du libre arbitre.

***

Si cette question est débattue depuis des millénaires par une nuée de théologiens et de philosophes, elle intéresse dorénavant la science, qui dispose d'outils nouveaux pour explorer l'électrochimie du cerveau. C'est principalement sur ce terrain que Sam Harris, spécialiste des neurosciences, déploie son argumentation.

Par exemple, des observations faites à l'aide de l'imagerie par résonance magnétique ont déterminé ceci: le cerveau prend «sa» décision de 300 millisecondes à 10 secondes avant qu'elle n'atteigne le niveau conscient. Harris en conclut que «nos décisions ne sont pas de notre fabrication». L'affaire en est une de gènes, de formatage du cerveau en bas âge, de milliards d'informations n'atteignant jamais notre conscience...

Pour les fins de la discussion, supposons qu'il ait raison. Cela aurait a priori une conséquence assez effrayante: il n'existerait pas de telles choses que le bien et le mal puisqu'une machine, par définition sans morale, ne peut traiter ces concepts.

Or, ironiquement, c'est Christopher Hitchens qui a maintes fois souligné que, sans décisions inspirées par le bien, en particulier le bien commun, notre faible espèce serait depuis longtemps éteinte. Ce qui semble irréfutable. Conclusion? Ou bien la machine possède un logiciel moral. Ou bien cela se passe au niveau conscient. (Le tout, faut-il le préciser, n'a rien à voir avec les divers dieux, qui ont historiquement accrédité autant le mal que le bien.)

Quoi qu'il en soit, que faire si tout est décidé en dehors de nous? S'asseoir sur une chaise, ne plus rien décider ni accomplir? «C'est extrêmement difficile: essayez seulement de rester au lit toute la journée et vous serez bien bientôt assailli par l'urgence de vous lever et de faire quelque chose», répond Sam Harris, sourire en coin. En fait, la question pratico-pratique consiste à savoir si une société no fault, sans aucune notion de responsabilité individuelle, serait viable.

La réponse, n'est-ce pas, vient... automatiquement à l'esprit.