Des chercheurs américains viennent de faire un grand pas dans le traitement de l’aphasie. Avec des implants cérébraux, ils ont décodé les signaux des neurones et les ont transformés en mots.

« C’est une grande avancée », explique Étienne de Villers-Sidani, neurologue du Neuro à Montréal, qui n’est pas impliqué dans ces recherches américaines, mais a beaucoup travaillé sur le langage. « C’était impensable de faire quelque chose du genre il y a dix ans. »

Le Dr de Villers-Sidani, qui est à la fin de la quarantaine, est presque convaincu que ce type de traitement deviendra courant avant qu’il ne prenne sa retraite. « C’est presque improbable que ça n’existe pas. »

Deux approches

Dans Nature mercredi, deux équipes californiennes montrent que leurs décodeurs atteignent des vitesses d’élocution proches de la vie normale. « Normalement, une personne parle à 150-200 mots par minute », a expliqué Edward Chang, de l’Université de Californie à San Francisco (UCSF), lors d’une téléconférence de presse lundi. « Nous arrivons à 78 mots par minute, avec un taux d’erreurs de 25 %. Et nos patients ont tendance à parler plus lentement, pour être plus compréhensibles. »

L’autre équipe, de l’Université Stanford, est arrivée à une vitesse de 60 mots par minute et un taux d’erreurs comparable. Les deux équipes abaissaient le taux d’erreurs sous les 10 % avec des vocabulaires réduits, soit moins de 100 mots. Les deux équipes ont amélioré la performance de leur algorithme par un facteur de cinq par rapport à des publications il y a quelques années.

Deux caractéristiques des deux expériences frappent le Dr de Villers-Sidani. « Le patient n’a pas besoin d’entraîner l’algorithme pendant six mois, comme lors des premiers essais du genre. Et la performance de l’algorithme augmente avec la quantité de microprocesseurs utilisés. Ça veut dire qu’il y a place à l’amélioration. »

L’équipe de l’UCSF a utilisé une plaque remplie de microprocesseurs, insérée à la surface du cerveau, sous le cuir chevelu. Ils interagissaient avec des milliers de neurones liés au langage. Celle de Stanford a implanté quatre puces interagissant avec un nombre beaucoup plus limité de neurones, à l’intérieur du cerveau.

Aire de Broca

Le Dr de Villers-Sidani note que les puces de Stanford situées près d’une zone du cerveau associée au langage, appelée « aire de Broca », avaient moins d’effets que celles installées ailleurs. « C’est surprenant », dit-il.

L’étude n’a pas été faite sur des patients aphasiques mais « anarthriques » ou « dysarthriques », c’est-à-dire que leur incapacité à parler est due à des problèmes moteurs empêchant la parole et non des problèmes de production du langage, selon Carole Anglade, professeure à l'École d'orthophonie et d'audiologie de l'Université de Montréal, et chercheure au Centre de recherche interdisciplinaire en réadaptation. « Il ne faudrait donc pas donner de faux espoirs aux aphasiques, qui ont des problèmes de production ou de réception du langage », dit Mme Anglade.

En entrevue avec l’Association nationale d’aphasie des États-Unis, le Dr Chang a convenu que sa technologie n’était pas « immédiatement applicable aux patients aphasiques, mais qu’ils pourraient éventuellement en bénéficier ».

De son côté le Dr De Villers-Sidani note que l’aphasie désigne des gens qui non seulement ont de la difficulté à créer du langage, mais souvent aussi à le comprendre. Les résultats californiens sur l'aire de Broca le rendent optimiste. « Chez les patients qui ont une aphasie expressive pure, qui n’ont pas de problème de compréhension, en théorie ces technologies pourraient marcher, dit-il. Et souvent les patients anarthriques disent ou pensent qu'ils sont aphasiques, parce que pour le commun des mortels ça signifie quelqu'un qui ne peut pas parler. »

Ces approches pourraient fonctionner même si le patient a perdu la capacité de parler depuis plusieurs années. L’équipe de Stanford a travaillé avec une patiente ayant eu un AVC il y a une quinzaine d’années. Par contre, ces technologies pourraient ne pas aider les patients ayant eu des dommages importants dans les régions du cerveau responsables du langage, note le Dr de Villers-Sidani.

Un commentaire dans Nature a salué ces avancées, mais a indiqué que le bruit des conversations environnantes, captées par l’ouïe du patient, pourrait interférer avec l’algorithme. En conférence de presse, les chercheurs des deux équipes ont assuré ne pas avoir de craintes à ce sujet, parce que les régions du cerveau responsables de l’ouïe sont distinctes de celles de la parole.

L’équipe de Stanford a de plus créé un « avatar » reproduisant les expressions faciales de la patiente ayant perdu la parole, à partir de la vidéo de son mariage.

Une version précédente de la parole indiquait erronément, dans la légende de la photo, qu'une patiente ayant des troubles de la parole était aphasique.

En savoir plus
  • 6000
    Nombre de personnes frappées par l’aphasie chaque année au Québec
    SOURCE : Aphasie Québec