Les oreilles ne font pas qu'entendre, elles peuvent aussi commander un baladeur, un véhicule, l'éclairage domestique, le tout en exploitant les mouvements des parois du canal auditif.

Le présentateur de TV vous agace? Tirez-lui la langue et la télévision changera de chaîne. Impossible? Non, grâce à une télécommande qui agit en fonction des postures faciales pour ordonner et agir sans lever le petit doigt.Le très sérieux professeur Kazuhiro Taniguchi de l'université d'Osaka (ouest), qui n'en est pas à sa première surprenante invention du genre, a en effet développé un dispositif qui permet de mesurer précisément les déformations ponctuelles qui se produisent dans les oreilles, en fonction des mouvements du visage, et d'utiliser ces signaux comme éléments déclencheurs de commandes électroniques.

«Il sera possible d'allumer la lumière ou de mettre en marche la machine à laver ou d'éteindre la télé d'un mouvement de la langue», assure le scientifique.

L'écarquillement des yeux, la mastication, la déglutition, un sourire et diverses autres attitudes, constituent autant de signaux de contrôle.

Outre le pilotage d'un appareil nomade (baladeur, appareil photo, etc.), ces grimaces peuvent aussi servir à guider un véhicule et manier des équipements divers.

Les concepteurs d'appareils pour handicapés y verront un nouveau substitut aux commandes manuelles.

Le secteur de l'informatique et des jeux vidéo, toujours à l'affût de nouveaux modes d'action, ne devrait pas non plus rester indifférent à ce type d'interface. Au lieu de faire glisser une souris sur un tapis ou d'agiter un «joystick» pour donner des instructions, il suffira peut-être un jour de déplacer sa langue dans sa bouche, sans dire un mot.

Ce dispositif trouvera aussi des applications médicales, notamment pour les personnes âgées et/ou esseulées, selon M. Taniguchi, un trentenaire à l'imagination débordante.

Surnommée «mimi-switch» («mimi» signifie oreille en japonais), son invention peut en effet mesurer les activités quotidiennes en fonction des mimiques observées dans la journée (mouvements de la tête, de la bouche, des yeux, du nez, de la langue). L'analyse de ces données révèlera d'éventuels problèmes, comme la rareté des sourires, la brièveté des repas, l'absence de discussions, etc.

On peut ainsi imaginer que le système, relié à un appareil sonore, émette des informations vocales ou musicales à l'adresse de l'utilisateur pour qu'il cesse de faire la tête, mange moins vite ou ne reste pas muet toute la journée. Il pourrait aussi alerter des proches en cas d'anomalie détectée (crise d'épilepsie par exemple).

La section de robotique de l'université d'Osaka, où travaille M. Taniguchi, a déjà conçu d'autres détecteurs/télécommandes «physiométriques».

Leur «komekami switch» permet de piloter un baladeur audio en serrant les dents de gauche ou de droite et en remuant les mandibules, grâce aux signes de déformation des tempes.

Le «mimi-switch» fonctionne quant à lui grâce à des capteurs optiques à infrarouge, sensibles aux variations de distance, et placés sur des sortes d'oreillettes audio. Ils mesurent les distorsions du canal auditif systématiquement produites lors des changements de postures faciales.