Nina scrute son auditoire de ses grands yeux marron, en quête d'un contact visuel, «on va se parler, s'écouter, se regarder»: depuis quatre ans, ce robot humanoïde apprend «à se comporter de manière socialement acceptable» en utilisant la parole mais aussi le regard et les gestes.

«On ne créera pas de lien social avec un robot froid», estime Gérard Bailly, directeur de recherche au CNRS au laboratoire images parole signal automatique (GIPSA-lab) de Grenoble où est développé le projet.

Du haut de son 1,02 mètre, le robot humanoïde à la petite tête mais aux yeux immenses, doté d'une cinquantaine de moteurs, capte l'attention d'autrui grâce à son regard «humain», ses paupières mobiles, sa mâchoire et ses lèvres articulées.

«Bonjour, vous pouvez m'appeler Nina si vous voulez», annonce le robot de sa voix légèrement métallique.

Derrière cette invitation se cache l'ingénieur du CNRS Frédéric Elisei qui, depuis une autre salle, pilote Nina en temps réel. Équipé d'un casque de réalité virtuelle, il voit à travers les yeux de Nina (équipés de cameras), entend au moyen de ses oreilles (équipé d'enregistreurs). Lui-même équipé de capteurs du regard et des mouvements de tête, de caméras, de microphones, il incarne Nina. S'il cligne des yeux, hoche la tête, parle, le robot fait de même.

Avec Nina, «nous étudions les interactions face à face», explique Frédéric Elisei. «Comme un enfant humain va apprendre des adultes, on aimerait que notre robot imite les interactions qu'il a pu avoir quand il était piloté par un cerveau humain», ajoute-t-il.

Ces échanges «homme-robot» ont été répétés un grand nombre de fois pour que Nina «apprenne» au moyen d'algorithme d'apprentissage profond («deep learning») à avoir «des interactions riches et naturelles», à réagir de façon appropriée selon les situations, à savoir qui regarder.

Mais communiquer ne se résume pas à comprendre les messages de son interlocuteur, il faut aussi savoir en livrer.

Dans un échange, «on a besoin de pouvoir deviner quelles sont les intentions du robot, ce qu'il a dans la tête, et cela passe par tous ces petits mouvements de regards, ces déplacements de têtes qui montrent quels sont ses points d'intérêt», décrypte l'ingénieur.

Bientôt des sourcils

En multipliant ainsi les face-à-face, les chercheurs ont pu construire des modèles pour permettre à Nina de se débrouiller toute seule.

Un de ces modèles permet notamment au robot de faire passer un test de mémoire à un «patient» (pour l'instant un chercheur, car Nina est toujours en formation) en autonomie totale.

«Il va falloir être concentré», prévient le robot, l'air sérieux. «Est ce que vous pouvez me dire le nom de la fleur ?» «Très bien», «hum, hum», «d'accord»... Le robot encourage le pseudo patient après chaque réponse.

«Si vous voulez obtenir des choses, il faut que vous vous investissiez, que votre comportement soit suffisamment complexe pour que cela déclenche des réactions de la part des gens», explique Gérard Bailly.

Pour les chercheurs, des robots comme Nina n'ont pas vocation «à se substituer au praticien» mais pourrait permettre des campagnes de dépistage de la maladie d'Alzheimer à plus grande échelle.

Outre ce travail répétitif de diagnostic, les robots capables d'interactions sociales pourraient également avoir une place dans le monde de la robotique de télé-présence, ces écrans montés sur de petits chariots mobiles qui se promènent dans un espace donné en retransmettant l'image d'une personne.

Mais pour interagir de façon réellement naturelle avec les humains, Nina va encore devoir pratiquer et surtout se confronter à des profils de personnes plus variés (pour l'instant il ne converse qu'avec des membres du laboratoire, ouverts à la technologie).

Le robot devrait être doté de précieux sourcils pour pouvoir exprimer plus facilement la réflexion ou la surprise et pourquoi pas un jour d'apprendre à engager tout son corps dans ces interactions, comme un être humain.