Nao: le robot entre dans notre quotidien

Pratique
Par · 25/06/2012

Le robot, assistant infatigable, deviendra sans doute à court terme guide de musée, auxiliaire d’aide à la personne, gardien de domiciles ou encore animateur de psychomotricité. Il réserve donc tout un champ d’applications et de projets à qui saura en tirer parti. Les rouages nécessaires, en ce compris en formation, auraient donc intérêt à se mettre en place.

Alain Haentjens (Brain Network) est un consultant indépendant qui se spécialise notamment en intelligence artificielle. Il imagine toute une série de scénarios dans lesquels des robots humanoïdes tels le Nao de la société française Aldebaran – ou tout autre robot présentant des avantages similaires – pourraient autoriser de nouveaux modes de perception du contexte ambiant et d’interaction avec lui. Des contacts ont par exemple été pris avec deux musées belges pour lesquels le petit robot pourrait servir de guide physique ou d’avatar autorisant une personne de visiter le musée de manière virtuelle, sans quitter par exemple sa maison. Equipé de caméras et de moyens de communication, Nao pourrait ainsi être piloté à distance ou être préprogrammé pour suivre un parcours décidé à l’avance. Il ne lui manquera même pas la parole, de quoi en faire un guide loquace exprimant, au gré de ses déambulations, les messages et informations qu’on lui aura injectés.

Déambuler dans des espaces pour les surveiller ou pour venir en aide, le cas échéant, à des personnes s’y trouvant est une des pistes d’implémentation déjà explorée, voire exploitée, par divers développeurs et constructeurs. Un projet d’aide à la personne est d’ailleurs à l’étude au MIC de Mons.

D’autres scénarios ont d’ores et déjà été imaginés et préprogrammés. Ainsi Nao a-t-il fait une incursion dans le monde médical, plus spécifiquement dans une institution où sont accueillis des enfants autistes ou dans un hôpital où sont soignés de jeunes patients. Pour l’occasion, le robot devient animateur. “On peut par exemple organiser des quiz où Nao pose des questions aux enfants, recueille leurs réponses et réagit en conséquence, félicitant les enfants lorsqu’elles sont bonnes, adoptant des mimiques gestuelles tristes ou joyeuses selon le cas”, explique Alain Haentjens.

“Pour faire passer des émotions, il faut travailler aussi la manière dont on manipule le robot, le type d’animation qu’on programme. Trop souvent, les programmeurs voient avant tout dans Nao un simple robot et ne lui prêtent dès lors qu’un comportement de robot, ne lui permettant pas assez de fantaisie.”

Nao devient vecteur de communication, de dialogue avec l’enfant. Une proximité et complicité s’installe. L’effet blouse blanche disparaît dans la mesure où un enfant répondra ou confiera plus volontiers quelque chose à un petit être humanoïde mignon et amusant qu’à une grande personne un rien intimidante.

En programmant le robot pour qu’il ait un comportement et des réactions quasi-humaines, l’effet est étonnant. Quel enfant pourrait par exemple résister à un robot qui joue avec lui et semble le comprendre. Exemple ? Le robot propose de mimer un sport, faisant semblant de taper dans une balle de tennis ou de golf, et demande à l’enfant de quel sport il s’agit. Si la réponse est bonne, le haut parleur du robot peut diffuser une ovation digne d’une foule ou commencer à danser de joie !

L’effet sur les enfants autistes semble également prometteur. Une petite expérience, conduite avec la VUB, a ainsi réussi à capter l’attention d’un enfant pendant 45 minutes alors que sa capacité d’attention ne dépassait pas jusqu’alors 10 minutes ! “Qui plus est”, souligne Alain Haentjens, “une thérapie pour enfants autistes impose de répéter sans cesse la même chose, les mêmes gestes. Un humain se laisse rapidement gagner par l’énervement ou le découragement. Pas un robot. L’enfant autiste a dès lors la sensation d’être mieux compris ou accompagné que par un être humain.”

Les perspectives qui s’ouvrent aujourd’hui à la robotique sont nombreuses. On peut notamment citer le mariage avec les interfaces gestuelles pour rendre le pilotage plus précis et naturel, le recours au ‘cloud’ pour enrichir l’intelligence du robot, les recherches en cours pour humaniser davantage les mouvements de Nao… Nous vous en donnons ici un petit aperçu.

D’embarquée, l’intelligence se fait déportée

La programmation d’un robot est quelque chose de potentiellement très complexe et lourd. Des scénarios très raffinés doivent être programmés, toutes les circonstances doivent être pré-envisagées pour parer à toute situation si on veut que le robot soit réellement réactif à l’environnement dans lequel il sera plongé. Cela limite aussi l’utilisation de chaque robot aux scénarios et programmes qu’on lui assigne. C’est pour émanciper en quelque sorte le robot et la programmation de ce carcan que le MIC a commencé à réfléchir à la possibilité d’utiliser le ‘cloud’ (intelligence déportée sur des serveurs installés à distance dans une salle serveur ou un centre de calcul) pour disposer à tout moment d’une réserve d’“intelligence”, de capacité de traitement, de bibliothèque de programmes qui pourraient animer un robot “à la demande”. “L’idée est également de déporter l’intelligence dans le cloud pour en faire bénéficier plusieurs robots. Même au niveau d’un seul robot, on se heurte souvent à un manque de richesse en termes d’attitudes et de comportements dont il est capable. L’idée est donc de lui donner accès à une bibliothèque de choses qu’il pourrait faire”, explique Alain Haentjens. Un bel exemple est la capacité de reconnaissance faciale, excessivement exigeante en termes de rapidité de traitement et de volumes d’informations à stocker et à analyser en temps réel. A quoi sert un robot-surveillant qui peut voir une personne, via sa caméra, s’il ne peut l’identifier? Par ailleurs, dans ce scénario d’identification, le fait de déporter l’information dans le cloud permettrait à de multiples robots, où qu’ils évoluent, de reconnaître une même personne en plusieurs endroits.

Un long chemin

Au-delà du projet spécifique d’aide à la personne confié à deux stagiaires du MIC de Mons, le fait de jumeler interface Kinect et robot a une autre finalité. Il s’agit en fait de doter Nao de la faculté de se mouvoir de manière plus fluide, plus proche du comportement humain et aussi … d’économiser son énergie (l’un des gros problèmes actuels est l’autonomie fort réduite – maximum 45 minutes – du petit humanoïde). Explication.

“Les mouvements que faits Nao sont encore assez saccadés, risquant parfois de lui faire perdre l’équilibre même s’il peut le retrouver de lui-même. Grâce à la Kinect qui capte et reproduit des mouvements sur base d’une série de points correspondant à diverses parties du corps, on peut documenter et analyser les mouvements d’un être humain et leur décomposition, établir des courbes de mouvements et analyser ainsi a posteriori le mouvement fait par l’homme. On “montre” alors à Nao, qui procède par apprentissage et mimétisme, comment faire un mouvement et le reproduire.” Au stade actuel, les efforts des stagiaires du se concentrent sur le développement d’une bonne méthode qui permette d’opérer la translation des points en un langage que Nao puisse interpréter. Ces connaissances seront développées au fil des projets confiés aux stagiaires, supervisés par plusieurs personnes, dont Alain Haentjens. Lui-même affine ses propres connaissances en suivant des cours d’intelligence et vision artificielles.

“En tout cas, la Kinect devrait nous permettre d’accélérer l’apprentissage des mouvements par Nao. Tels que programmés jusqu’à présent, ils ne sont pas très efficaces. Une plus grande fluidité permettrait aussi de réduire sa consommation d’énergie. Outre le recours à la Kinect, il faudra aussi travailler avec des spécialistes du mouvement, comprendre les mouvements élémentaires de l’être humain pour constituer une base de connaissances et de mouvements.”