Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

Sur la piste des premiers robots humanoïdes

Aurélie Barbaux

Publié le

Des robots de divertissement sortent des laboratoires. Une étape vers des robots compagnons totalement autonomes.

Trente ans ! C'est le délai que se fixent les chercheurs japonais pour créer un robot humanoïde ayant l'intelligence d'un enfant de 5 ans. Pour atteindre cet objectif, les universitaires nippons réclament une suite au programme « Robot Humanoïde » lancé en 1998 par leur gouvernement et qui arrive à échéance cette année. Mais il s'agit cette fois d'y consacrer 350 millions d'euros par an, et non plus 10 millions. Baptisé Atom Project, ce programme pourrait avoir, selon les universitaires japonais, des retombées scientifiques, techniques et industrielles comparables au programme Apollo.

Outre-Atlantique, Hans Moravec, chercheur à l'institut de robotique de l'université américaine Carnegie-Mellon, prévoit que dans 20 ans, un robot universel de première génération sera capable de faire cuire un oeuf et de dresser la table. Dix ans plus tard, il disposera de capacités d'apprentissage autonome. D'ici à 2040, il pourrait tenir une conversation et en 2050, les robots de quatrième génération seront capables de raisonner seuls.

La marche déjà bien maîtrisée

La finalité ? Créer des robots compagnons pour la maison, capables de divertir, d'aider aux tâches ménagères ou de prendre soin des personnes âgées ou malades. Déjà, Mitsubishi Heavy Industries s'apprête à commercialiser pour environ 7 700 euros un robot nounou, baptisé Wakamaru, susceptible de reconnaître son maître, de commander les médicaments via internet et d'alerter des secours en cas d'urgence. Mais Wakamaru roule, ce qui limite ses déplacements. Or seule la forme bipède s'adapte parfaitement à l'environnement humain. C'est pour cette raison que Qrio, le dernier-né de Sony, a forme humaine. De la taille d'un enfant, ce robot sait danser, se déplacer sur un plan incliné ou monter des marches, un peu comme son cousin canadien, le HR6 de Dr Robot. Mais ces deux specimens demeurent moins sophistiqués que leur aîné, le robot d'accueil Asimo, développé par Honda. Ce dernier se déplace dans tous les sens, peut suivre des directions, saluer des personnes, identifier des visages, des objets mobiles, évaluer des obstacles ou distinguer des bruits, mais manque d'autonomie.

Les chercheurs veulent bien sûr aller plus loin. Dans les laboratoires de Fujistu, des scientifiques travaillent sur l'amélioration de la coordination des mouvements en utilisant des réseaux de neurones capables de se reconfigurer dynamiquement. Ce système réduirait de 90 % la quantité de code logiciel nécessaire à la commande du mouvement. L'université de Munich espère également, faire courir Johnnie, un robot humanoïde de 1,80 mètre pour 40 kilogrammes qui se traîne à 2,2 km/h. Il s'agit d'améliorer les mouvements, l'équilibre et d'augmenter les degrés de liberté. La mécanique n'est pourtant qu'une partie du problème. Améliorer la perception et la capacité de raisonnement des robots constitue autant de nouveaux défis.

« C'est la présentation par Honda de son premier robot humanoïde en 1997 qui a déclenché la réaction des Occidentaux, reconnaît Raja Chatila, directeur de recherche au CNRS. Si les Japonais sont excellents côté matériel, ils sont peu avancés en matière de raisonnement, de perception et de prise de décision autonome. » Des domaines où les Américains et les Européens comptent se distinguer.

Percevoir, raisonner, agir

L'un des projets du 6e programme cadre de recherche européen (PCRD) est ainsi dédié au robot compagnon cognitif. Baptisé Cogniron et piloté par le CNRS, ce programme de quatre ans porte sur le dialogue homme-robot : compréhension des activités humaines, comportement en situation, repérage spatial.

Il s'agit en premier lieu d'apprendre au robot à se déplacer dans un environnement inconnu sans rentrer en collision avec un obstacle. Dans cette optique, de nombreuses recherches portent sur l'acquisition de données visuelles et leur traitement. L'institut informatique de l'université d'Amsterdam développe par exemple un système de vision omnidirectionnelle basé sur un miroir hyperboloïde. Le système combine géométrie de l'environnement, intensité des couleurs et calcule une série de probabilités permettant au robot d'interpréter les images.

Il faut aussi apprendre au robot à raisonner. Souvent basées sur l'observation du mode d'apprentissage des enfants ou sur le mimétisme, les pistes de recherche sont nombreuses. A l'université de Lund, en Suède, le projet Ikaros vise à intégrer tous les modèles et méthodes des différents champs cognitifs. D'autres équipes travaillent à concevoir des langages de programmation informatiques pour décrire ces agents cognitifs. Au Canada, l'université d'York de Toronto a conçu le langage IndiGolog tandis qu'au Pays-Bas, l'université d'Utrech développait le langage de programmation spécifique APL.

En robotique, l'informatique est en effet centrale. Les Japonais l'ont compris et ont décidé de rendre public les ressources informatiques de leurs robots de travail sur le mode des logiciels libres, comme Linux. « Nous avons placé dans le domaine libre le code de notre robot jouet Pimo, et celui du robot miniature Morph3, qui sera utilisé par le nouveau laboratoire de l'institut de technologie de Chiba », explique Yukiko Mtasuoka, chercheur au Kitano Symbiotic Systems, un laboratoire d'intelligence artificielle. Même Sony invite les développeurs à travailler sur la plate-forme logicielle, Open-R, de son chien robot Aïbo. « Plus que les plates-formes logicielles, ce sont les robots développés dans les laboratoires des universités nippones qui nous intéressent. Mais les Japonais ne sont pas encore près à les laisser sortir de leur territoire, » regrette Raja Chatila. A défaut de faire venir les robots, ce sont les chercheurs qui bougent. Un laboratoire commun franco-japonais vient d'être créé à Tsukuba et des scientifiques français y sont déjà partis.

Des machines et des hommes

A terme, l'interaction homme-machine pose question. « Il faut maintenant s'interroger sur la manière dont les humains vont réagir aux robots », s'interroge Arvin Agah, chercheur en robotique à l'université du Kansas. Il ne s'agit plus seulement d'améliorer les capteurs et les capacités informatiques mais également la façon dont les robots interagissent avec les humains.

Toutes les pistes sont explorées. A l'université du Texas, David Hanson travaille sur une tête d'androïde, K-Bot, capable d'exprimer des sentiments. A l'université Vanderbilt de Nashville, les chercheurs planchent sur la capacité d'un robot à ressentir les émotions des humains. Le robot Kismet du Massachusetts Institutes of Technology est capable de réagir à l'humeur de son interlocuteur humain, en analysant l'expression du visage, ses paroles, son attitude. A l'European Media Lab de Dublin, le projet Anthropos porte sur le problème d'un robot socialement acceptable.

En Angleterre, les universités d'Essex et de Bristol vont même jusqu'à réfléchir au concept de robots conscients. Toutefois, des problèmes d'éthique apparaissent. Qui empêchera ces robots intelligents, conçus pour servir l'homme, de devenir malfaisants ?

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle