Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

On éduque bien les robots

Publié le

Pour qu’un robot puisse véritablement s’adapter à une nouvelle tâche ou répondre à l’imprévu, le mieux est de lui donner les moyens de faire lui-même son apprentissage.

On éduque bien les robots
Legende Noir Legende Noir Legende Noir Legende Noir Legende Noir Legende Noir
© À l’Institut des systèmes intelligents et de robotique, le robot iCub est notamment utilisé pour étudier l’apprentissage.

Une intelligence artificielle est capable de battre un champion au jeu de go, mais elle ne sait toujours pas plier une serviette pour la ranger dans l’armoire à linge. Car un robot, qu’il soit un pur logiciel ou un vrai robot qui agit physiquement, a beaucoup de mal à exécuter des tâches quotidiennes dans lesquelles l’être humain excelle. Il sait encore moins s’adapter à un travail pour lequel il n’a pas été programmé. Quant à gérer l’imprévu… Or si l’on veut véritablement introduire des robots partout, dans tous les ateliers de fabrication – y compris pour de petites séries – et jusqu’au sein des maisons de retraite et de nos foyers, il faudra bien leur apprendre à se débrouiller dans des situations par nature changeantes, voire imprévisibles. La solution passe par l’apprentissage. Autrement dit, mettre les robots au travail et leur donner les moyens d’acquérir de l’expérience, du savoir-faire, des réflexes…

Pour entrer en apprentissage, les robots bénéficient des avancées récentes de l’intelligence artificielle : réseaux de neurones, deep learning et autres algorithmes de type big data qui permettent à des machines d’apprendre par elles-mêmes. Mais nombre d’équipes de chercheurs, pour tenter d’assouplir le comportement des robots, commencent par s’inspirer des animaux et des êtres humains, en étudiant aussi bien les circuits neuronaux qui jouent un rôle dans l’apprentissage que la psychologie des jeunes enfants explorant leur environnement. L’objectif : en tirer des méthodes et des algorithmes utilisables par des machines. Ainsi, au laboratoire Etis de l’université de Cergy-Pontoise, l’équipe de neurocybernétique exploite de récents résultats en neurobiologie sur le rôle de certains neurones dans la navigation (le « GPS du cerveau »).

À l’Inria, l’équipe Flowers, en étudiant les mécanismes d’exploration des enfants, introduit dans des robots une « curiosité artificielle », source d’un apprentissage efficace : plutôt que de s’échiner à fabriquer un robot intelligent comme un adulte, mieux vaut lui donner les moyens d’apprendre comme un enfant… Les chercheurs disposent d’une panoplie de méthodes, qui va de l’enseignement très dirigé – montrer directement au robot les bons gestes – jusqu’à l’exploration supervisée ou complètement libre.

L’apprentissage par démonstration, dans lequel un opérateur guide le bras du robot, a été largement développé au Laboratoire d’algorithmes et systèmes d’apprentissage (Lasa) de l’École polytechnique fédérale de Lausanne (EPFL). L’enjeu n’est pas de lui faire enregistrer une trajectoire (une fonction que propose par exemple Baxter, le robot de Rethink Robotics), mais bien, après plusieurs démonstrations, qu’il sache généraliser de lui-même en s’adaptant à des situations proches.

Permettre au robot d’apprendre de ses erreurs est la méthode dite d’apprentissage par renforcement. Comme lors d’expérimentations avec des animaux, le robot reçoit une « récompense » (un signal positif) quand il agit correctement. « On ne comprend pas tout des mécanismes neuronaux des animaux. Mais on peut en tirer des principes que l’on cherche à appliquer aux robots », indique Benoît Girard, chercheur à l’Institut des systèmes intelligents et de robotique (Isir), à Paris. Dans le même laboratoire, Stéphane Doncieux est un adepte de l’apprentissage évolutionniste. Le robot explore son environnement librement, tandis que des algorithmes qui miment le processus de la sélection naturelle le guident vers la réalisation correcte d’une tâche.

Le deep learning, technique d’apprentissage automatique à partir de nombreux exemples (le champion numérique du jeu de go a été élevé au deep learning), est utilisé par de nombreuses équipes, par exemple pour permettre au robot d’identifier ce que voit sa caméra ou pour lui apprendre à saisir toutes sortes d’objets.

Il n’existe pas de méthode miracle, c’est la combinaison de plusieurs modes d’apprentissage qui pourra donner les meilleurs résultats. Le projet européen 3rd Hand, piloté par l’Inria, expérimente différentes voies – démonstration, essais-erreurs, détection de gestes, langage – pour apprendre à un bras de robot à coopérer au mieux avec un opérateur. Le projet soulève de multiples questions. Quelle est la meilleure méthode selon l’opération visée ? Comment le robot fait-il savoir qu’il a compris ou qu’il a besoin d’aide ? Peut-il adapter son comportement aux différents opérateurs avec qui il travaille ?

Enfin, il reste une autre voie aux robots du monde entier pour progresser : s’entraider. Dans le cadre du projet américain Robobrain, des robots s’entraînent sur une tâche et mettent en commun leurs connaissances. Un robot PR2 (université de Cornell) et un robot Baxter (université de Brown) ont ainsi partagé leur savoir-faire acquis dans l’art de manipuler une tasse à café. Pas facile quand les deux robots n’ont pas du tout la même anatomie… Mais il n’en faut pas plus pour que certains rêvent déjà d’un cloud de la robotique, où chaque engin irait puiser les logiciels dont il a besoin pour réaliser son travail. 

Des technologies pour…

  • Créer des robots capables de s’adapter même à l’imprévu
  • Leur faire réaliser des opérations difficiles à programmer
  • Favoriser la collaboration entre robots et êtres humains

 

Peut-on enseigner la morale ?

Selon la première loi de la robo­tique édictée par Isaac Asimov, l’écrivain de science-fiction, un robot ne doit pas faire du mal à un être humain. Principe incontestable, mais d’application difficile : une machine devrait décider ce qui est bien ou mal, voire choisir un moindre mal. Pour s’autoriser ou s’interdire une action, le robot doit avoir connaissance des lois en vigueur, des normes éthiques généra­lement admises, des règles de comportement social… Il doit aussi savoir prendre en compte le contexte dans lequel il évolue. Et prévoir les conséquences de son acte pour en déduire s’il est conforme ou non à la « morale » qui lui aura été inculquée. Ces questions ne relèvent plus de la SF. Elles font désormais partie des thèmes étudiés dans les laboratoires de robotique, associés à des chercheurs en sciences humaines, et vont devenir cruciales pour les robots en interaction avec les humains (robots d’assistance, robots industriels collaboratifs…), mais aussi pour les véhicules autonomes. Le laboratoire de robotique de l’université Tufts (États-Unis) veut mettre au point des mécanismes qui permet­traient à un robot de dire non à un ordre donné par un humain. 

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle