Technos et Innovations

Souris et claviers bientôt au rayon des antiquités

,

Publié le

Dossier

Souris et claviers bientôt au rayon des antiquités

La main n'est plus la seule interface permettant à l'homme d'interagir efficacement avec les machines qui l'entourent. La voix, bien sûr, mais aussi les gestes, le regard ou la pensée arrivent pour prendre le relais.

Claviers et souris pourraient bientôt disparaître. Dans cinq ans comme l'annonce Microsoft ? Dans dix ans comme l'imagine l'Echangeur, le centre européen des pratiques innovantes de la relation client ? A voir ! En tout cas, les interfaces tactiles ont le vent en poupe. Les écrans interactifs s'imposent dans les équipements grand public portables, comme l'iPhone d'Apple, qui autorise même une manipulation à deux doigts, contre un seul point actif simultané habituellement. Des écrans grand format sont aussi à l'étude pour remplacer l'ordinateur dans la manipulation de données complexes. Un des projets le plus en vogue est celui de Jeff Han. Ce chercheur du Courant Institute of Mathematical Sciences de l'université de New York, a mis au point un écran tactile indépendant sur lequel il est possible d'agir avec les deux mains, voire à plusieurs personnes. Plus abouties, des tables interactives multipoints commencent à être commercialisées .

Mais les interfaces tactiles présentent un défaut majeur. Elles monopolisent le regard. Et ajouter du son ne suffit pas. Pour en sécuriser l'usa-ge, il faut leur joindre des mécanismes haptiques de retour d'efforts.

Au toucher, il est possible d'ajouter, voire de substituer, d'autres sens pour interagir avec les machines. A commencer par la voix. Mais la reconnaissance vocale, gourmande en puissance de calcul, limite souvent le dialogue à l'usage de mots clés et oblige d'être près du micro pour éviter les perturbations de bruits ambiants malvenus.

Les webcams, interfaces d'avenir

Le geste en revanche s'avère plein de promesses et les webcams sont probablement les interfaces qui remplaceront le plus vite claviers, souris et manettes de jeux. Déjà, deux éditeurs, l'un américain, GestureTek, l'autre israélien, ExtremeReality, commercialisent des logiciels de recon- naissance gestuelle. Baptisés Screen Xtreme ou XTR3D, ils détectent les mouvements et permettent à un utilisateur d'agir par ce biais sur un environnement graphique. Première application : les jeux électroniques.

Mais la détection de mouvements trouve d'autres débouchés. Des affiches publicitaires électroniques, équipées de la technologie Human Locator de Freeset, permettent par exemple à une ou plusieurs personnes d'en modifier le contenu. Des-tinée aux univers médicaux stéri- les, une application du Fraunhofer Institute for Telecommunications propose de manipuler des images en 3D sans contact avec la machine, par la détection via trois caméras des mouvements des doigts, de l'inclinaison de la tête et de l'orientation du regard.

Le défi des interfaces partagées

Nous sommes bien seuls devant notre ordinateur ou notre téléphone portable. Pour réintroduire partage et collaboration, une nouvelle génération d'interfaces multi-utilisateurs apparaît sous la forme de table lumineuse tactile multipoints. Microsoft a ouvert le tir avec Surface, destiné à animer les halls d'hôtels et les casinos, avec des applications ludiques, de cartographie ou de manipulation de photos. Le français Intuilab lui emboîte le pas avec sa table Intuiface (photo). Fabriquée à la demande, elle est d'abord destinée à un usage professionnel, par des militaires par exemple. « On passe à l'interaction homme-homme augmentée de la machine », résume François Coldefy, chercheur aux Orange Labs et pilote du projet de recherche ANR Digitable, auquel a participé Intuilab. Mais tous les problèmes ne sont pas résolus. Outre le prix encore prohibitif - environ 10 000 euros par table - ces interfaces butent sur la reconnaissance des différents utilisateurs.



Dans les laboratoires, la pensée et le visage occupent beaucoup les chercheurs. Pour l'instant surtout destinées aux handicapés, les interfaces cerveau-machine (brain-computer interface ou BCI), pourraient sortir de leur cadre, pour toucher un public plus large, comme les joueurs. Déjà des industriels japonais, comme Hitachi ou Honda, développent des casques plus discrets qui ne nécessitent pas d'im- plants neuronaux. La commer- cialisation est envisagée dès 2010.

Côté applications, le programme européen de recherche Presenccia étudie le pilotage par la pensée d'avatars de mondes virtuels com-me SecondLife. A l'université de Washington, le professeur Rajesh Roa cherche à commander un robot humanoïde en associant pensée et mouvements de la tête. Des chercheurs du Fraunhofer Institute de Berlin étudient, eux, une machine à écrire mentale avec un rendement de cinq à sept mots la minute après vingt minutes d'entraînement. La France n'est pas en reste. Le programme de recherche OpenVibe, qui rassemble l'Inria, l'Inserm, France Télécom R et D, l'AFM et le CEA, étudie une plate-forme logicielle « open source » pour transformer les idées en commandes.

Pour plus d'efficacité, les interfaces cerveau-machine sont souvent augmentées du contrôle du regard. Utilisée à des fins marketing, l'oculométrie (ou « eyetracking ») pourrait ainsi servir au pilotage d'équipements robotiques ou de véhicules, la direction des yeux indiquant les mouvements à effectuer par l'engin. C'est l'objet du programme Brain2robot du Fraunhofer Institute. L'université japonaise de Saga propose de son côté un logiciel de saisie au clavier par le seul regard, mais pour les caractères japonais uniquement. Encore à ses balbutiements, la reconnaissance des expressions du visage, voire de l'humeur, devrait rendre les robots appelés à nous entourer plus subtils dans leur réaction. Mais les interfaces pourraient se faire encore plus discrètes, jusqu'à disparaître. « Nous allons vivre dans une ambiance totalement connectée, où l'homme n'effectuera plus de demandes, mais fera des choix », prédit Vincent Encontre, le PDG d'Intuilab, entreprise de Labège (Haute-Garonne) spécialisée dans le développement d'interfaces multimédias. Avec le risque pour l'homme de perdre tout contrôle sur les machines. Nous n'en sommes pas encore là. Quoique ?


Aurélie Barbaux

Vers une communication homme-machine multisensorielle



hopital europe


Cliquez sur l'image pour zoomer

Testez L'Usine Nouvelle en mode abonné. Gratuit et sans engagement pendant 15 jours.

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte