Google s’offre Eyefluence pour faire de l’œil, la souris de la réalité virtuelle
La start-up californienne EyeFluence a développé une technologie de suivi de l’œil qui offrirait une expérience utilisateur beaucoup plus immersive aux adeptes de la réalité virtuelle. Une fois un casque de VR fixé sur la tête, les utilisateurs pourraient naviguer dans un menu, faire des sélections et zoomer dans l’environnement virtuel uniquement grâce aux mouvements de leurs yeux.
Rendre les machines sensibles au regard. C’est ce que propose la start-up californienne EyeFluence, que vient de croquer Google pour un montant non divulgué. Fondée par Jim Marggraff, la jeune pousse développe une technologie qui permet d’interagir avec les machines grâce au regard. Depuis sa création, en 2013, EyeFluence a déjà levé près de 22 millions de dollars auprès de plusieurs fonds de capital-risque dont Intel Capital, Jazz Venture Partners et Motorola Solution Venture Capital.
Naviguer, zoomer et sélectionner avec ses yeux
Si EyeFluence a tapé dans l’œil de Google c’est que sa technologie de suivi des mouvements oculaires permettrait d’améliorer sensiblement l’expérience des adeptes de la réalité virtuelle. La firme de Mountain View pourrait donc ajouter cette brique technologique pour optimiser Daydream, sa nouvelle plate-forme dédiée à la réalité virtuelle présentée en grande pompe début octobre.
Comme le montre la vidéo ci-dessous, la technologie d’EyeFluence permet de naviguer dans un menu uniquement grâce aux mouvements des yeux. Elle repose sur un processeur basse consommation à architecture MIPS et des algorithmes propriétaires. Ainsi, avec un casque de réalité virtuelle sur la tête ou des lunettes de réalité augmentée sur le nez, les utilisateurs pourraient naviguer, zoomer ou encore effectuer des sélections uniquement grâce à leur regard. Leurs yeux deviendraient alors la souris de notre ordinateur.
Faire du regard l’élément clé des interfaces homme-machine du futur
La technologie d’eye tracking trouve également d’autres applications plus techniques, explique le site Techcrunch, qui cite le rendu fovéal, une stratégie de calcul pour optimiser l’affichage graphique. Il serait ainsi possible de faire varier la résolution d’un écran en fonction de la zone où se dirige le regard de l’utilisateur.
En France, la start-up Suricat planche également sur une technologie d’eye tracking pour faire de la donnée « regard », l’élément clé des interfaces homme-machine du futur. Fondée en 2013 et membre de l’incubateur Starbust, Suricat a développé son propre capteur optique, baptisé Weetsy, et ses propres algorithmes afin d’analyser en temps réel le mouvement oculaire pour reconnaître la direction regard dans son environnement. L’année dernière, Weetsy faisait la taille d’un paquet de cigarettes. Ses créateurs cherchaient à réduire les dimensions d’un facteur 10. L’équipe doit également faire face à de multiples défis techniques pour associer puissance de calcul, autonomie, et traitement en temps réel, tout en limitant la surchauffe du processeur qui se situe près du visage.
SUR LE MÊME SUJET
Google s’offre Eyefluence pour faire de l’œil, la souris de la réalité virtuelle
Tous les champs sont obligatoires
0Commentaire
Réagir