Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

LightOn, l'accélérateur optique du deep learning, lève 2,9 millions d'euros

Manuel Moragues , , ,

Publié le

La start-up française LightOn a levé près de 3 millions d'euros pour passer à la production en petite série de son processeur optique capable d'accélérer les calculs de l'intelligence artificielle tout en réduisant la consommation énergétique.

LightOn, l'accélérateur optique du deep learning, lève 2,9 millions d'euros
Le processeur optique développé par LightOn accélère les calculs nécessaires aux réseaux de neurones profonds.
© D.R.

L'optique de LightOn fait des étincelles. La start-up parisienne a annoncé le 19 décembre avoir levé 2,9 millions d'euros pour développer son processeur optique capable d'accélérer les calculs de l'intelligence artificielle. Le tour a été mené par le fonds de capital-risque Quantonation, lancé en début d'année par le serial-entrepreneur Charles Beigbeder pour investir dans l'informatique quantique et les technologies de rupture. Le capital-risqueur américain Anorak est aussi de la partie.

Diffusion de la lumière

Créée en 2015 et aujourd'hui hébergée par PC’UP, l’incubateur de l’ESPCI, LightOn développe une technologie de calcul reposant sur l'optique et non l'électronique. Le principe ? Effectuer en un éclair, via les diffusions multiples subies par la lumière traversant un matériau translucide, une opération mathématique appelée projection. De quoi, notamment, accélérer les lourds calculs de multiplication de matrices géantes dont est friand le deep learning et sur lesquels peine l'électronique, processeurs graphiques compris.

Accessible dans le cloud depuis un an

"Cette levée de fonds va nous permettre d'accélérer, se félicite Igor Carron, cofondateur et dirigeant de LightOn. Nous allons développer notre offre LightOn Cloud, étendre les fonctionnalités de notre OPU et poursuivre le travail d'ingénierie pour réduire le coût de notre machine et passer à la production de petite série." Plusieurs prototypes de ce calculateur d'un nouveau genre, baptisé Optical Processing Unit (OPU), ont déjà été construits. Depuis un an, un OPU est intégré dans un serveur et accessible dans le cloud, via LightOn Cloud, aux chercheurs en machine learning intéressés.

Un Optical Processor Unit commercialisé dans 18 mois

Un second a été ajouté cet été. Quatre unités supplémentaires, de la génération suivante, devraient les rejoindre d'ici à avril, selon le PDG, qui explique : "Nous avons voulu mettre le plus tôt possible nos prototypes dans les mains des utilisateurs pour orienter notre développement suivant leurs retours. Sans trop de publicité, nous avons plus d'une centaine de personnes qui veulent essayer notre OPU. Il nous faut plus de machines pour qu'ils puissent y accéder." Pour convaincre les entreprises réticentes à passer par le cloud, LightOn vise aussi, d'ici à 18 mois, à commercialiser un OPU qui puisse être intégré aux serveurs des clients.

Vitesse et économie d'énergie

Quel avantage apporte cet OPU ? Vitesse et économie d'énergie. "Sur certains types d'algorithmes d'IA, nous sommes déjà 5 fois plus rapide qu'un GPU P100 de Nvidia [l'avant dernière génération de processeurs graphiques du leader mondial du calcul pour l'IA, ndlr] et 5 fois plus efficace énergétiquement", avance Igor Carron, qui souligne : "Et cela avec seulement 400 000 euros levés début 2017 !" Des performances sur lesquelles compte LightOn pour conquérir une place de choix dans le futur paysage du hardware de l'IA.

Ruée sur le hardware de l’IA

L'essor actuel du deep learning est directement liée à l'accroissement de la puissance de calcul et en particulier celle des processeurs graphiques, plus efficaces que les processeurs classiques (CPU) pour traiter la quantité astronomique de petits calculs qu'impliquent les réseaux de neurones profonds. Si l'américain Nvidia est ainsi devenu incontournable dans l'IA, l'heure est à l'explosion d'alternatives en matière de hardware. D'IBM et ses puces neuromorphiques à Google et sa Tensor Processing Unit en passant par Alibaba, sans oublier Intel ni des start-up comme Graphcore, qui vient de lever 200 millions de dollars pour sa puce dédiée au machine learning.

Architecture hybride

"C'est une véritable bataille autour de l'architecture matérielle qui permettra de déployer les algorithmes d'IA à l'échelle mondiale sans accroître de manière insoutenable la consommation d'électricité", résume Igor Carron. Avec son OPU qui se branche sur un bus d'ordinateur comme une carte graphique, LightOn propose une architecture hybride, au sein de laquelle elle se chargerait d'accélérer certains calculs. Si l'IA se déploie autant qu’elle le promet, capter ne serait-ce qu’une part de son infrastructure matérielle suffirait à faire des étincelles.

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle