Puces inspirées du cerveau : ces 4 start-up attaquent le marché pour réduire le coût énergétique de l'intelligence artificielle

Les puces neuromorphiques sortent des laboratoires, développées par des start-up visant à accélérer et réduire le coût énergétique de l'intelligence artificielle. Misant sur la parcimonie, les réseaux de neurones à impulsions ou les machines bayésiennes, elles se lancent sur le marché.

Réservé aux abonnés
Image d'illustration de l'article
Cette puce neuromorphique commercialisée par la start-up sino-suisse Synsense offre 1000 neurones à impulsion et 65000 synapses pour analyser par IA les données de son capteur de vision événementielle.

Synsense : la vision neuromorphique

Cette start-up créée en 2017 ne fait pas comme les autres. Issue de l’École polytechnique fédérale de Zurich et de l’université de Zurich, elle s’est implantée en Chine dès 2020, établissant son siège à Chengdu. Son département recherche est, lui, situé à Shenzhen, tandis que ses puces sont conçues à Shanghai. Seule sa R & D est restée à Zurich. Une organisation qui porte ses fruits.

En mars dernier, SynSense a annoncé une levée de fonds de 10 millions de dollars pour démarrer la production de masse de Speck, son système sur puce (system on a chip, SoC). Celui-ci comprend un capteur de vision et un processeur monocarte multicœur. Il peut capturer des informations visuelles, les traiter en temps réel et effectuer une analyse de la scène avec une consommation d’énergie inférieure à 1 milliwatt et une latence de bout en bout de 5 à 10 millisecondes.

« Le capteur de vision que nous utilisons, fourni par iniVation, s’inspire de la manière dont nos yeux détectent et signalent les changements d’intensité lumineuse. Ces capteurs ne détectent que les parties d’une image qui changent, réduisant ainsi la quantité d’information à traiter. En outre, les réseaux de neurones à impulsions (spiking neural networks, SNN) de nos processeurs utilisent très efficacement les données asynchrones provenant du capteur, ce qui assure une faible latence et une très faible consommation d’énergie. Notre capteur ne consomme de l’énergie que lorsqu’il y a quelque chose à calculer », explique Dylan Muir, le vice-président des opérations de recherche mondiales de SynSense. Ciblant la maison connectée et les jouets, la start-up collabore aussi, depuis 2022, avec BMW pour l’intégration de ses puces dans des véhicules autonomes, afin de détecter des obstacles et de surveiller la vigilance du conducteur.

HawAI.tech, l'efficacitE bayésienne

« Avec les modèles probabilistes bayésiens, nous avons développé une IA frugale qui a besoin de très peu de données d’apprentissage, voire aucune dans certains cas. C’est l’humain qui partage tout son savoir avec l’IA pour être encore plus performant, explique Raphael Frisch, le président et cofondateur de HawAI.tech. Notre architecture est à la fois frugale en énergie et plus réactive, car le calcul IA est proche des capteurs sur les machines. Par ailleurs, comme nous utilisons moins de données d’apprentissage et que la mémoire nécessaire pour stocker les données est plus petite, notre modèle est moins complexe que les autres. » Pour un véhicule autonome, il y a jusqu’à 50 fois moins de paramètres à stocker par rapport à un réseau de neurones, selon la start-up.

Pour le moment, elle se focalise sur la maintenance prédictive et l’explicabilité des prédictions des pannes. Grâce à cela, les concepteurs peuvent améliorer les prochaines générations de leurs machines. HawAI.tech va commercialiser sa première architecture de calcul sur une carte reprogrammable (FPGA). « Cette carte nous permettra de nous confronter à des exemples réels et de monter en puissance sur les différents cas d’usage. Ensuite, nous passerons sur une vraie puce en silicium, mais nous devons d’abord bien comprendre les besoins du marché. »

Image d'illustration de l'articleD. R.
HawaiTech HawaiTech

GrAI Matter Labs : la « sparsity » pour credo

Parcimonie, voilà le mot clé de la deeptech française GrAI Matter Labs (GML). Plus connue sous le terme anglais de « sparsity », cette démarche consiste à se concentrer sur le strict nécessaire dans le traitement de l’information. Ne prendre en compte que les pixels pertinents pour analyser une image, ne garder que les connexions entre neurones d’un réseau ayant réellement un effet, ne calculer que lorsque quelque chose se passe…

Une méthode proche de celle du cerveau, synonyme de frugalité énergétique, que la start-up a intégrée dans ses puces, qui rapprochent mémoire et calcul pour améliorer encore l’efficacité énergétique et la rapidité de traitement. Images et audio sont les premières cibles de GML. Après une levée de fonds de 13 millions d’euros en 2020, la start-up a enregistré 1 million de dollars de précommandes en 2022 pour sa puce GrAI VIP, développée en France et fabriquée aux Pays-Bas.

Des engagements formulés notamment par des fabricants de modules (dont ADLink, Framos et ERM), des industriels et des intégrateurs de systèmes du secteur automobile. Par rapport à GrAI One, la première génération, GrAI VIP est plus petite (7,6 x 7,6 mm) et, surtout, GML a migré vers la technologie 12 nanomètres du fondeur taïwanais TSMC. La puce comporte un peu moins de cœurs de neurones, 144 contre 196, mais chaque cœur est plus grand. Doté de 4,5 milliards de transistors, GrAI VIP équivaut à un système de 18 millions de neurones. La mémoire sur puce est passée de 4 à 36 Mo.

Image d'illustration de l'articleDoaa Fahmy / GrAI Matter Labs
GrAI Matter Labs GrAI Matter Labs (Doaa Fahmy)

Brainchip : des processeurs neuronaux pour réseaux à impulsions

En mai dernier, BrainChip a signé avec le californien Quantum Ventura un accord visant à développer des solutions de cybersécurité pour le ministère américain de l’Énergie. Celles-ci tirent profit de l’intégration de ses puces Akida dans des capteurs pour détecter plus rapidement des tentatives d’infiltration dans les infrastructures critiques.

Une belle reconnaissance pour cette entreprise australienne créée en 2004, qui commercialise depuis dix-huit mois des processeurs neuronaux dotés de 1,2 million de neurones et 10 milliards de synapses répartis autour de 80 neural processing units (NPUs). Ces puces, intégrables dans ces circuits Asic ou vendus sous forme d’un système sur puce (SoC), offrent une grande efficacité énergétique. Elles sont dédiées à un type bien particulier de réseaux de neurones, différent du deep learning habituel : les réseaux de neurones à impulsions (SNN), qui se rapprochent du comportement dynamique des neurones du cerveau.

Pour l’apprentissage et la classification, les SNN sont très précis et économes en charge de calcul, selon BrainChip, qui revendique des performances sept fois supérieures à celles des réseaux de neurones classiques, tels qu’AlexNet, accélérés par GPU. Disponible à la rentrée, la deuxième génération d’Akida intégrera des Tenn, les temporal event-based neural networks. En plus des données 2D traditionnelles (comme les images), les Tenn peuvent traiter divers types de données 1D et 3D, et accélérer la vidéo, la vision, l’audio ou des alertes provenant de moniteurs de santé.

Image d'illustration de l'articleD. R.
BrainChip BrainChip
Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Ils recrutent des talents
Chez Framatome, façonnons les réacteurs nucléaires de demain !

Un avenir énergétique 100% électrique et bas carbone ? Tout le monde en rêve, mais le défi est bien vaste ! Entreprise industrielle de la métallurgie, au service de la filière nucléaire, chez Framatome, chaque innovation, chaque calcul d’ingénierie, chaque soudure, contribue à cet objectif.

Le témoignage
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
Trouvez des produits et des fournisseurs