Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

Sur la piste neuromorphique

Manuel Moragues ,

Publié le

Il n’y a pas que le quantique ! Les recherches vont bon train sur un ordinateur inspiré du cerveau. Le CNRS-Thales a réalisé une percée en fabriquant un nano-neurone artificiel.

Sur la piste neuromorphique
Dans l'entrefer d'un électroaimant du laboratoire CNRS-Thales de Palaiseau, le nano-neurone reconnaît des chiffres prononcés.
© CNRS-Thales

Unité mixte de physique CNRS-Thales, ­Palaiseau (Essonne). Sur l’oscilloscope, Mathieu Riou pointe une série d’oscillations en jaune représentant une voix prononçant des chiffres. Puis un autre signal, en vert : "C’est la réponse du nano-neurone." Soit les chiffres reconnus avec une précision de 99,6 % par l’algorithme de type réseaux de neurones (formels) que le doctorant fait tourner sur son nano-neurone (matériel), moyennant l’astuce d’un multiplexage temporel qui lui permet d’émuler un réseau de 400 neurones. On peut le croire sur parole. La revue "Nature" a publié fin juillet ces travaux, menés en collaboration avec des chercheurs ­américains et japonais. Pour Julie Grollier, directrice de recherche au CNRS et directrice de thèse de Mathieu Riou, "c’est une première. Les autres travaux sur des neurones artificiels d’échelle nanométrique se cantonnent à simuler des réseaux de leurs neurones. Nous, nous réalisons une démonstration". Ce nano-neurone aspire à devenir la brique de base d’un ordinateur dit neuromorphique, selon le terme forgé par le père fondateur du domaine en 1990, Carver Mead. Comme son nom l’indique, un tel ordinateur s’inspire du cerveau.

Quête cruciale d’efficacité énergétique

Une architecture informatique mimant neurones et synapses "a le potentiel d’effectuer des calculs complexes plus vite, avec une plus faible consommation d’énergie et sur une surface plus petite que les traditionnelles architectures de Von Neumann", résume une publication de l’Institute of electrical and electronics engineers (IEEE) de mai?2017. Toute l’informatique actuelle repose sur le schéma de Von Neumann, qui sépare spatialement traitement et stockage des données. "Les données font d’incessants va-et-vient entre le processeur et la mémoire. C’est le goulet d’étranglement qui limite aujourd’hui la puissance de calcul", explique Julie Grollier.

Augmenter la vitesse d’échange des données se heurte à l’échauffement qui en découle. Impossible d’aller beaucoup plus loin sous peine de faire fondre les puces ! Sans compter que l’informatique consomme déjà environ 5 % de l’électricité de la planète. L’amélioration de l’efficacité énergétique est le grand moteur de la quête de l’ordinateur neuromorphique, dont le graal, le cerveau, est dix mille fois plus efficace énergétiquement qu’un processeur – calcul et mémoire y sont en effet rapprochés au sein du couple neurone-synapse. S’y est ajoutée l’irruption de l’intelligence artificielle : "L’explosion des réseaux de neurones, avec le deep learning [l’apprentissage profond, qui est derrière la reconnaissance d’images et de paroles, les assistants vocaux…, ndlr], a accéléré les recherches sur le neuromorphique", relève Damien Querlioz, chercheur CNRS du Centre de nanosciences et de nanotechnologies de Saclay (Essonne), qui travaille avec Julie Grollier.

Un neurone doté de mémoire à court terme

Très gourmand en calculs spécifiques comme la multiplication de matrices, le deep learning cherche un successeur aux processeurs graphiques (GPU) qui ont permis son envol. Les circuits programmables (FPGA) et les circuits intégrés spécialisés (Asic), comme la puce TPU développée par Google, représentent une voie de progrès. Mais d’IBM [lire l’encadré] à Qualcomm en passant par Intel, qui a dévoilé une puce neuromorphique fin septembre, les grands des puces s’inspirent de plus en plus du cerveau. Pour faire tourner un algorithme de réseau de neurones, quoi de mieux que des neurones artificiels ! "L’idée est de rapprocher la topologie des réseaux neurones formels de celle de l’électronique", explique Damien Querlioz. Jusqu’à aller à une exacte correspondance entre un neurone de l’algorithme et un neurone du matériel, ce que vise Julie Grollier.

Les puces neuromorphiques d’Intel et IBM restent à base de transistors. Or "il faut des centaines de transistors pour émuler un seul neurone, pointe la chercheuse. Cela prend de la place, de l’ordre de 100 microns pour 1 neurone. C’est trop pour en avoir des millions". A contrario, le nano-neurone du CNRS-Thales est 1 000 fois plus petit. Composé d’un empilement de deux couches de métaux ferromagnétiques – qui peuvent être aimantées – séparées par une fine couche d’isolant électrique, il a la forme d’un disque d’une centaine de nanomètres de diamètre. Fabriqué par pulvérisation cathodique sur des machines similaires à celles que Toshiba utilise pour ses mémoires, le nano-neurone est en outre compatible avec un procédé industriel.

En quoi peut-on le qualifier de neurone ? Sa réponse à un signal d’entrée [voir le schéma] est non linéaire. Comme un neurone biologique – et comme un neurone des algorithmes de deep learning –, il n’émet un signal en sortie que si l’entrée dépasse un certain seuil. En outre, mais il s’agit là d’une propriété non utilisée dans le deep learning, il possède une mémoire à court terme liée à la non-instantanéité de sa réponse. Après avoir démontré la fonctionnalité de ce nano-neurone, l’équipe du CNRS-Thales veut en faire travailler plusieurs ensemble en tirant profit de l’interaction ­électromagnétique entre nano-neurones proches ­voisins. "D’ici deux à trois ans, nous visons la réalisation d’un réseau d’environ un millier de nano-neurones", révèle Julie Grollier. Les oscilloscopes n’ont pas fini de scintiller à Palaiseau.

 

TrueNorth, la puce deep learning d’IBM


Beau succès pour TrueNorth. L’US Air Force Research Laboratory a commandé cet été à IBM un réseau de 64 de ces puces. Dévoilée en 2014, la puce TrueNorth a été présentée par Dharmendra Modha, d’IBM Research, comme « une initiative majeure pour dépasser le paradigme de Von Neumann qui a plané sur les architectures électroniques depuis plus d’un demi-siècle ». S’inspirant du cerveau humain, cette puce est composée de 4 096 noyaux neuro-synaptiques intégrant leurs propres mémoire et capacité de calcul et travaillant en parallèle. De quoi, par multiplexage temporel, disposer de 1 million de neurones par puce pour faire tourner des algorithmes de deep learning – la technologie de réseaux de neurones profonds capable de reconnaître images, sons et textes – avec une consommation d’énergie de plusieurs ordres de grandeur en deçà de celle d’un ordinateur classique. TrueNorth représente un tour de force, financé à grands frais par la Darpa, l’agence du département de la Défense des États-Unis chargée de la R & D des nouvelles technologies. Ce sont des transistors qui sont utilisés pour imiter les neurones et il en faut pas moins de 5,4 milliards par puce, ce qui en fait la deuxième plus « grosse » puce jamais réalisée. « On a atteint les limites du possible en termes d’intégration », pointe Damien Querlioz, du CNRS. Pour aller plus loin, Il faudra se passer de transistor. ??

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle

Les cookies assurent le bon fonctionnnement de nos sites et services. En utilisant ces derniers, vous acceptez l’utilisation des cookies.

OK

En savoir plus