Architecture Blackwell, robotique humanoïde et métavers sans détour : trois annonces phares de Nvidia lors de la GTC 2024

Parmi les nouveautés présentées par Nvidia, à l’occasion de l’ouverture de sa conférence semestrielle GTC ce lundi 18 mars 2024 en Californie, trois retiennent particulièrement l’attention : une nouvelle puce graphique pour doper l’IA, une initiative pour favoriser l’essor des robots humanoïdes dans l’industrie, et des API établissant un lien direct entre divers logiciels-métiers et les services cloud Omniverse de Nvidia.

Réservé aux abonnés
Image d'illustration de l'article
Jensen Huang sur scène, présentant l'architecture Blackwell, lors de la conférence GTC 2024.

L’Américain Nvidia a lancé, ce lundi 18 mars 2024 à San José (Californie), sa traditionnelle conférence semestrielle GTC (GPU technology conference), guettée par la plupart des amateurs de technologies. Sans surprise, l’intelligence artificielle a constitué le fil rouge de la présentation inaugurale de Jensen Huang, le président de Nvidia. Et pour cause : ses processeurs graphiques équipent la plupart des datacenters et accélèrent l’entraînement et l’inférence des modèles d’IA, dont l’IA générative et les grands modèles de langage qui monopolisent l’actualité technologique depuis 18 mois. La principale nouveauté de cette GTC, l’architecture Blackwell, suggère que la mainmise de Nvidia sur le secteur ne va pas s’arrêter là.

L’architecture Blackwell, pour des modèles d’IA à mille milliards de paramètres

Image d'illustration de l'articleNvidia
nvidia GB200 nvidia GB200

La carte GB200 dispose de deux puces graphiques B200 et d'un processeur Grace (avec une architecture Arm identique). C'est la base du système de calcul GB200 NVL72, prévu pour les datacenters, qui en contient 36. Sa puissance de calcul serait de 1,4 exaflops (milliard de milliards d'opérations par seconde).

Destinée à accélérer l’IA générative, la nouvelle architecture de puce graphique (GPU), baptisée Blackwell, était assurément la grande vedette de la conférence de Nvidia. Elle propulse la puce B200, qui résulte de l’assemblage de deux puces unitaires B100 sur un même « die » (ou circuit intégré), pour un total de 208 milliards de transistors. Les deux puces B100 communiquant via un bus ultra-rapide à 10 téraoctet/seconde, elles se comporteraient comme une puce unique.

La puissance nominale annoncée atteint 20 téraflops (20 mille milliards d’opérations par seconde) en virgule flottante sur 8 bits (FP8), soit 2,5 fois celle de la puce H100 de Nvidia. Grâce à l’ajout d’un moteur Transformer de seconde génération, une précision moindre sur 4 bits est disponible, permettant de doubler les performances en inférence.

Voilà qui ouvre la porte à des grands modèles d’IA assortis de mille milliards de paramètres, promet Nvidia. Signe des temps, l’entreprise américaine insiste sur l’efficacité énergétique : la puce B200 consommerait 25 fois moins d’énergie que la puce H100.

Le projet GrOOt, pour accélérer le développement de la robotique humanoïde

Image d'illustration de l'articleNvidia
Nvidia Groot Nvidia Groot

Generalist robot 00 technology, ou Gr00t : ainsi se nomme l’initiative de Nvidia pour tonifier le développement de la robotique humanoïde. Elle se compose tout d’abord d’une partie logicielle, à savoir un modèle de fondation généraliste servant à l’apprentissage multimodal du robot, à partir de vidéos, de prompts et d’observation de la gestuelle humaine (apprentissage par imitation).

S’y ajoute Isaac Lab, une nouvelle composante de la plateforme logicielle Isaac, que Nvidia adresse depuis quelques années aux développeurs en robotique. Isaac se veut particulièrement optimisé pour l’apprentissage par renforcement (très répandu en robotique), par imitation et par transfert.

Côté matériel, les robots humanoïdes pourront intégrer le nouveau système sur puce Jetson Thor, fondé sur l’architecture Blackwell. A la clé : des performances 8 fois supérieure à celles du système Jetson Orin, qui équipe aujourd’hui plusieurs robots de ce type.

Les API Omniverse, pour des métavers à la portée d’un clic de souris

Image d'illustration de l'articleNvidia
Nvidia omniverse Nvidia omniverse

Destinée à la création et à la simulation de jumeaux numériques et autres métavers dans l’industrie, la suite logicielle Omniverse de Nvidia, hébergée dans le cloud, sera accessible au travers d’interfaces de programmation (API) d’ici à la fin de l’année, via le service cloud Azure de Microsoft.

L’idée est de fournir un accès directe aux capacités d’Omniverse (simulation basée sur la physique, images 3D réalistes…) dans les interfaces d’un ensemble de logiciels-métiers. Les partenaires de Nvidia sont Ansys (simulation multi-physique), Cadence (CAO pour l’électronique), Dassault Systèmes (3D Excite) ou encore Siemens (Xcelerator).

Les données sont échangées via le format USD (universal scene description, ou description universelle de scènes). Cinq API sont à disposition, dont USD Render, pour une illumination réaliste des scènes 3D grâce à la technologie Ray-Tracing.

Newsletter Fil Deeptech
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Ils recrutent des talents
Chez Framatome, façonnons les réacteurs nucléaires de demain !

Un avenir énergétique 100% électrique et bas carbone ? Tout le monde en rêve, mais le défi est bien vaste ! Entreprise industrielle de la métallurgie, au service de la filière nucléaire, chez Framatome, chaque innovation, chaque calcul d’ingénierie, chaque soudure, contribue à cet objectif.

Le témoignage
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
Trouvez des produits et des fournisseurs