L’Américain Nvidia a lancé, ce lundi 18 mars 2024 à San José (Californie), sa traditionnelle conférence semestrielle GTC (GPU technology conference), guettée par la plupart des amateurs de technologies. Sans surprise, l’intelligence artificielle a constitué le fil rouge de la présentation inaugurale de Jensen Huang, le président de Nvidia. Et pour cause : ses processeurs graphiques équipent la plupart des datacenters et accélèrent l’entraînement et l’inférence des modèles d’IA, dont l’IA générative et les grands modèles de langage qui monopolisent l’actualité technologique depuis 18 mois. La principale nouveauté de cette GTC, l’architecture Blackwell, suggère que la mainmise de Nvidia sur le secteur ne va pas s’arrêter là.
L’architecture Blackwell, pour des modèles d’IA à mille milliards de paramètres
Nvidia La carte GB200 dispose de deux puces graphiques B200 et d'un processeur Grace (avec une architecture Arm identique). C'est la base du système de calcul GB200 NVL72, prévu pour les datacenters, qui en contient 36. Sa puissance de calcul serait de 1,4 exaflops (milliard de milliards d'opérations par seconde).
Destinée à accélérer l’IA générative, la nouvelle architecture de puce graphique (GPU), baptisée Blackwell, était assurément la grande vedette de la conférence de Nvidia. Elle propulse la puce B200, qui résulte de l’assemblage de deux puces unitaires B100 sur un même « die » (ou circuit intégré), pour un total de 208 milliards de transistors. Les deux puces B100 communiquant via un bus ultra-rapide à 10 téraoctet/seconde, elles se comporteraient comme une puce unique.
La puissance nominale annoncée atteint 20 téraflops (20 mille milliards d’opérations par seconde) en virgule flottante sur 8 bits (FP8), soit 2,5 fois celle de la puce H100 de Nvidia. Grâce à l’ajout d’un moteur Transformer de seconde génération, une précision moindre sur 4 bits est disponible, permettant de doubler les performances en inférence.
Voilà qui ouvre la porte à des grands modèles d’IA assortis de mille milliards de paramètres, promet Nvidia. Signe des temps, l’entreprise américaine insiste sur l’efficacité énergétique : la puce B200 consommerait 25 fois moins d’énergie que la puce H100.
Le projet GrOOt, pour accélérer le développement de la robotique humanoïde
Nvidia Generalist robot 00 technology, ou Gr00t : ainsi se nomme l’initiative de Nvidia pour tonifier le développement de la robotique humanoïde. Elle se compose tout d’abord d’une partie logicielle, à savoir un modèle de fondation généraliste servant à l’apprentissage multimodal du robot, à partir de vidéos, de prompts et d’observation de la gestuelle humaine (apprentissage par imitation).
S’y ajoute Isaac Lab, une nouvelle composante de la plateforme logicielle Isaac, que Nvidia adresse depuis quelques années aux développeurs en robotique. Isaac se veut particulièrement optimisé pour l’apprentissage par renforcement (très répandu en robotique), par imitation et par transfert.
Côté matériel, les robots humanoïdes pourront intégrer le nouveau système sur puce Jetson Thor, fondé sur l’architecture Blackwell. A la clé : des performances 8 fois supérieure à celles du système Jetson Orin, qui équipe aujourd’hui plusieurs robots de ce type.
Les API Omniverse, pour des métavers à la portée d’un clic de souris
Nvidia Destinée à la création et à la simulation de jumeaux numériques et autres métavers dans l’industrie, la suite logicielle Omniverse de Nvidia, hébergée dans le cloud, sera accessible au travers d’interfaces de programmation (API) d’ici à la fin de l’année, via le service cloud Azure de Microsoft.
L’idée est de fournir un accès directe aux capacités d’Omniverse (simulation basée sur la physique, images 3D réalistes…) dans les interfaces d’un ensemble de logiciels-métiers. Les partenaires de Nvidia sont Ansys (simulation multi-physique), Cadence (CAO pour l’électronique), Dassault Systèmes (3D Excite) ou encore Siemens (Xcelerator).
Les données sont échangées via le format USD (universal scene description, ou description universelle de scènes). Cinq API sont à disposition, dont USD Render, pour une illumination réaliste des scènes 3D grâce à la technologie Ray-Tracing.





