NVIDIA (NASDAQ :NVDA) a continué à montrer sa domination dans le domaine de l'IA lundi en présentant son dernier système d'IA, le HGX H200 équipé du GPU H200.
La nouvelle plate-forme HGX H200 est équipée du GPU NVIDIA H200 Tensor Core et d'une mémoire avancée pour traiter des quantités massives de données pour l'IA générative et les charges de travail informatiques de haute performance. Le nouveau HGX H200 est basé sur l'architecture Hopper de NVIDIA.
Le H200 est le premier GPU à offrir HBM3e - une mémoire plus rapide et plus grande pour accélérer l'IA générative et les modèles de langage volumineux, tout en faisant progresser l'informatique scientifique pour les charges de travail HPC. Avec HBM3e, le NVIDIA H200 offre 141 Go de mémoire à 4,8 téraoctets par seconde, soit près du double de la capacité et 2,4 fois plus de bande passante par rapport à son prédécesseur, le NVIDIA A100.
"Pour créer de l'intelligence avec l'IA générative et les applications HPC, de grandes quantités de données doivent être traitées efficacement à grande vitesse en utilisant une mémoire GPU importante et rapide ", a déclaré Ian Buck, vice président de l'hyperscale et du HPC chez NVIDIA. "Avec NVIDIA H200, la principale plate-forme de supercalculateur d'IA de bout en bout de l'industrie vient d'être accélérée pour résoudre certains des défis les plus importants du monde. "
NVIDIA prévoit de commencer à livrer des systèmes alimentés par le H200 au deuxième trimestre 2024.