Par Sam Boughedda
Google (Société Alphabet's (NASDAQ:GOOGL) ) a déclaré dans un document de recherche mardi que ses nouvelles puces pour l'entraînement des modèles d'IA sont plus rapides et plus économes en énergie que les systèmes de Nvidia (NASDAQ:NVDA).
Son unité de traitement tensoriel (TPU) de quatrième génération, qui a été utilisée pour entraîner ses modèles d'intelligence artificielle dans un superordinateur, serait 1,7 fois plus rapide et 1,9 fois plus économe en énergie qu'un système basé sur la puce A100 de Nvidia.
Toutefois, Google a révélé qu'il n'avait pas comparé sa TPUv4 à la puce phare H100 de Nvidia, car celle-ci est arrivée sur le marché après la puce de Google et a été créée à l'aide d'une technologie plus récente.
Dans son document de recherche, Google explique comment il a rassemblé plus de 4 000 puces en un superordinateur en utilisant ses commutateurs optiques développés sur mesure pour connecter les différentes machines.
Nvidia a été l'une des entreprises qui a ouvert la voie sur le marché des puces d'IA, mais Google fait également une sérieuse poussée. L'entreprise a beaucoup investi dans la recherche et le développement en matière d'IA, et les puces TPUv4 sont un signe que Google souhaite se positionner en tant que leader sur le marché des puces d'IA.
Dans un commentaire à Reuters, Google a laissé entendre qu'il pourrait travailler sur une nouvelle puce pour concurrencer la H100 de Nvidia, Norm Jouppi, membre de Google, ayant déclaré à la publication que Google disposait d'un "pipeline sain de futures puces".