Investing.com - Malgré les inquiétudes des investisseurs concernant les tarifs douaniers et les dépenses excessives en infrastructures d’IA, UBS estime que la demande de calcul pour l’inférence d’IA générative (genAI) est prête à se développer considérablement dans tous les secteurs.
Selon la banque, l’IA reste résiliente face à l’incertitude macroéconomique, les principales entreprises technologiques américaines réaffirmant leurs plans de dépenses d’investissement (capex) et soulignant que la demande de calcul continue de dépasser l’offre.
UBS soutient que l’inférence — le processus d’exécution des modèles d’IA pour générer des réponses — deviendra le principal moteur des futurs besoins de calcul d’IA, dépassant l’entraînement.
"La quantité de calcul dont nous avons besoin en raison de l’IA agentique et du raisonnement est facilement 100 fois supérieure à ce que nous pensions nécessaire l’année dernière à la même époque", a déclaré Jensen Huang, PDG de Nvidia (NASDAQ:NVDA), cité dans une note d’UBS.
La banque fait écho à ce sentiment, soulignant l’émergence de méthodes plus complexes comme le raisonnement par chaîne de pensée (Chain of Thought, CoT) comme source clé de l’intensité computationnelle croissante.
Dans ses projections, UBS définit quatre catégories de cas d’utilisation de la genAI : les chatbots, l’IA d’entreprise, l’IA agentique et l’IA physique.
Pour les chatbots comme ChatGPT, la demande de calcul devrait passer de 10 exaFLOP/s en 2024 à 200 exaFLOP/s d’ici 2030.
Pour les applications d’entreprise, telles que la détection de fraudes et la synthèse de contrats, les besoins d’inférence devraient croître encore plus rapidement — de 15 à 440 exaFLOP/s sur la même période.
La croissance la plus spectaculaire est attendue de l’IA agentique, qui comprend le support client autonome et l’automatisation des flux de travail. UBS estime que la demande de ce segment pourrait atteindre 14 zettaFLOP/s d’ici 2030, ce qui marquerait un "bond énorme par rapport aux besoins actuels, que nous estimons à quelques centaines d’exaFLOP/s", indique la firme dans sa note.
L’IA physique, qui inclut la robotique et les véhicules autonomes, pourrait éventuellement nécessiter une puissance de calcul de l’ordre du yottaFLOP/s à mesure qu’elle évolue pour reproduire certains aspects de la cognition humaine.
La capacité de calcul GPU installée aujourd’hui est estimée à environ 4.000 exaFLOP/s (atteignant 5.000 avec les unités de traitement tensoriel (TPU) de Google (NASDAQ:GOOGL)), mais UBS note qu’une grande partie reste sous-utilisée.
Des limitations comme les goulots d’étranglement de la mémoire GPU signifient que l’utilisation réelle est souvent inférieure au potentiel nominal, rendant peu probable que la base actuelle puisse répondre à la demande future, en particulier pour l’IA agentique et physique.
"L’inférence est souvent limitée par la mémoire GPU, ce qui signifie que les FLOP/s qu’une puce peut fournir sont bien en dessous de son maximum théorique — les limitations de mémoire entraînant des puces fonctionnant à seulement 25% de leurs FLOP/s nominaux", explique la note.
"Même avec ces limitations, la capacité disponible pourrait être suffisante pour les besoins actuels des chatbots, mais bien en deçà de ce qui sera nécessaire pour l’IA agentique et physique, qui exigeront une puissance de calcul d’un tout autre ordre de grandeur", ajoute-t-elle.
Dans l’ensemble, UBS conclut que le rôle croissant de l’inférence dans l’adoption de l’IA, combiné à l’augmentation des exigences matérielles, soutient la poursuite des investissements dans l’infrastructure d’IA.
Pour les investisseurs, la banque considère "tout repli des actions liées à nos sélections ’IA’ et ’Énergie et ressources’ comme des points d’entrée attractifs."
Cet article a été généré et traduit avec l’aide de l’IA et revu par un rédacteur. Pour plus d’informations, consultez nos T&C.