Samsung Electronics (KS:005930) a passé avec succès la phase de test de Nvidia (NASDAQ:NVDA) pour ses puces mémoire HBM3E à huit couches, destinées à être utilisées dans les processeurs d'intelligence artificielle (IA) de Nvidia. Trois sources familières avec le sujet ont révélé que l'approbation marque une étape importante pour Samsung, le plus grand fabricant de puces mémoire au monde, car il est en concurrence avec SK Hynix pour la fourniture de puces mémoire avancées conçues pour les charges de travail d'intelligence artificielle générative.
Bien qu'un accord de fourniture officiel entre Samsung et Nvidia pour les puces HBM3E à huit couches n'ait pas encore été signé, il devrait être finalisé prochainement et l'approvisionnement devrait commencer d'ici le quatrième trimestre 2024. Cependant, la version de la puce HBM3E à 12 couches de Samsung est toujours en cours de test par Nvidia.
Les puces de mémoire à large bande passante (HBM), produites pour la première fois en 2013, sont une forme de mémoire vive dynamique (DRAM) dans laquelle les puces sont empilées verticalement pour économiser de l'espace et réduire la consommation d'énergie. Ces puces sont essentielles pour les unités de traitement graphique (GPU) utilisées dans l'intelligence artificielle, car elles permettent de traiter d'importants volumes de données générés par des applications complexes.
Depuis l'année dernière, Samsung s'efforce de passer les tests de Nvidia pour ses modèles HBM3E et HBM3 de la génération précédente. Des problèmes initiaux liés à la chaleur et à la consommation d'énergie ont été signalés par Reuters en mai, mais Samsung a depuis revu la conception de son HBM3E pour résoudre ces problèmes et a réfuté les affirmations selon lesquelles ses puces auraient échoué aux tests de Nvidia en raison de ces problèmes.
La réussite des tests des puces HBM3E de Samsung fait suite à la récente certification par Nvidia des puces HBM3 de Samsung pour des processeurs moins avancés destinés au marché chinois, qui a été rapportée le mois dernier. Cela intervient à un moment où la demande de GPU haute performance est en forte hausse, stimulée par le boom de l'IA générative, un marché que les fabricants de puces ont du mal à satisfaire.
TrendForce, un cabinet d'études de marché, prévoit que les puces HBM3E deviendront le produit HBM dominant cette année, la plupart des livraisons ayant lieu au cours du second semestre. SK Hynix, qui est actuellement le principal fournisseur de puces HBM, s'attend à ce que la demande de puces mémoire HBM augmente de 82 % par an jusqu'en 2027.
Samsung a prévu en juillet que les puces HBM3E représenteraient 60 % de ses ventes de puces HBM d'ici le quatrième trimestre. Cet objectif est considéré comme réalisable par de nombreux analystes, à condition que les dernières puces HBM de Samsung reçoivent l'approbation finale de Nvidia d'ici le troisième trimestre.
Bien que Samsung ne divulgue pas les détails des recettes pour les produits de puces spécifiques, ses recettes totales pour les puces DRAM pour le premier semestre de cette année ont été estimées à 22,5 billions de wons (16,4 milliards de dollars), les ventes de puces HBM pouvant représenter environ 10 % de ce chiffre, d'après une enquête menée auprès de 15 analystes.
Le marché HBM est actuellement desservi par trois fabricants principaux : SK Hynix, Micron (NASDAQ:MU) et Samsung. SK Hynix a été le principal fournisseur de puces HBM de Nvidia, ayant livré fin mars des puces HBM3E à un client anonyme, que des sources ont ensuite identifié comme étant Nvidia. Micron a également annoncé son intention de fournir à Nvidia des puces HBM3E.
Le taux de change au moment de la rédaction de l'article était de 1 dollar pour 1 375,6400 wons.
Reuters a contribué à cet article.Cet article a été généré et traduit avec l'aide de l'IA et revu par un rédacteur. Pour plus d'informations, consultez nos T&C.