Quel avenir pour l’action Renault après son avertissement sur les bénéfices ?
Investing.com - Citi Research a dévoilé ses premières architectures d’IA en périphérie (edge AI), signalant ce que les analystes décrivent comme le début de l’ère du "serveur IA personnel".
Le courtier explique comment les systèmes d’IA portables et intégrés aux appareils deviendront un élément fondamental des smartphones, PC et autres appareils grand public, stimulés par les récentes avancées dans l’efficacité des modèles d’IA et la conception des semi-conducteurs.
Le cœur de la thèse de Citi repose sur trois changements architecturaux conçus pour déplacer le calcul d’IA des serveurs centralisés vers la périphérie.
Le premier ajoute des modules d’IA aux systèmes Von Neumann traditionnels via PCIe, offrant une solution transitoire sans modifier l’architecture existante des appareils.
Le deuxième rapproche la mémoire, spécifiquement LPDDR6, des unités de traitement neuronal ou tensoriel pour améliorer la bande passante et l’efficacité.
Le troisième, le plus avancé, place la DRAM LPW ou LLW directement à côté des processeurs d’IA, imitant les conceptions de niveau serveur de Nvidia, offrant des performances maximales à un coût plus élevé.
Cette évolution est soutenue par des avancées dans la compression des modèles. Citi souligne l’utilisation par DeepSeek de la distillation, de l’apprentissage par renforcement et d’une architecture Mixture-of-Experts, qui réduit la taille du modèle et les exigences matérielles sans sacrifier les performances.
Ces gains d’efficacité rendent possible l’exécution de l’IA directement sur les appareils périphériques, accélérant davantage la demande pour les systèmes d’IA embarqués.
L’innovation matérielle est tout aussi centrale dans cette transition. Citi prévoit une adoption plus large de l’emballage System on Integrated Chip (SoIC), développé par TSMC, pour permettre une intégration hétérogène à haute densité.
Dans le domaine de la mémoire, le LPDDR6 devrait équiper les appareils haut de gamme en 2026, tandis que la DRAM LPW, décrite comme une alternative HBM adaptée aux mobiles, deviendra courante d’ici 2028. L’intégration die-to-die utilisant la liaison hybride devrait également jouer un rôle central, offrant une meilleure connectivité et performance, malgré des coûts plus élevés.
Le passage à l’IA en périphérie augmentera la demande de DRAM spécifique à l’IA. Citi prévoit que la consommation totale de DRAM pour l’IA passera de 35 milliards d’unités (équivalent 1Gb) en 2024 à 331 milliards d’ici 2028, soit un taux de croissance annuel composé de 75%.
La croissance par segment est projetée à 198% (TCAC) pour les smartphones IA, 104% pour les PC IA, et 239% pour la robotique sur la même période.
Citi identifie plusieurs bénéficiaires clés de cette transition. Parmi eux figurent les fabricants de mémoire SK Hynix, Samsung (KS:005930) et Micron (NASDAQ:MU); des fonderies comme TSMC; des fabricants de puces comme Nvidia (NASDAQ:NVDA) et MediaTek; et une gamme de fournisseurs impliqués dans l’emballage avancé et les équipements de test, notamment Lam Research (NASDAQ:LRCX), Besi, ASMPT, KLA et Advantest.
Les analystes notent que cela marque un changement plus large dans l’architecture informatique, passant d’une infrastructure d’IA centralisée à une IA distribuée et personnalisée au niveau des appareils. Avec la convergence des avancées dans les technologies logicielles et des semi-conducteurs, l’IA en périphérie est sur le point de devenir une caractéristique déterminante des appareils informatiques de nouvelle génération.
Cet article a été généré et traduit avec l’aide de l’IA et revu par un rédacteur. Pour plus d’informations, consultez nos T&C.