Actions
1Obligations
1Flexibles
1Perf. absolue
1L'essentiel de l'actualité patrimoniale et financière pour les CIF, chaque matin dans votre boîte mail.
Longtemps considéré comme cyclique et interchangeable, le secteur de la mémoire connaît une transformation profonde sous l’effet de l’intelligence artificielle.
Longtemps considéré comme cyclique et interchangeable, le secteur de la mémoire connaît une transformation profonde sous l’effet de l’intelligence artificielle. Entre explosion de la demande, contraintes industrielles et nouveaux rapports de force, un nouvel équilibre se dessine pour les fabricants et l’ensemble de la chaîne des semi-conducteurs.
Le point hebdo d'Amplegest daté du 18 février 2026, par Abdoullah Sardi, Gérant Actions - Associé
L’essor de l’IA transforme la mémoire — notamment la HBM — en ressource stratégique rare, redonnant du pouvoir de fixation des prix aux fabricants.
L’offre reste contrainte par une complexité industrielle croissante, créant un goulot d’étranglement favorable à certains acteurs comme SK Hynix ou Micron.
Le prochain point de tension pourrait concerner les CPU, avec la montée des agents IA et de nouveaux usages ne nécessitant pas de GPU.
Pendant deux décennies, l'industrie de la mémoire et du stockage a incarné l'archétype du secteur commoditisé. Cycles brutaux de surproduction, guerres de prix destructrices, marges oscillant entre euphorie et effondrement : investir dans Samsung, SK Hynix ou Micron relevait du trading tactique, rarement de la conviction fondamentale. Le stockage magnétique (HDD), lui, semblait condamné face à la montée du flash NAND.
Or, un renversement s'opère. Les tensions sur la mémoire HBM (mémoire à grande bande passante) font désormais la une des publications spécialisées. Les délais s'allongent, les contrats se négocient avec des primes inédites, et les fabricants retrouvent un pricing power oublié. Ce basculement n'est pas conjoncturel : il traduit une mutation structurelle de la demande, tirée par l'intelligence artificielle, face à une offre qui peine à suivre. La mémoire, longtemps interchangeable, devient une ressource stratégique dont la rareté conditionne le déploiement de l'infrastructure IA mondiale.
Le déploiement massif des GPU dédiés à l'entraînement et l'inférence des grands modèles constitue le premier vecteur de rupture. Stocker les poids des modèles et l'historique des conversations (context window) exige une mémoire croissante : un serveur équipé de huit NVIDIA GB300 embarque 2 240 Go de HBM3e — davantage qu'un datacenter entier il y a quinze ans. Au-delà de la capacité, c'est la bande passante qui compte : la HBM, physiquement la plus proche du GPU, permet une communication optimale entre processeurs. Dans cette course à la puissance, les autoroutes de données sont aussi critiques que le calcul lui-même.
Comme si cela ne suffisait pas, les besoins en stockage conventionnel explosent également. Datasets d'entraînement (plusieurs pétaoctets), logs, embeddings, caches de contexte : tout doit être stocké, indexé, restitué. Selon TrendForce, la demande en stockage enterprise devrait croître de 25 à 30 % par an jusqu'en 2028 — deux fois la tendance historique. Contrairement aux prévisions d'obsolescence, le disque dur (HDD) conserve un avantage économique décisif pour les archives massives. Seagate et Western Digital constatent une résurgence de la demande court terme, portée par les hyperscalers en quête de capacité à faible coût.
Ajouter de la capacité n'est plus une simple question de capital mais aussi d’exécution. La production de HBM requiert l'empilement de puces DRAM par des techniques de packaging avancé (TSV, hybrid bonding) que seuls SK Hynix et, dans une moindre mesure, Samsung et Micron maîtrisent à l'échelle industrielle. Les rendements restent inférieurs à ceux de la DRAM conventionnelle, et chaque nouvelle génération impose des développements spécifiques. Ces difficultés de production renforcent le goulot d’étranglement et de fait, le pricing power des entreprises de mémoires.
Cette complexification de la production est elle-même retranscrit dans les carnets d’ordres des principaux équipementiers semiconducteurs – LAM Research, Applied Material, ASML, ASMi, Besi – dont les délais de commandes ne cessent de s’allonger.
La conséquence immédiate de ce déséquilibre est le redressement des prix. Après un point bas au S1 2023, les tarifs de la DRAM et du NAND ont amorcé une remontée significative. Les contrats HBM, négociés avec des primes substantielles et des engagements pluriannuels, offrent une visibilité inédite. SK Hynix a vu sa marge opérationnelle rebondir de manière spectaculaire ; Micron bénéficie de l'effet d'entraînement.
Dans un marché oligopolistique, on pourrait croire que les gains se répartissent au prorata des parts de marché. Ce n'est pas le cas. Les rapports de force ont considérablement évolué. Là où Samsung dominait la HBM de seconde génération, SK Hynix a réalisé un bond technologique lui permettant de capter la quasi-totalité du marché HBM3. Samsung, incapable de livrer des produits conformes au cahier des charges de NVIDIA, s'est retrouvé évincé. Résultat : sur trois ans, Hynix a multiplié par 7, Micron par 5, Samsung par 1,5 seulement. Le leader historique s'est fait doubler par ses challengers.
Amplegest Digital Leaders est investi dans SK Hynix et Micron depuis le lancement du fonds, au détriment de Samsung — sur la base d'une perte d'innovation et d'une difficulté d'exécution liée à une culture d'entreprise traditionnelle. Aujourd'hui, nous pensons que Samsung pourrait combler une partie de ce retard grâce aux avancées sur ses dernières générations de mémoire et à sa capacité de production, l'une des plus importantes du marché.
Le prochain goulot d'étranglement pourrait surgir là où personne ne l'attend. Pendant trois ans, le marché a martelé que le CPU était mort. Or l'agent IA, et on le voit par exemple avec OpenClaw ces dernières semaines, « salarié/assistant numérique » en devenir, va s'appuyer sur les mêmes outils bureautiques qu’on utilise au quotidien, et ces outils fonctionnent sur le bon vieux processeur x86. Navigation web, manipulation de fichiers, interactions avec les applications traditionnelles — tout cela tourne sur des CPU conventionnels.
Nous pensons donc que des acteurs comme AMD, et dans une moindre mesure Intel, pourraient bénéficier de la pénétration des agents et de la montée en puissance de cas d'usage qui, eux, ne nécessitent pas de GPU. La pénétration des Agents accentuera le besoin en CPU créant potentiellement un nouveau goulot. La commodité d'aujourd'hui est peut-être la rareté de demain.