Samsung en SK Hynix winnen, Micron verliest
- Rabi Safi
- 6 uur geleden
- 3 minuten om te lezen
In het kort:
Micron dreigt buitenspel te staan bij Nvidia’s volgende AI-chipgeneratie, nu HBM4-leveringen vrijwel volledig naar SK Hynix en Samsung lijken te gaan.
De beurs reageert direct: Micron verliest vandaag circa 3–4%, terwijl juist HBM de belangrijkste winst- en groeimotor was achter de koersverviervoudiging van het afgelopen jaar.
De implicatie is groot: wie geen plek krijgt in Nvidia’s Vera Rubin-ecosysteem, mist niet alleen omzet, maar vooral structureel hoge marges in AI-geheugen.
Wat is er precies gebeurd?
Volgens SemiAnalysis en Koreaanse media (waaronder Chosun Daily en Yonhap) heeft Nvidia besloten om zijn zesde generatie high-bandwidth memory (HBM4) voor de volgende AI-chiparchitectuur, Vera Rubin, vrijwel volledig af te nemen bij SK Hynix en Samsung Electronics.
De verdeling zoals die nu wordt ingeschat:
SK Hynix: ~70% van de HBM4-leveringen
Samsung Electronics: ~30%
Micron: 0%
Dat is een forse tegenvaller voor Micron, dat tot voor kort nog werd gezien als de derde serieuze speler in HBM4 en zelf aangaf in Q2 2026 te starten met opschaling van de productie.
Vera Rubin wordt de opvolger van Blackwell en is Nvidia’s eerste AI-chip die volledig leunt op HBM4, een nieuwe generatie geheugen die cruciaal is voor hogere bandbreedte, lager energieverbruik en snellere AI-training.

Waarom is HBM4 zo belangrijk?
HBM is niet zomaar geheugen. Het is de bottleneck én de winstmachine van de AI-keten.
HBM-chips worden gestapeld (3D) en direct naast of op de GPU geplaatst
Ze leveren extreem hoge bandbreedte tegen relatief laag stroomverbruik
Voor AI-accelerators is HBM inmiddels belangrijker dan traditionele DRAM
HBM4 gaat daarin een stap verder dan HBM3E:
Datasnelheden tot 11,7 Gbps, volgens Samsung
Dat is circa 22% sneller dan HBM3E
Meer bandbreedte per watt → hogere prestaties per rack in datacenters
Voor Nvidia betekent dit: hogere prestaties en hogere prijzen per chip.Voor geheugenleveranciers betekent dit: veel hogere marges dan bij standaard DRAM.
De beursreactie: waarom Micron wordt afgestraft
Micron daalde maandag 3–4%, ogenschijnlijk bescheiden, maar tegen een belangrijke achtergrond:
Het aandeel is meer dan vier keer over de kop gegaan in 12 maanden
Die rally was voor een groot deel gebaseerd op HBM-optimisme
Beleggers rekenden Micron stevig mee als “derde speler” naast Samsung en SK Hynix
Juist HBM zorgde ervoor dat Micron:
weer pricing power kreeg
de cycliciteit van traditionele geheugenchips deels kon ontwijken
hogere brutomarges kon realiseren
Als Micron geen toegang krijgt tot Nvidia’s belangrijkste AI-platform, dan wordt dat hele HBM-verhaal plots een stuk smaller.
Waarom valt Micron af? De kern zit in technische specificaties, timing en vertrouwen.
1. Nvidia stelt de lat hoger
HBM4 vraagt om:
extreem lage foutmarges
perfecte integratie met geavanceerde packaging
consistente volumes op het juiste moment
Nvidia kan het zich niet veroorloven dat een AI-chip van tienduizenden dollars faalt door geheugenproblemen.
2. Samsung en SK Hynix lopen voor
SK Hynix is al jaren marktleider in HBM en dominante leverancier van HBM3(E)
Samsung meldt nu dat het door Nvidia’s kwalificatieproces is gekomen
Samsung start zelfs al deze maand met massaproductie van HBM4
Micron daarentegen sprak nog over opstart in Q2 2026, wat in Nvidia-termen laat is.
3. Packaging en schaal
Samsung benadrukt zijn unieke positie als: “de enige partij die logic, memory, foundry en advanced packaging onder één dak kan leveren.” Voor Nvidia is dat aantrekkelijk: minder leveranciers, minder risico.
De cijfers achter de strategische dreun
Hoewel exacte contractwaarden niet openbaar zijn, zijn de implicaties fors:
Nvidia’s AI-accelerators vertegenwoordigen tientallen miljarden dollars omzet per jaar
HBM kan 20–30% van de totale chipwaarde uitmaken
Marges op HBM liggen fors boven die van conventionele DRAM
Geen HBM4-plek bij Nvidia betekent voor Micron:
gemiste miljardenomzet over meerdere jaren
lagere gemiddelde marges
grotere afhankelijkheid van cyclische geheugemarkten
Dat is precies waar beleggers Micron juist van weg wilden zien bewegen.
Wat betekent dit voor de concurrentiestrijd?
Voor Samsung
Positioneert zich definitief als volwaardige AI-geheugenpartner van Nvidia
Kan marktaandeel terugwinnen dat het eerder aan SK Hynix verloor
Versterkt zijn strategische rol in het AI-ecosysteem
Voor SK Hynix
Behoudt zijn status als HBM-kampioen
Met ~70% marktaandeel blijft het de belangrijkste leverancier
Hoge zichtbaarheid op toekomstige cashflows
Voor Micron
Dreigt structureel achterop te raken in het meest winstgevende segment
Moet hopen op:
alternatieve AI-klanten
latere generaties chips
of een heroverweging door Nvidia
Maar in AI geldt: wie één generatie mist, loopt jaren achter. Zolang Micron geen harde contracten of kwalificaties kan tonen bij de volgende AI-generatie, blijft het aandeel kwetsbaar, hoe indrukwekkend de koersrally van het afgelopen jaar ook is geweest.







































































































































Opmerkingen