top of page

Samsung en SK Hynix winnen, Micron verliest

In het kort:

  • Micron dreigt buitenspel te staan bij Nvidia’s volgende AI-chipgeneratie, nu HBM4-leveringen vrijwel volledig naar SK Hynix en Samsung lijken te gaan.

  • De beurs reageert direct: Micron verliest vandaag circa 3–4%, terwijl juist HBM de belangrijkste winst- en groeimotor was achter de koersverviervoudiging van het afgelopen jaar.

  • De implicatie is groot: wie geen plek krijgt in Nvidia’s Vera Rubin-ecosysteem, mist niet alleen omzet, maar vooral structureel hoge marges in AI-geheugen.


Wat is er precies gebeurd?

Volgens SemiAnalysis en Koreaanse media (waaronder Chosun Daily en Yonhap) heeft Nvidia besloten om zijn zesde generatie high-bandwidth memory (HBM4) voor de volgende AI-chiparchitectuur, Vera Rubin, vrijwel volledig af te nemen bij SK Hynix en Samsung Electronics.


De verdeling zoals die nu wordt ingeschat:

  • SK Hynix: ~70% van de HBM4-leveringen

  • Samsung Electronics: ~30%

  • Micron: 0%


Dat is een forse tegenvaller voor Micron, dat tot voor kort nog werd gezien als de derde serieuze speler in HBM4 en zelf aangaf in Q2 2026 te starten met opschaling van de productie.


Vera Rubin wordt de opvolger van Blackwell en is Nvidia’s eerste AI-chip die volledig leunt op HBM4, een nieuwe generatie geheugen die cruciaal is voor hogere bandbreedte, lager energieverbruik en snellere AI-training.


Koers Micron, Sandisk, Samsung en SK Hynix

Waarom is HBM4 zo belangrijk?

HBM is niet zomaar geheugen. Het is de bottleneck én de winstmachine van de AI-keten.

  • HBM-chips worden gestapeld (3D) en direct naast of op de GPU geplaatst

  • Ze leveren extreem hoge bandbreedte tegen relatief laag stroomverbruik

  • Voor AI-accelerators is HBM inmiddels belangrijker dan traditionele DRAM


HBM4 gaat daarin een stap verder dan HBM3E:

  • Datasnelheden tot 11,7 Gbps, volgens Samsung

  • Dat is circa 22% sneller dan HBM3E

  • Meer bandbreedte per watt → hogere prestaties per rack in datacenters


Voor Nvidia betekent dit: hogere prestaties en hogere prijzen per chip.Voor geheugenleveranciers betekent dit: veel hogere marges dan bij standaard DRAM.


De beursreactie: waarom Micron wordt afgestraft

Micron daalde maandag 3–4%, ogenschijnlijk bescheiden, maar tegen een belangrijke achtergrond:

  • Het aandeel is meer dan vier keer over de kop gegaan in 12 maanden

  • Die rally was voor een groot deel gebaseerd op HBM-optimisme

  • Beleggers rekenden Micron stevig mee als “derde speler” naast Samsung en SK Hynix


Juist HBM zorgde ervoor dat Micron:

  • weer pricing power kreeg

  • de cycliciteit van traditionele geheugenchips deels kon ontwijken

  • hogere brutomarges kon realiseren


Als Micron geen toegang krijgt tot Nvidia’s belangrijkste AI-platform, dan wordt dat hele HBM-verhaal plots een stuk smaller.


Waarom valt Micron af? De kern zit in technische specificaties, timing en vertrouwen.


1. Nvidia stelt de lat hoger

HBM4 vraagt om:

  • extreem lage foutmarges

  • perfecte integratie met geavanceerde packaging

  • consistente volumes op het juiste moment


Nvidia kan het zich niet veroorloven dat een AI-chip van tienduizenden dollars faalt door geheugenproblemen.


2. Samsung en SK Hynix lopen voor

  • SK Hynix is al jaren marktleider in HBM en dominante leverancier van HBM3(E)

  • Samsung meldt nu dat het door Nvidia’s kwalificatieproces is gekomen

  • Samsung start zelfs al deze maand met massaproductie van HBM4


Micron daarentegen sprak nog over opstart in Q2 2026, wat in Nvidia-termen laat is.


3. Packaging en schaal

Samsung benadrukt zijn unieke positie als: “de enige partij die logic, memory, foundry en advanced packaging onder één dak kan leveren.” Voor Nvidia is dat aantrekkelijk: minder leveranciers, minder risico.


De cijfers achter de strategische dreun

Hoewel exacte contractwaarden niet openbaar zijn, zijn de implicaties fors:

  • Nvidia’s AI-accelerators vertegenwoordigen tientallen miljarden dollars omzet per jaar

  • HBM kan 20–30% van de totale chipwaarde uitmaken

  • Marges op HBM liggen fors boven die van conventionele DRAM


Geen HBM4-plek bij Nvidia betekent voor Micron:

  • gemiste miljardenomzet over meerdere jaren

  • lagere gemiddelde marges

  • grotere afhankelijkheid van cyclische geheugemarkten


Dat is precies waar beleggers Micron juist van weg wilden zien bewegen.


Wat betekent dit voor de concurrentiestrijd?

Voor Samsung

  • Positioneert zich definitief als volwaardige AI-geheugenpartner van Nvidia

  • Kan marktaandeel terugwinnen dat het eerder aan SK Hynix verloor

  • Versterkt zijn strategische rol in het AI-ecosysteem


Voor SK Hynix

  • Behoudt zijn status als HBM-kampioen

  • Met ~70% marktaandeel blijft het de belangrijkste leverancier

  • Hoge zichtbaarheid op toekomstige cashflows


Voor Micron

  • Dreigt structureel achterop te raken in het meest winstgevende segment

  • Moet hopen op:

    • alternatieve AI-klanten

    • latere generaties chips

    • of een heroverweging door Nvidia


Maar in AI geldt: wie één generatie mist, loopt jaren achter. Zolang Micron geen harde contracten of kwalificaties kan tonen bij de volgende AI-generatie, blijft het aandeel kwetsbaar, hoe indrukwekkend de koersrally van het afgelopen jaar ook is geweest.

 
 
 

Opmerkingen


Net binnen..

Meld je aan voor onze dagelijkse nieuwsbrief!

Bedankt voor het abonneren!

Copyright © 2026 •

Alle rechten voorbehouden - Amsterdam - 0619930051

Disclaimer
Let op: Beleggen brengt risico's met zich mee. Je kan (een deel van) je inleg verliezen. Niets hier mag worden beschouwd als financieel advies.. Voor advies over je persoonlijke situatie kun je het beste een adviseur inschakelen.

  • Instagram
  • Twitter
  • LinkedIn
  • YouTube
bottom of page