AMD presenteert gedurfde nieuwe AI chip om Nvidia wakker te schudden
- Redactie

- 12 jun
- 3 minuten om te lezen
AMD presenteert de nieuwe Instinct‑generatie: MI350‑ en MI400‑GPU’s met tot 288 GB HBM3e, 8 TB/s bandbreedte en 20 PFLOPS AI‑rekenkracht, gericht op rechtstreekse confrontatie met Nvidia’s Blackwell‑lijn.
Datacenteromzet steeg in Q1 2025 al 57 % naar $3,7 mrd; met 25 recente overnames (waaronder ZT Systems voor $4,9 mrd) legt AMD de basis voor complete ‘AI‑fabrieken’ en mikt het op dubbelcijferige groei in de AI‑tak ondanks een verwachte China‑hit van $1,5 mrd.
Financieel perspectief: AMD heeft 1 % marktaandeel in AI‑accelerators tegenover Nvidia’s >70 %, maar bedient een markt die volgens analisten kan oplopen tot $400 mrd in 2027; elke procentpunt extra aandeel zou >$4 mrd omzet toevoegen.
Lisa Su slaat terug
In San Jose toonde CEO Lisa Su voor het eerst de Instinct MI350‑ en MI400‑series. De MI355X beschikt over 288 GB HBM3e en 60 % meer dan Nvidia’s B200, en haalt 8 TB/s geheugenbandbreedte. Met 20 PFLOPS FP4/FP6 claimt AMD tot 2× hogere inferentiesnelheid op grote taalmodellen dan Blackwell. De MI400 serie (CDNA 5) volgt volgens de roadmap in 2026 en moet het jaarlijkse cadans van Nvidia spiegelen.
Waarom is dat belangrijk?
Geheugencapaciteit bepaalt direct de maximale modelgrootte; 288 GB maakt een 520‑miljard‑parameter LLM op één GPU mogelijk. Dat verlaagt netwerk‑latentie en energiekosten op schaal, posten die volgens hyperscalers 15‑20 % van de totale AI‑TCO uitmaken.
Marktreactie
Het aandeel AMD sloot kort na de presentatie 2 % lager op $119, nuchter vergeleken met Nvidia’s koersparabool, maar pas na een plus van 45 % sinds januari. Analisten spreken van een “show‑me story”: de hardware‑sprong is indrukwekkend, maar software‑acceptatie via het open‑source ROCm‑platform blijft de achilleshiel. Wolfe Research verlaagde vorige maand de omzetraming voor AI‑GPU’s 2025 van $10 mrd naar $7 mrd.
De cijfers achter het verhaal
AMD Q1 2025 | Nvidia Q1 FY 2026 | |
Totale omzet | $7,4 mrd (+36 % YoY) | $44,1 mrd (+69 % YoY) |
Datacenter‑omzet | $3,7 mrd (+57 % YoY) | $39,1 mrd (+73 % YoY) |
Non‑GAAP brutomarge | 54 % | 78 % (indicatief) |
De kloof is kolossaal: Nvidia verkoopt in één kwartaal bijna het tienvoudige aan datacenterchips. Su meldde dat MI300‑omzet in 2024 al >$4 mrd bedroeg. Elk nieuw generatiesprong kan de brutomarge met ±5 procentpunt optrekken; extra HBM3e drukt wel op de BOM, maar die kostendruk verdwijnt bij volumestijging.
Overnamecarrousel en systeemstrategie
AMD kocht in twaalf maanden 25 AI‑bedrijven; kroonjuweel is ZT Systems (serverbouwer) voor $4,9 mrd. Daarmee kan AMD “AI‑systemen in een doos” leveren, net zoals Nvidia’s DGX‑racks. Eind mei verkoopt AMD de productielijn van ZT aan Sanmina voor $3 mrd en houdt de ontwerpteams in huis. Resultaat: kapitaallicht model, maar toch controle over intellectueel eigendom.
China‑risico en exportcurbs
Nieuwe Amerikaanse exportbeperkingen op AI‑GPU’s kunnen $1,5 mrd omzet kosten en drukken de marge in Q2 tijdelijk naar 43 %. Su benadrukte dat klanten “voorraad hamsteren” voor de deadline; dat verklaart de verrassend sterke Q2‑omzetguidance van $7,4 mrd (+/‑ $0,3 mrd).
De ‘CUDA‑moat’ blijft
ROCm ondersteunt inmiddels grote frameworks zoals PyTorch 2.4 en vLLM, maar marktbrede adaptatie hinkt achterop. SemiAnalysis stelt dat de software‑stack gemiddeld 15–30 % performance‑verlies oplevert t.o.v. CUDA, ondanks vergelijkbare hardware. AMD investeert daarom fors in ontwikkelaarstools; R&D spendeert nu $6,2 mrd LTM (27 % van de omzet).
Implicaties & vooruitblik
De AI‑chipomzet kan oplopen tot $400 mrd in 2027. Ieder procentpunt marktaandeel is goed voor ruim $4 mrd.
Door de MI‑series jaarlijks te vernieuwen (MI325 → MI350 → MI400) elimineert AMD de traditionele 18‑maandengrens en verkleint het gat met Nvidia naar één productcyclus.
Dankzij outsourced manufacturing en de Sanmina‑deal vloeit het werkkapitaal terug; dat verlaagt de netto‑investeringsdruk en kan de vrije kasstroom in 2026 met ~$1 mrd vergroten.
Een open ecosysteem kan op termijn de ‘moat’ van CUDA ondermijnen, vergelijkbaar met wat Linux deed bij server‑besturingssystemen maar dat vergt tijd en deelname vanuit de developer community.
Termen uitgelegd
Term | Betekenis |
HBM3e | Hoge‑bandbreedtegeheugen, derde generatie ‘extended’; 8 TB/s is ~25× DDR5‑snelheid. |
FP4/FP6 | 4‑ en 6‑bit floating‑point‑formaten voor inferentie; halveren energiekosten per token vs. FP8. |
PFLOPS | Peta‑floating‑point‑operations per seconde; maat voor rekenkracht (10¹⁵ operaties). |
Non‑GAAP brutomarge | Winstmarge exclusief eenmalige posten, belangrijk voor cash‑generatie. |
AMD zet met de MI350‑ en MI400‑series een stevige stap richting ‘pariteit plus’ met Nvidia. Het momentum in de datacenteromzet toont dat de strategie, volledige systemen, acquisities en agressieve R&D, begint te renderen. Toch blijft succes afhangen van twee harde cijfers: marktaandeel en software‑ecosysteem. Elke tiende procent verschuiving vertegenwoordigt miljarden, maar zonder brede ROCm‑adoptie blijft die buit buiten handbereik. Voor beleggers is AMD nu een klassiek execution play: de techniek is overtuigend, de winst ligt in de levering.







































































































































Opmerkingen