AI dreigt vast te lopen: chiptekort escaleert sneller dan verwacht
- Arne Verheedt
- 2 uur geleden
- 3 minuten om te lezen
In het kort
Dit bedrijf wil eigen chips inzetten om het nijpende tekort aan AI‑capaciteit structureel aan te pakken.
De wereldwijde vraag naar AI‑rekenkracht groeit sneller dan de infrastructuur aankan.
Door zelf chips te ontwikkelen probeert dit bedrijf de grip op kosten, schaalbaarheid en leveringszekerheid te versterken.
De fundamenten onder de AI‑toename beginnen te wankelen. Terwijl investeringen in kunstmatige intelligentie recordhoogtes bereiken, waarschuwt Microsoft voor een structureel tekort aan rekenkracht. Volgens Kevin Scott, CTO en hoofd van AI bij het bedrijf, is de situatie zo ernstig dat “massive crunch” een understatement is.
Microsoft ziet zich genoodzaakt drastische maatregelen te nemen. Om de afhankelijkheid van schaarse externe chips te verminderen, ontwikkelt het bedrijf sinds 2023 zijn eigen AI‑hardware. De inzet: volledige controle over zijn AI‑infrastructuur, van chip tot datacenter om de ongekende groeigolf het hoofd te bieden.
Kevin Scott leidt Microsofts AI-koers:

Microsoft grijpt naar eigen chips om grip te houden op AI
Tot nu toe leunde Microsoft zwaar op de GPU’s van Nvidia, met aanvullende inzet van AMD‑chips. Maar dat model kraakt onder de druk van explosieve AI‑vraag. Daarom ontwikkelde Microsoft twee eigen chips: de Azure Maia AI Accelerator, bedoeld voor grootschalige AI‑modellen en de Azure Cobalt CPU, gericht op algemene cloudtoepassingen.
Deze chips draaien inmiddels in Microsofts datacenters en worden ingezet voor interne diensten als Copilot, Azure OpenAI en Microsoft Teams. Daarmee slaat het bedrijf een nieuwe richting in: minder afhankelijk van Nvidia, meer grip op prestaties, kosten en beschikbaarheid.
Volgens Scott is die koers logisch en noodzakelijk. “We kiezen de chip die ons de beste prijs‑/prestatieverhouding biedt,” zei hij tijdens Italian Tech Week. “Maar op lange termijn is het duidelijk: we willen zoveel mogelijk van onze eigen chips gebruiken.”
De infrastructuur kraakt onder de snelheid van ai‑groei
Sinds de lancering van ChatGPT is de vraag naar AI‑infrastructuur geëxplodeerd. Microsoft geeft miljarden uit aan nieuwe datacenters, maar zelfs de meest ambitieuze uitbreidingsplannen blijken keer op keer niet voldoende.
Sinds ChatGPT is de vraag naar AI‑capaciteit geëxplodeerd:

De AI‑infrastructuur van vandaag is gebouwd op toeleveringsketens die niet zijn ontworpen voor deze schaal. Nvidia blijft dominant, maar kan de groeiende wereldwijde vraag nauwelijks bijbenen. Microsoft ziet daardoor een fundamenteel probleem ontstaan: de innovatie in AI gaat sneller dan de fysieke infrastructuur aankan.
Door eigen chips te ontwikkelen, wil Microsoft het heft in eigen handen nemen. Niet alleen om sneller te kunnen opschalen, maar ook om zijn infrastructuur zodanig te ontwerpen dat alles van netwerken tot koeling precies past bij de specifieke eisen van AI‑toepassingen.
Voordelen van volledige systeemcontrole
Microsofts strategie gaat verder dan alleen chips. Het bedrijf hertekent zijn volledige datacenterarchitectuur. Maia‑accelerators worden ondergebracht in bredere racks, voorzien van vloeistofkoeling, omdat traditionele luchtkoeling de warmteproductie niet aankan. Ook de netwerken zijn intern geoptimaliseerd, met aangepaste protocollen en hogere bandbreedte.
Die controle levert Microsoft cruciale voordelen op:
Kostenbesparing: minder afhankelijkheid van externe leveranciers betekent lagere kosten per AI‑bewerking.
Margeverbetering: met zelf ontwikkelde infrastructuur houdt Microsoft meer waarde binnen het bedrijf.
Schaalbaarheid: eigen chips en aangepaste systemen laten toe sneller uit te breiden bij toenemende vraag.
Differentiatie: chips kunnen specifiek worden afgestemd op Microsofts AI‑diensten zoals Copilot, Bing Chat en Azure OpenAI.
Maar de risico’s zijn groot
De weg naar volledige controle is echter risicovol. Het ontwerpen en produceren van competitieve chips is complex, duur en tijdrovend. Microsoft ondervond dat recent zelf: de tweede generatie AI‑chip, met codenaam Braga, is vertraagd en wordt nu pas in 2026 verwacht.
Tegelijkertijd blijft Nvidia innoveren, met de aankomende Blackwell‑lijn als mogelijke nieuwe standaard. Microsofts eigen chips moeten zich daartegen kunnen meten, niet alleen op rekenkracht, maar ook op betrouwbaarheid, energie-efficiëntie en compatibiliteit.
Eigen ontwikkeling kent flinke risico’s:

Daarnaast zijn veel zakelijke klanten diep verweven met het Nvidia‑ecosysteem. Overstappen op interne hardware vereist overtuigingskracht, bewezen prestaties en volledige softwareondersteuning. Zonder dat kan het marktaandeel van Microsoft in AI‑clouddiensten onder druk komen te staan.
Een race tegen de klok in het hart van de AI‑economie
Microsofts chipstrategie komt voort uit urgentie: de wereldwijde AI‑markt groeit sneller dan de industrie fysieke infrastructuur kan leveren. Wie die infrastructuur intern kan garanderen, creëert een fundamenteel concurrentievoordeel. Wie faalt, loopt het risico op vertraging, tekorten en verlies van klanten.
Met zijn investering in eigen chips zet Microsoft alles op alles om aan de goede kant van die breuklijn te blijven. De inzet is niet minder dan het behoud van zijn leidende positie in de AI‑markt en het vermogen om de beloften van AI waar te maken.
De komende jaren zullen bepalen of Microsoft die controle kan waarmaken. De vraag is niet langer wie de slimste AI‑modellen ontwikkelt, maar wie ze überhaupt nog kan draaien.