Microsoft trekt stekker uit AI-leases: Reden voor paniek?
- Rens Boukema
- 27 mrt
- 5 minuten om te lezen
Microsoft heeft de afgelopen zes maanden voor ongeveer 2 gigawatt aan geplande datacentercapaciteit in de Verenigde Staten en Europa geschrapt. Volgens een rapport van investeringsbank TD Cowen gaat het om het afblazen van meerdere leases met datacenteroperators, goed voor honderden megawatts per stuk.
Op het eerste gezicht lijkt het een signaal dat de AI-hype aan het afnemen is. Maar dat beeld klopt niet helemaal. Wat hier speelt, is geen vraaguitval, maar eerder een fundamenteel infrastructuurprobleem.
De geplande AI-investeringen van de grootste hyperscalers in 2025:

De annuleringen komen voort uit een strategische keuze van Microsoft om tijdelijk minder nieuwe AI-trainingscapaciteit beschikbaar te stellen aan OpenAI. De rekencapaciteit die eerder werd toegekend aan trainingswerk, kan zo worden herverdeeld naar andere toepassingen, zoals inferencing – het daadwerkelijk draaien van getrainde AI-modellen. Dit is een belangrijke nuance. Microsoft heeft niet minder capaciteit nodig in het algemeen, maar wil bepaalde workloads anders inzetten.
TD Cowen benadrukt dat Microsoft’s terugtrekking “grotendeels werd ingegeven door de beslissing om geen extra OpenAI-trainingscapaciteit te ondersteunen.” Daarmee onderstreept de bank dat het hier niet gaat om een algemene terugval in AI-activiteit, maar om een verschuiving in prioriteiten binnen het gebruik van bestaande infrastructuur.
Waarom bestaande datacenters niet meer voldoen
Wat wel meespeelt, is dat veel datacenters waar Microsoft op mikte technisch ongeschikt zijn voor de nieuwste generatie AI-hardware. De rekeneenheden waarmee bedrijven als Microsoft hun AI-systemen draaien, zijn enorm geëvolueerd. Waar traditionele GPU-racks ongeveer 30 tot 40 kilowatt per rack vragen, hebben nieuwe AI-racks, zoals Nvidia’s NVL72, een verbruik tot 120 kW per rack. En dat is nog maar het begin. Nvidia heeft plannen voor toekomstige racks die zelfs 600 kW per rack kunnen aantikken – een twintigvoud van de klassieke normen.
Dit wordt verwacht alleen maar meer te worden:

Dat brengt twee directe problemen met zich mee: stroomvoorziening en koeling. De stroomvraag per vierkante meter stijgt explosief, en de warmteproductie is zo hoog dat traditionele luchtkoeling volstrekt onvoldoende is. De enige haalbare oplossing is liquid cooling – vloeistofkoeling – en dat vereist compleet andere technische voorzieningen in een datacenter.
Het retrofitten van bestaande faciliteiten om deze nieuwe normen aan te kunnen is technisch complex, duur en tijdrovend. Maar leases tekenen voor capaciteit die deze hardware fysiek niet kan ondersteunen is, vanuit Microsofts perspectief, zinvoller om te laten schieten dan om door te zetten met suboptimale infrastructuur.
Microsoft bouwt liever zelf – of past bestaande locaties aan
De keuze om leases op te zeggen betekent niet dat Microsoft minder in AI gaat investeren. Integendeel. Het bedrijf heeft al aangekondigd dat het in het fiscale jaar 2025 maar liefst $80 miljard zal investeren in AI-gerelateerde infrastructuur. Dat bedrag ligt ver boven de historische gemiddelden, en maakt duidelijk dat Microsoft zich allerminst terugtrekt uit de markt.
De CapEx van Microsoft de afgelopen jaren:

In plaats van huren, kiest Microsoft steeds vaker voor eigen faciliteiten of het retrofitten van bestaande datacenters. Dat betekent dat oudere gebouwen worden aangepast met vloeistofgekoelde racks, in-aisle koelreservoirs, warmtewisselaars en verbeterde stroominfrastructuur. TD Cowen merkt daarbij op dat dit mogelijk een betere graadmeter is voor AI-groei dan het afsluiten van nieuwe leases:
“We increasingly believe that the initial indicator of inference demand will be the velocity of hyperscale retrofits, rather than the velocity of third-party leasing.”
Deze beweging richting eigen beheer betekent ook dat Microsoft meer controle krijgt over locatiekeuze, energiezekerheid, netwerkcapaciteit en de planning van toekomstige AI-workloads.
De verschuiving van training naar inference: een nieuw tijdperk
De AI-markt zelf zit momenteel in een transitie. Waar 2023 tot en met nu werd gekenmerkt door een hausse aan AI-training – het bouwen van steeds grotere modellen zoals GPT-4 – verschuift de aandacht in 2025 naar inference: het toepassen van die modellen in de praktijk. Denk aan AI-assistenten, zoekmachines, copilots en automatisering in bedrijfsprocessen.
Inference vraagt andere infrastructuur.
De modellen draaien korter, maar in grotere volumes. Dat betekent dat de totale belasting op het datacenter weliswaar anders is, maar nog steeds substantieel. Tegelijk zijn de hardware-eisen voor inference (zoals latency en schaalbaarheid) nog steeds gebonden aan dezelfde stroom- en koelingslimieten als bij training. Daardoor blijven de eisen aan datacenters onverminderd hoog.
De verschuiving naar inference betekent ook dat Microsoft zijn bestaande voorraad aan Hopper GPU’s – eerder ingezet voor training – kan hergebruiken voor nieuwe toepassingen. Daarmee is het niet nodig om op korte termijn nieuwe capaciteit te huren, zeker als die verouderd of inefficiënt is.
Microsoft is niet alleen: hyperscalers wedijveren om infrastructuur
Microsoft staat hierin niet alleen. Grote rivalen zoals Alphabet (Google) en Meta (Facebook) zetten ook alles op alles om hun AI-infrastructuur toekomstbestendig te maken. Alphabet heeft aangegeven in 2025 $75 miljard te investeren in AI-capaciteit, bijna 30% meer dan analisten verwachtten. Meta komt met een bedrag tot $65 miljard, vooral gericht op AI en metaverse-ontwikkeling.
Deze bedragen tonen aan dat AI allesbehalve over zijn hoogtepunt heen is. Integendeel, we staan aan de vooravond van een fase waarin infrastructuur het echte concurrentievoordeel wordt. Wie de snelste, zuinigste en koelste datacenters kan bouwen, bepaalt de snelheid waarmee AI-producten naar de markt komen.
TD Cowen wijst erop dat Microsofts terugtrekking uit bepaalde markten al heeft geleid tot herverdeling. Google neemt een deel van de vrijgevallen internationale capaciteit over, terwijl Meta in de VS bijspringt. De competitie verschuift dus direct op regionaal niveau.
De belangrijkste les is dat AI-groei voortaan gemeten moet worden in megawatt en koelvloeistof, niet alleen in modelparameters. De bottleneck is niet de technologie zelf, maar de fysieke ruimte waarin deze moet draaien. De bedrijven die hierin het slimst opereren – snel bouwen, goed koelen, efficiënt schalen – zullen uiteindelijk de leiding nemen.
Voor beleggers is het belangrijk om niet te schrikken van headlines over geschrapte leases. De echte trend is dat bedrijven als Microsoft slimmer omgaan met hun investeringen, en kiezen voor controle, schaalbaarheid en toekomstbestendigheid.
Microsofts annuleringen van datacenterleases zijn geen teken van een AI-afkoeling, maar van een infrastructuurverschuiving. De eisen van moderne AI-hardware zijn zo hoog, dat alleen datacenters met extreme stroomvoorziening en vloeistofkoeling nog mee kunnen doen. Microsoft kiest ervoor om niet achter de feiten aan te lopen, maar voorop te lopen in een wereld waarin de strijd om AI gewonnen wordt in de serverruimte.
Of zoals Omdia-analist Alan Howard het scherp stelt:
“Capacity planning is a very tricky game, and the least preferred scenario is having more demand than capacity. The whole process of acquiring land and securing power is cheap compared to executing.”
En die uitdaging gaat Microsoft vol aan.
Comments