top of page

De strijd om AI-chips: Nvidia versus de rest van Big Tech

In het kort

  • Nvidia’s Blackwell GPU’s zijn momenteel toonaangevend in de AI-markt, met verkopen die “off the charts” zijn volgens CEO Jensen Huang.

  • Techgiganten als Google en Amazon ontwikkelen ondertussen hun eigen custom AI-chips (ASICs) om kosten te drukken en minder afhankelijk te worden van Nvidia.

  • De AI-chipmarkt raakt steeds voller, met ook initiatieven van Apple, Microsoft, OpenAI en talloze start-ups, maar Nvidia behoudt voorlopig zijn dominante positie.


Nvidia blijft voorlopig de onbetwiste leider

Nvidia staat al jaren aan de top van de markt voor AI-chips, vooral dankzij zijn krachtige GPU’s die ideaal zijn voor AI-workloads. Oorspronkelijk ontwikkeld voor gaming, zijn deze graphics processing units inmiddels cruciaal voor het trainen en uitvoeren van grote taalmodellen en andere AI-toepassingen. In het afgelopen jaar verscheepte Nvidia naar eigen zeggen zo’n zes miljoen Blackwell GPU’s, met een vraag die de verwachtingen van het bedrijf ruimschoots overstijgt. Volgens CEO Jensen Huang zijn de verkopen zelfs “off the charts”.


De kracht van Nvidia zit niet alleen in de hardware, maar ook in het ecosysteem eromheen. De GPU’s draaien op het eigen CUDA-platform, wat softwareontwikkeling vereenvoudigt en optimaliseert voor hun hardware. Dat maakt de overstap naar alternatieven niet triviaal. Bovendien levert Nvidia serverracks met tot 72 GPU’s die samenwerken als één geheel, goed voor een prijskaartje van ongeveer $3 miljoen per rack. Elke week worden er volgens het bedrijf zo’n duizend van deze systemen verscheept.


Nvidia organiseert op 2 december speciaal event voor beleggers

Bron: Nvidia IR
Bron: Nvidia IR

Toch groeit het besef bij grote techbedrijven dat deze afhankelijkheid van Nvidia ook risico’s met zich meebrengt. Naast de hoge kosten kunnen er leveringsproblemen ontstaan en is er minder controle over prestaties en optimalisatie. Daarom zetten steeds meer bedrijven in op hun eigen chipontwikkeling, vaak in de vorm van ASICs.


ASICs geven techreuzen meer controle en efficiëntie

ASICs, oftewel application-specific integrated circuits, zijn chips die zijn toegespitst op één specifieke taak. In tegenstelling tot GPU’s, die een breed scala aan bewerkingen aankunnen, zijn ASICs veel efficiënter in bijvoorbeeld AI-inferentie, mits goed ontworpen voor de beoogde workload. Dat maakt ze aantrekkelijk voor hyperscalers als Google, Amazon en Microsoft, die zelf enorme hoeveelheden AI-berekeningen uitvoeren.


De AI-chipstrijd in beeld: van GPU tot Edge AI, dit zijn de grote spelers

Bron: CNBC
Bron: CNBC

Google was pionier op dit gebied met zijn Tensor Processing Units (TPU), die het al sinds 2015 ontwikkelt. Inmiddels is de zevende generatie, genaamd Ironwood, gelanceerd. Volgens sommige experts zijn deze TPU’s technisch gelijkwaardig of zelfs beter dan Nvidia’s GPU’s voor bepaalde toepassingen. Tot nu toe gebruikte Google de TPU’s voornamelijk intern, maar er gaan geruchten dat het bedrijf deze in de toekomst breder beschikbaar wil maken.


Amazon volgde later met zijn Trainium en Inferentia chips, ontworpen door het overgenomen Annapurna Labs. In samenwerking met Anthropic wordt momenteel een nieuw AI-datacenter gebouwd in Indiana, gevuld met maar liefst een half miljoen Trainium2-chips. Deze chips bieden volgens Amazon 30% tot 40% betere prijs-prestatieverhoudingen ten opzichte van alternatieven.


OpenAI, Meta en Microsoft volgen een soortgelijke strategie. OpenAI werkt samen met Broadcom aan een eigen custom chip die vanaf 2026 beschikbaar moet komen. Broadcom heeft eerder ook samengewerkt aan Google’s TPU’s en Meta’s Training and Inference Accelerator. Microsoft heeft inmiddels zijn Maia 100-chips in gebruik in eigen datacenters in de VS.


Van al deze bedrijven kent Broadcom overduidelijk het beste jaar qua rendement

Bron: Seeking Alpha
Bron: Seeking Alpha

Hoewel de initiële investering voor een ASIC enorm kan zijn (vaak tientallen miljoenen dollars) levert het voor bedrijven die opereren op hyperschaal uiteindelijk aanzienlijke kostenbesparingen en optimalisatievoordelen op. Voor startups of kleinere partijen blijft Nvidia’s aanbod voorlopig de enige realistische optie.


De toekomst van AI-chips reikt verder dan het datacenter

Hoewel datacenters vandaag de dag de grootste afnemers van AI-hardware zijn, wordt edge computing steeds belangrijker. AI moet ook op telefoons, laptops, auto’s en andere apparaten draaien, en dat vereist een andere soort chip. Hier komen NPUs (Neural Processing Units) en FPGAs (Field-Programmable Gate Arrays) in beeld.


NPUs zijn inmiddels ingebouwd in vrijwel elke moderne smartphone. Apple’s M-serie chips in MacBooks en iPhones bevatten een eigen neural engine, terwijl Qualcomm, Intel en Samsung eveneens inzetten op deze technologie voor hun mobiele platforms. Deze chips stellen apparaten in staat om AI-taken lokaal uit te voeren, wat voordelen biedt op het gebied van snelheid, batterijverbruik en privacy.


FPGAs zijn flexibeler dan ASICs, omdat ze achteraf geherprogrammeerd kunnen worden. Hoewel ze minder krachtig en efficiënt zijn dan ASICs of GPU’s, zijn ze bruikbaar in toepassingen die wendbaarheid vereisen. AMD nam in 2022 Xilinx over voor $49 miljard om zijn positie in deze markt te versterken, terwijl Intel al sinds 2015 actief is met zijn overname van Altera.





Alle AI-chips, van GPU’s tot ASICs en NPUs, worden vrijwel uitsluitend geproduceerd door Taiwan Semiconductor Manufacturing Company (TSMC). Deze fabrikant bouwt momenteel een megafabriek in Arizona waar onder meer Apple en Nvidia productiecapaciteit reserveren. Nvidia’s nieuwste Blackwell GPU’s zijn inmiddels in “volledige productie” in deze fabriek, aldus CEO Huang.


Ondanks de opkomst van alternatieven lijkt Nvidia zijn leidende positie voorlopig te behouden. Het bedrijf heeft niet alleen een technologische voorsprong, maar ook een sterk ontwikkelaarsnetwerk en gevestigde relaties met vrijwel elke grote speler in de markt.

Zoals Daniel Newman van The Futurum Group stelt: “Ze hebben die positie verdiend. Ze hebben er jarenlang voor gebouwd. Ze hebben dat ecosysteem gewonnen.”


De wedloop om AI-chips toont hoe schaal, innovatie en kostenbeheersing de markt verdelen tussen leiders als Nvidia en nieuwkomers zoals Google of Amazon. Voor beleggers die wereldwijd in deze technologische waardeketen willen investeren, speelt één factor een vergelijkbare rol: lage handelskosten.


MEXEM, door Brokerskiezen.nl uitgeroepen tot beste allround broker van 2025, biedt toegang tot internationale markten tegen slechts 0,005 % valutakosten, tegenover 0,25 % bij DEGIRO en SAXO Bank. Dat verschil kan voor actieve beleggers oplopen tot honderden tot duizenden euro’s per jaar. Zo wordt inspelen op megatrends als AI-hardware niet alleen technologisch vooruitstrevend, maar ook financieel efficiënt.



 
 
 

Net binnen..

Meld je aan voor onze dagelijkse nieuwsbrief!

Bedankt voor het abonneren!

Copyright © 2023 •

Alle rechten voorbehouden - Amsterdam - 0619930051

Disclaimer
Let op: Beleggen brengt risico's met zich mee. Je kan (een deel van) je inleg verliezen. Niets hier mag worden beschouwd als financieel advies.. Voor advies over je persoonlijke situatie kun je het beste een adviseur inschakelen.

  • Instagram
  • Twitter
  • LinkedIn
  • YouTube
bottom of page