Waarom Anthropic “nee” zei tegen het Pentagon en daar nu keihard voor betaalt
- J. van den Poll
- 5 uur geleden
- 4 minuten om te lezen
In het kort:
Trump laat federale diensten Anthropic binnen zes maanden uitfaseren en Hegseth wil het bedrijf als supplychainrisico bestempelen.
Anthropic weigert inzet voor massasurveillance en volledig autonome wapens; het Pentagon wilde ruimere inzet, ook geheim.
Anthropic verliest mogelijk een Pentagondeal van 200 miljoen dollar, terwijl OpenAI wél tekent en 110 miljard dollar ophaalt.
De Amerikaanse overheid heeft de strijd met AI-bedrijf Anthropic in één dag hard laten escaleren. President Donald Trump heeft alle federale overheidsdiensten opgedragen om het gebruik van Anthropic’s AI-technologie te stoppen, met een uitfaseringsperiode van zes maanden. Tegelijkertijd gaf minister van Defensie Pete Hegseth het Pentagon opdracht om Anthropic aan te wijzen als een supplychainrisico voor de nationale veiligheid, een label dat in de praktijk grote gevolgen kan hebben voor partners en leveranciers die zaken doen met het ministerie.
De kern van het conflict is niet zozeer de kwaliteit van de modellen, maar de vraag wie bepaalt waarvoor frontier AI mag worden gebruikt. Anthropic wil niet meewerken aan toepassingen die kunnen leiden tot grootschalige binnenlandse surveillance van Amerikanen of aan wapensystemen waarin het beslissen over geweld volledig wordt geautomatiseerd. Het Pentagon wilde juist een bredere contractruimte waarin de modellen voor “alle wettige toepassingen” ingezet kunnen worden, ook in geclassificeerde omgevingen.

Het zware label ‘supplychainrisico’ en wat dat betekent
De aanduiding supplychainrisico is uitzonderlijk zwaar, omdat die normaliter wordt gebruikt voor leveranciers met risico’s die raken aan nationale veiligheid. In de berichtgeving wordt benadrukt dat zo’n stempel doorgaans is voorbehouden aan partijen met directe of indirecte banden met buitenlandse tegenstanders. Anthropic stelt daarom dat de maatregel buiten proportie is en kondigde aan de aanwijzing juridisch te zullen aanvechten.
In praktische zin komt het erop neer dat bedrijven die met het Pentagon samenwerken, moeten aantonen dat hun defensiewerk niet afhankelijk is van Anthropic’s producten. Dat kan een kettingreactie veroorzaken bij contractors en cloudpartijen die Anthropic-modellen aanbieden of integreren. De overheid geeft partijen zes maanden om hun gebruik af te bouwen, maar de onzekerheid ontstaat onmiddellijk, omdat bedrijven in een aanbestedings- en compliancewereld zelden willen wachten op de uitkomst van een rechtszaak.
Een contract van 200 miljoen dollar op het spel
De spanningen lopen extra hoog op omdat Anthropic al in Pentagontrajecten zat. Meerdere media melden dat het om een overeenkomst van 200 miljoen dollar ging met een looptijd van twee jaar, die nu na de overgangsperiode moet stoppen. In de aanloop naar de ban werd bovendien gedreigd met zwaardere instrumenten. Daarbij werd onder andere verwezen naar de Defense Production Act, een wet die de Amerikaanse overheid extra bevoegdheden kan geven om bedrijven in te schakelen of te sturen in het belang van nationale defensie.
Voor Anthropic is dit niet alleen een financieel verlies, maar vooral een reputatiekwestie. Het label ‘risico’ kan doorwerken in onderhandelingen met commerciële klanten, zeker wanneer die klanten zelf defensiecontracten hebben of voor overheden werken.
OpenAI tekent wél en claimt vergelijkbare veiligheidsgrenzen
Op dezelfde dag dat Anthropic werd buitengesloten, maakte OpenAI-topman Sam Altman bekend dat OpenAI een deal heeft gesloten met het Pentagon om OpenAI-modellen te gebruiken in militaire, geclassificeerde systemen. Altman benadrukte dat het akkoord twee veiligheidsprincipes overeind houdt. Het eerste is een verbod op binnenlandse massasurveillance. Het tweede is dat er menselijke verantwoordelijkheid moet blijven voor het gebruik van geweld, ook wanneer er sprake is van autonome wapensystemen.
Volgens Altman zijn deze principes opgenomen in de overeenkomst en worden er technische waarborgen gebouwd om het gedrag van de modellen binnen de afgesproken grenzen te houden. Hij voegde daaraan toe dat OpenAI engineers “forward deployed” naar het Pentagon stuurt om toezicht te houden op de veilige inzet van de modellen. Altman riep het Pentagon bovendien op om vergelijkbare voorwaarden aan alle AI-bedrijven aan te bieden, omdat dit volgens hem een basisniveau van verantwoord gebruik zou moeten zijn.

Waarom lijkt OpenAI te krijgen wat Anthropic vroeg
Het opvallende aan deze ontwikkeling is dat de ‘rode lijnen’ die OpenAI beschrijft sterk lijken op de punten waar Anthropic juist op bleef staan. Dat maakt de vraag urgent wat er dan precies anders is in de afspraken, of in de interpretatie van wat “alle wettige toepassingen” betekent binnen geclassificeerde projecten. Verschillende media melden dat het Pentagon en OpenAI om nadere toelichting is gevraagd, juist omdat de overeenkomsten tussen de posities op papier groot lijken.
Politiek gezien zet het Pentagon ondertussen de toon door het conflict te framen als een kwestie van betrouwbaarheid en “good faith”. In reactie op Altman’s bericht prees een hoge Pentagonfunctionaris, Under Secretary Emil Michael, het belang van een partner die meebeweegt als het over leven en dood gaat, en die volgens hem constructief meewerkt “in het AI-tijdperk”.
De bredere context: concurrentie en enorme financiering bij OpenAI
De timing speelt ook mee in de machtsverhoudingen tussen AI-labs. OpenAI kondigde vrijwel gelijktijdig een investeringsronde van 110 miljard dollar aan, met een pre-money waardering van 730 miljard dollar. Volgens berichten over de deal bracht Amazon 50 miljard dollar in, waarvan 15 miljard direct en 35 miljard later onder voorwaarden. SoftBank en Nvidia zouden elk 30 miljard dollar bijdragen.

Naast het bedrag zijn ook de schaalcijfers relevant die rondgaan in dezelfde berichtgeving. OpenAI stelt dat ChatGPT inmiddels meer dan 900 miljoen wekelijkse actieve gebruikers heeft en meer dan 50 miljoen betalende abonnees. Zulke aantallen maken duidelijk waarom overheidscontracten niet alleen om inkomsten draaien, maar ook om strategische toegang, reputatie en langdurige infrastructuurrelaties.
Wat beleggers hieruit kunnen halen
Voor beleggers is dit dossier vooral een signaal dat politieke en contractuele risico’s een eigen categorie vormen binnen de AI-waardeketen. Een bedrijf kan technisch leidend zijn en toch plots een groot afzetkanaal verliezen door een conflict over gebruiksvoorwaarden. Tegelijk laat de snelle overstap naar een alternatief zien dat overheden hun afhankelijkheid willen beperken en dat ze bij leverancierskeuze niet alleen naar prestaties kijken, maar ook naar onderhandelingsbereidheid en governance.
Indirect kunnen ook beursgenoteerde partijen geraakt worden. Cloud- en defensiecontractors die AI-oplossingen integreren, moeten mogelijk kiezen welke modellen ze nog mogen inzetten binnen projecten met Pentagonbelangen. Hoe strikter de interpretatie van het supplychainlabel wordt, hoe groter de kans dat er heronderhandelingen volgen over softwarestacks, complianceprocessen en zelfs partnerkeuzes.
De komende weken draait het daarom om details. Het wordt belangrijk of Anthropic via de rechter (tijdelijk) lucht krijgt, hoe het Pentagon de maatregel juridisch en praktisch uitwerkt, en in hoeverre OpenAI’s “rode lijnen” daadwerkelijk als standaard voor de hele sector gaan gelden. In dit dossier kan één contractclausule het verschil maken tussen een dominante positie in defensie-AI en een plotselinge uitsluiting uit een cruciale markt.






































































































































