Pentagon geeft Anthropic enkele dagen: een kortaf ultimatum
De zinsnede "pentagon geeft anthropic dagen" is nu meer dan een internetkop: deze week zette het Pentagon Anthropic onder druk met een deadline van drie dagen om de veiligheidswaarborgen op het Claude-model op te heffen, op straffe van een bestempeling als risico voor de toeleveringsketen en uitsluiting van Amerikaanse defensieprojecten. De eis werd overgebracht tijdens een gespannen bijeenkomst op dinsdagochtend in het Pentagon, waarbij Minister van Defensie Pete Hegseth en senior juristen van het departement aanwezig waren, aldus verklaringen van deelnemers en het bedrijf. De keuze waar Anthropic voor werd gesteld was onverbiddelijk: instemmen met de voorwaarden van het Pentagon, of op de zwarte lijst worden geplaatst en potentieel worden gedwongen onder de Defense Production Act (DPA).
Pentagon geeft Anthropic enkele dagen — wat er gebeurde tijdens de bijeenkomst
Functionarissen bij de bijeenkomst vertelden verslaggevers dat de toon confronterend was. Eén defensiefunctionaris beschreef de sessie als "niet bepaald hartelijk", en een ander erkende de paradox dat het Pentagon tegelijkertijd afhankelijk is van frontier-modellen, maar onwelwillend is om te accepteren dat private bedrijven voorwaarden stellen aan militair gebruik. Anthropic-CEO Dario Amodei was bij de bijeenkomst aanwezig en na het gesprek gaf het bedrijf een verklaring uit waarin stond dat het zich blijft inzetten voor de ondersteuning van legitieme missies op het gebied van nationale veiligheid, terwijl het veilig en testbaar modelgedrag wil behouden.
De directe aanleiding voor de confrontatie, zoals beschreven in de media, was een reeks onthullingen dat het Claude-model — zonder voorafgaande kennisgeving aan Anthropic — was gebruikt bij een militaire operatie in januari. Die gebeurtenis, en de berichtgeving daarover, versterkte de druk binnen het Pentagon om onbeperkte toegang te eisen. Het Department of Defense is expliciet geweest over een kortetermijntijdschema voor AI-versnelling: een "AI-first" oorlogvoeringsstrategie die in januari werd gepubliceerd, bevatte projecten die deze zomer aantoonbaar moeten zijn, en hoge functionarissen zeggen dat ze nu de meest capabele modellen nodig hebben om die deadlines te halen.
Naast het ultimatum kondigde het Pentagon een afzonderlijke regeling aan om het Grok-model van xAI in te zetten op geclassificeerde militaire netwerken onder de noemer "alle wettige doeleinden". Gerapporteerde verschillen in contractvoorwaarden tussen de twee bedrijven — waarbij het ene bedrijf brede gebruikstaal accepteerde terwijl het andere zich verzetten — onderstreepten de boodschap van de regering dat de staat geen beperkingen van leveranciers zal tolereren die zij onverenigbaar acht met operationele behoeften.
Pentagon geeft Anthropic enkele dagen — juridische instrumenten en de dreiging van zwarte lijsten
Het Pentagon categoriseerde zijn opties in twee juridische kaders: uitsluiting als risico voor de toeleveringsketen en het inroepen van de Defense Production Act om specifiek gedrag af te dwingen. Uitsluiting zou betekenen dat toekomstige Pentagon-contracten ongeldig worden en dat hoofdaannemers onder druk worden gezet om de banden te verbreken. In de praktijk zou dat Anthropic uitsluiten van een groot deel van de overheidsinkomsten en partnerschappen, en een signaal zijn voor andere klanten om commerciële relaties te heroverwegen. De waarschuwing is punitief: het is bedoeld om een bedrijf te dwingen te kiezen tussen een gefilterd bedrijfsmodel en het verlies van lucratief overheidswerk.
De Defense Production Act neemt een andere juridische positie in. De DPA verleent de president vergaande bevoegdheden om van bedrijven te eisen dat zij voorrang geven aan overheidscontracten en deze accepteren, en om goederen en diensten te produceren die nodig zijn voor de nationale defensie. Voor AI zou dit kunnen worden gebruikt om een leverancier te bevelen modellen aan te passen of te herconfigureren, specifieke veiligheidsfuncties te verwijderen of technisch gemanipuleerde toegang te bieden voor geclassificeerde taken. Het op deze manier gebruiken van de DPA tegen een softwareleverancier zou nieuw zijn en juridisch worden betwist, maar Pentagon-functionarissen hebben het naar verluidt opgevoerd als een geloofwaardig instrument om naleving af te dwingen.
Voor externe waarnemers en rechtsgeleerden roepen deze opties onmiddellijk vragen op over precedentwerking en toezicht. Uitsluiting verandert het toeleveringslandschap via administratief besluit; de DPA zou een gedwongen technische wijziging aan een product teweegbrengen. Beide maatregelen hebben gevolgen voor de autonomie van bedrijven, burgerlijke vrijheden en de internationale markt voor frontier-AI.
Anthropic's waarborgen en zakelijke positionering
Anthropic heeft zijn veiligheidsregime in publieke documenten en interviews beschreven als een mix van technische en beleidsmatige vangrails. Die waarborgen omvatten inhoudsfiltering, weigeringsmodi voor bepaalde soorten verzoeken en expliciete beleidsverklaringen die toepassingen zoals "volledig autonome wapens" en "massale binnenlandse surveillance van Amerikanen" verbieden. Het bedrijf heeft zich ook verzet tegen het ondertekenen van brede contractuele taal waarin het zich committeert aan het ondersteunen van "alle wettige doeleinden", met het argument dat een dergelijke formulering zinvolle beperkingen op de inzet van modellen zou elimineren.
Die positie staat echter naast een geschiedenis van commerciële en overheidsbetrokkenheid. Anthropic heeft implementaties op geclassificeerde netwerken nagestreefd met infrastructuurpartners, lanceerde een op de overheid gericht aanbod genaamd Claude Gov en won aanzienlijke contracten bij defensieklanten. Het bedrijf telt ook grote cloud- en chipinvesteerders onder zijn geldschieters en heeft commerciële relaties die het verweven met het militair-intelligence-ecosysteem. Die verstrengelingen bemoeilijken de beweringen dat het bedrijf volledig losstaat van defensieprioriteiten.
Op de vraag waarom het Pentagon Anthropic drie dagen gaf om AI-waarborgen te laten vallen, wijzen waarnemers op een mix van strategische druk en onmiddellijke operationele vraag. Het departement wil een getest, verklaarbaar pad om grote modellen op snelheid te integreren in missieplanning, logistiek en wapensystemen. Elke beperking van een leverancier die snel, ongehinderd gebruik zou kunnen voorkomen — vooral onder de juridische standaard van "alle wettige doeleinden" — wordt door het Pentagon geframed als een onaanvaardbaar risico voor de paraatheid.
Wat uitsluiting en het terugdraaien van waarborgen in de praktijk zouden betekenen
Als Anthropic op de zwarte lijst zou komen, zou het bedrijf directe toegang tot veel defensiemogelijkheden verliezen; contractanten zouden de opdracht kunnen krijgen de banden te verbreken en kanalen voor overheidsinkoop zouden sluiten. Als Anthropic daarentegen waarborgen zou verwijderen onder druk of dwang, zou het onmiddellijke technische gevolg zijn dat modellen een breder scala aan prompts en operationele instructies accepteren, inclusief instructies die betrekking hebben op doelwitbepaling, surveillance of andere gevoelige missies.
De indirecte effecten zouden zowel technisch als maatschappelijk zijn. Het verwijderen van vangrails vergroot het risico dat modellen worden hergebruikt voor massasurveillance, waardoor geautomatiseerde monitoringsystemen sneller kunnen schalen. Het zou de integratie in wapenondersteunende systemen kunnen versnellen waar menselijk toezicht beperkt kan zijn. Vanuit een veiligheidsperspectief kan het versoepelen van beperkingen het vermogen aantasten om modellen te testen en te auditeren op bias, hallucinaties en adversariële kwetsbaarheid — kwesties die het inzetten van modellen in levenskritische systemen al riskant maken.
Voor burgerlijke vrijheden en internationale normen staat er veel op het spel: modellen die zijn ontdaan van beperkingen zouden kunnen worden gebruikt voor grootschalige binnenlandse surveillanceprogramma's, gerichte desinformatie op schaal of buitenlandse operaties met lagere bewijsdrempels. Dat zijn exact de afwegingen die het bedrijf publiekelijk heeft gezegd te willen vermijden, wat verklaart waarom het geschil een brandpunt is geworden.
Bredere implicaties: markten, politiek en de toekomst van militaire AI
Deze confrontatie illustreert een bredere spanning in het AI-ecosysteem. Overheden willen voorspelbare, controleerbare toegang tot de meest capabele modellen om oorlogstoepassingen te versnellen. Veel bedrijven vrezen daarentegen reputatieschade en ethische repercussies van onbeperkt militair gebruik. De kloof wordt aangescherpt door politiek: bedrijven die bereid zijn brede contractuele taal te accepteren, krijgen snelle toegang tot overheidsnetwerken, terwijl bedrijven die proberen voorwaardelijke limieten te handhaven, risico lopen op uitsluiting of dwang.
Het onderstreept ook een kille operationele realiteit: wanneer een technologische capaciteit als strategisch noodzakelijk wordt beoordeeld, kan de staat zijn toevlucht nemen tot buitengewone juridische en economische druk om deze veilig te stellen. Die dynamiek zal private AI-leveranciers dwingen om commerciële belangen, verwachtingen van investeerders, juridische blootstelling en publieke controle af te wegen bij onderhandelingen met overheden. Voor beleidsmakers roept de gebeurtenis vragen op over transparantie, toezicht en internationale normen voor AI in militaire contexten.
Voor onderzoekers, ingenieurs en het publiek zal de uitkomst van belang zijn omdat het bepaalt hoe de meest geavanceerde modellen worden bestuurd en getest. Als de industrie het op grote schaal verwijderen van waarborgen accepteert in de naam van de nationale veiligheid, zal de ruimte voor onafhankelijk veiligheidsonderzoek, publieke audits en de bescherming van burgerlijke vrijheden krimpen. Omgekeerd, als bedrijven met succes bepaalde grenzen verdedigen, kan de strijd de overheid dwingen om haar eigen interne capaciteiten te ontwikkelen of om inkoopregels te creëren die operationele behoeften in evenwicht brengen met veiligheidseisen.
Het onmiddellijke tijdsbestek blijft kort: de eis van het Pentagon van drie dagen heeft Anthropic onder enorme druk gezet om een pad te kiezen. Wat de beslissing ook wordt, de kwestie zal een testcase zijn voor de vraag of private AI-bedrijven effectieve grenzen kunnen stellen aan het militaire gebruik van frontier-modellen, of dat de staat bredere toegang zal afdwingen in de naam van de defensieparaatheid.
Bronnen
- Persmateriaal van het U.S. Department of Defense
- Persmateriaal en beleidsdocumenten van Anthropic
- Persmateriaal van xAI (Grok)
- Tekst en juridische richtlijnen van de Defense Production Act
Comments
No comments yet. Be the first!