Pentagon dreigt met stopzetting nu gesprekken met Anthropic in impasse verkeren
Deze week dreigt het Pentagon de banden met Anthropic te verbreken, volgens berichtgeving die op 16 februari 2026 naar buiten kwam. Het Amerikaanse Ministerie van Defensie zet het bedrijf onder druk om de beperkingen te versoepelen die het stelt aan het gebruik van zijn grote taalmodellen door militairen. Het geschil — gerapporteerd door CNBC in navolging van eerdere berichtgeving van Reuters en Axios — draait om de vraag of commerciële AI-bedrijven zullen toestaan dat hun systemen worden gebruikt voor wat het Pentagon omschrijft als "alle rechtmatige doeleinden", inclusief wapenontwikkeling, inlichtingenverzameling en operaties op het slagveld. Anthropic stelt voet bij stuk te houden wat betreft specifieke veiligheidsbeperkingen, zoals harde grenzen voor volledig autonome wapens en massale binnenlandse surveillance, en de onenigheid is geëscaleerd tot dreigementen dat de relatie zou kunnen worden beëindigd.
Pentagon dreigt met stopzetting: de juridische en contractuele knelpunten
De kern van de aanvaring ligt in juridische en contractuele formuleringen. Het Pentagon wil toegang tot modellen op geclassificeerde netwerken en een bredere formulering die gebruik in een scala aan militaire missies mogelijk maakt; bedrijven hebben doorgaans toegang verleend onder voorbehoud van veiligheidswaarborgen op modelniveau en beleidsmatige beperkingen. Voor het Pentagon is de zinsnede "alle rechtmatige doeleinden" een enkele contractuele term die de dubbelzinnigheid over toegestaan militair gebruik zou verminderen. Voor bedrijven als Anthropic, OpenAI, Google en xAI riskeert het accepteren van die formulering de interne veiligheidswaarborgen aan te tasten — zowel technische controles die in de modellen zijn ingebouwd als beleidstoezeggingen van het bedrijf die bedoeld zijn om misbruik te beperken.
De onderhandelingen raken ook aan technische details: hoe modellen worden ingezet op geclassificeerde netwerken, of inhoudsfilters en gebruikslogging van kracht blijven, en wie verantwoordelijk is als een AI-gestuurd systeem schadelijke outputs produceert. Het Pentagon heeft na maanden van gesprekken blijk gegeven van frustratie; de drang om beperkingen te verwijderen of te versoepelen weerspiegelt een operationele wens om de meest capabele systemen te gebruiken in betwiste omgevingen, terwijl bedrijven zich zorgen maken over aansprakelijkheid, reputatierisico en de bredere ethiek van militaire toepassingen.
Hoe Anthropic en de andere leveranciers hebben gereageerd
Anthropic heeft publiekelijk verklaard dat vroege gesprekken met de Amerikaanse overheid zich richtten op vragen over gebruiksbeleid en expliciete grenzen — met name verboden op volledig autonome wapens en beperkingen op massale binnenlandse surveillance — in plaats van het goedkeuren van specifieke operaties. Een woordvoerder van het bedrijf vertelde verslaggevers dat het met het Pentagon niet had gesproken over het gebruik van zijn Claude-model voor benoemde, tactische operaties. Die verklaring staat naast berichtgeving dat Claude in ten minste één spraakmakende operatie werd ingezet via een partner: de Wall Street Journal meldde dat Claude via Palantir werd ingezet bij een operatie om de voormalige president van Venezuela gevangen te nemen, wat aantoont hoe partnerintegraties eenvoudige karakteriseringen van zakelijke terughoudendheid bemoeilijken.
Andere grote AI-bedrijven die in de berichtgeving worden genoemd — OpenAI, Google en xAI — staan eveneens onder druk van het Pentagon om de toegang uit te breiden. Reuters en CNBC beschreven brede verzoeken van het DoD om modellen beschikbaar te stellen op geclassificeerde netwerken zonder veel van de standaardbeperkingen die bedrijven toepassen op civiele gebruikers. Bedrijven zijn verschillend met die verzoeken omgegaan, waarbij ze contractmogelijkheden en veiligheidsmachtigingen afwegen tegen intern beleid en extern toezicht.
Waarom het Pentagon aandringt en wat het wil bereiken
Maar het aandringen op algemene, open contractuele taal — "alle rechtmatige doeleinden" — roept vragen op over welke waarborgen er nog overblijven wanneer modellen worden gebruikt in kinetische of clandestiene contexten. Rechtmatig gebruik is een brede juridische standaard die nog steeds de implementatie van controles vereist om onbedoelde escalatie, schade aan burgers of schendingen van nationaal en internationaal recht te voorkomen. Die operationele eisen zijn de bron van de huidige spanningen.
Technische veiligheidsmaatregelen op het spel en de zorgen van het Pentagon
Bedrijven bouwen veiligheidswaarborgen in modellen in langs twee assen: controles op modelniveau (fine-tuning, veiligheidslagen, red-team testing en inhoudsfilters) en controles op beleidsniveau (gebruiksvoorwaarden en contractuele gebruiksbeperkingen). Het streven van het Pentagon om beperkingen te verminderen of te omzeilen, zou veranderen hoe die controles in de praktijk werken. Bijvoorbeeld, het plaatsen van een model op een geclassificeerd netwerk kan om veiligheidsredenen bepaalde telemetrie en logging verwijderen, maar het kan ook het vermogen van het bedrijf ondermijnen om misbruik te monitoren en problematisch gedrag te corrigeren.
Naar verluidt is het Pentagon gefrustreerd dat Anthropic voorstellen heeft afgewezen om beperkingen te versoepelen voor scenario's die het bedrijf als een hoog risico beschouwt — zoals volledig autonome wapenbesturing en massale binnenlandse surveillance. Dit zijn gebieden waar veel AI-bedrijven, niet alleen Anthropic, strikte verboden hebben verdedigd op autonome besluitvorming die dodelijke gevolgen zou kunnen hebben zonder menselijk toezicht.
Hoe het stopzetten van toegang kan doorwerken in veiligheid en beveiliging
Als het Pentagon doorzet en de banden met Anthropic verbreekt, zou het onmiddellijke effect een beperktere groep leveranciers zijn die beschikbaar is voor de Amerikaanse defensiegemeenschap. Dat zou waarschijnlijk de interne inspanningen van het DoD versnellen om eigen modellen te bouwen of aan te besteden, de afhankelijkheid vergroten van bedrijven die instemmen met bredere gebruiksvoorwaarden, of partnerschappen met buitenlandse leveranciers aanmoedigen — waarbij elke uitkomst zijn eigen afwegingen op het gebied van veiligheid en toezicht met zich meebrengt. Een stopzetting zou instanties ook kunnen dwingen om oplossingen te accepteren met minder veiligheidscontroles aan de kant van de leverancier, wat het risico op misbruik of onbedoelde gevolgen verhoogt.
Omgekeerd stellen bedrijven die robuuste veiligheidsbeperkingen handhaven, dat deze waarborgen de risico's stroomafwaarts verminderen, 'mission creep' voorkomen en het publieke vertrouwen behouden. De patstelling toont een diepere strategische keuze: of nationale veiligheidsactoren zakelijke waarborgen tolereren die bepaalde militaire toepassingen beperken, of dat zij aandringen op onbelemmerde toegang en nieuwe toezichtlasten binnen overheidssystemen accepteren.
Precedenten uit het verleden en de bredere beleidscontext
Het DoD heeft eerder AI-onderzoek gefinancierd en partnerschappen gevormd met de industrie, maar het huidige moment valt op door de schaal en volwassenheid van commercieel beschikbare grote taalmodellen. Eerdere samenwerkingen omvatten voorwaardelijke subsidies en proefprojecten die specifieke waarborgen vereisten; het huidige geschil gaat over brede operationele voorwaarden in plaats van financiering voor pilots. Het dreigement van het Pentagon om de banden met een leverancier te verbreken vanwege beleidsverschillen is een publieke escalatie en signaleert zware onderhandelingen in de toekomst voor alle grote leveranciers van geavanceerde AI-tools.
Er spelen ook politieke krachten mee. Publieke figuren en concurrenten hebben zich in het debat gemengd — met name Elon Musk, die onlangs de modellen van Anthropic aanviel in publieke commentaren — wat onderstreept dat discussies over bias, veiligheid en de juiste rol van AI in militaire contexten nu deel uitmaken van een rumoerig publiek gesprek, en niet langer alleen een kwestie zijn van besloten aanbestedingsgeschillen.
Onderhandelingen en volgende stappen
Beide partijen hebben er baat bij een definitieve breuk te voorkomen. Het Pentagon heeft geavanceerde capaciteiten nodig; bedrijven willen hun overheidsopdrachten behouden en voorkomen dat ze worden uitgesloten van belangrijke contracten. Verwacht intensieve onderhandelingen achter de schermen over contractformuleringen, technische isolatiemaatregelen (bijvoorbeeld 'air-gapped' of offset-implementaties), verbeterde audit- en toezichtprocedures en mogelijk nieuwe juridische constructies die aansprakelijkheid en acceptabel gebruik in geclassificeerde contexten verduidelijken.
Voor het grote publiek en beleidsmakers roept dit geschil bekende vragen op over exportcontroles, toezicht op dual-use technologieën en of er nieuwe bestuursmodellen nodig zijn voor AI die wordt gebruikt voor nationale veiligheid. Wat de onmiddellijke uitkomst ook mag zijn, de onderhandeling zal precedenten scheppen voor hoe overheden en private AI-ontwikkelaars gevoelige capaciteiten delen terwijl ze proberen veiligheidswaarborgen intact te houden.
Bronnen
- Publieke verklaringen en aanbestedingsdocumenten van het U.S. Department of Defense (Pentagon)
- Persmateriaal en bedrijfsverklaringen van Anthropic
- Publieke bekendmakingen van Palantir Technologies rond partnerimplementaties
Comments
No comments yet. Be the first!