Anthropic laat centrale veiligheidsbelofte varen

Anthropic ditches its core safety promise
Anthropic kondigde op 25 februari 2026 een verschuiving aan van een bindende belofte tot pauzeren naar een flexibel, op rapportages gebaseerd veiligheidskader, te midden van een gespannen conflict met het Pentagon over AI-rode lijnen. De stap roept vragen op over de verantwoordelijkheid van de sector, de invloed bij overheidsaanbestedingen en de toekomst van veiligheidsgerichte AI-toezeggingen.

Anthropic laat zijn belangrijkste veiligheidsbelofte varen terwijl Washington en de industrie botsen

Anthropic laat zijn belangrijkste veiligheidsbelofte varen: wat er feitelijk verandert in het beleid

Het eerdere Responsible Scaling Policy van Anthropic, dat ongeveer twee jaar geleden werd uitgebracht, bevatte expliciete vangrails: als de capaciteiten van een model zich sneller ontwikkelden dan het bedrijf ze kon testen en beheersen, beloofde Anthropic de verdere training te pauzeren. In het nieuwe beleid — gepubliceerd als een blogpost en vormgegeven rond een "Frontier Safety Roadmap" — laat het bedrijf die harde pauze vallen. In plaats daarvan zegt Anthropic dat het regelmatig gedetailleerde rapporten zal publiceren over modelcapaciteiten, dreigingsmodellen en mitigatieplannen, en zijn eigen voortgang ten aanzien van publiekelijk geformuleerde veiligheidsdoelen zal beoordelen.

Anthropic laat zijn belangrijkste veiligheidsbelofte varen te midden van een patstelling over rode lijnen met het Pentagon

De beleidswijziging moet ook worden gezien in het licht van een parallelle strijd met het ministerie van Defensie die deze week escaleerde. Minister van Defensie Pete Hegseth had een ontmoeting met Anthropic-CEO Dario Amodei en gaf het bedrijf naar verluidt een deadline om veiligheidsmaatregelen terug te draaien die het ministerie als belemmerend voor de inkoop beschouwt. Het Pentagon waarschuwde dat een weigering Anthropic een contract van 200 miljoen dollar zou kunnen kosten en dat de regering instrumenten zoals de Defense Production Act zou kunnen inzetten of Anthropic formeel als een risico voor de toeleveringsketen zou kunnen aanmerken — stappen die het vermogen van het bedrijf om aan de Amerikaanse overheid te verkopen ernstig zouden beperken.

Anthropic heeft functionarissen laten weten dat het twee harde grenzen niet zal overschrijden: het zal geen door AI bestuurde wapens bouwen of mogelijk maken, en het zal geen massale binnenlandse surveillance van Amerikaanse burgers faciliteren. Deze uitzonderingen komen overeen met de bewoordingen die het bedrijf al langere tijd gebruikt om onacceptabel gebruik van zijn modellen te definiëren. Desondanks beschouwen hoge defensiefunctionarissen het schrappen van de pauzebelofte als een verzwakking van de zakelijke veiligheidsgaranties, en zij zien het als een vermindering van het overwicht van het Pentagon om ervoor te zorgen dat systemen die aan het leger worden geleverd aan striktere veiligheidsdrempels voldoen.

Wat een 'rode lijn' betekent in dit geschil

In beleidstermen is een "rode lijn" een duidelijke, handhaafbare grens die een leger of overheid stelt aan het gedrag van een leverancier. Voor het Pentagon kunnen rode lijnen rond AI voorwaarden zijn waaronder modellen niet mogen worden gebruikt in wapensystemen, of vereisten voor verifieerbare tests en controle voorafgaand aan inzet in gevoelige toepassingen. Het ministerie beschouwt bindende bedrijfstoezeggingen — zoals de belofte om de groei van capaciteiten te pauzeren in afwachting van veiligheidstests — als een waardevol drukmiddel bij de inkoop van systemen met een hoog betrouwbaarheidsniveau. Het schrappen van dergelijke toezeggingen verandert die rode lijnen in zachtere richtlijnen, wat inkoopbeslissingen bemoeilijkt en de kans op escalatie door regelgevers vergroot.

Voor Anthropic en andere bedrijven kunnen eenzijdige rode lijnen echter een nadeel vormen in de concurrentiestrijd. De bedrijfsleiding en sommige onderzoekers betogen dat als slechts één speler pauzeert terwijl concurrenten krachtigere modellen inzetten, het risico kan verschuiven van de voorzichtige ontwikkelaar naar de samenleving als geheel. Dit is het kernargument dat de chief science officer van Anthropic publiekelijk naar voren bracht: de firma gelooft dat eenzijdige pauzes niet effectief zijn als veiligheidsstrategie in een snel veranderende markt.

Reacties uit de sector en afwegingen rond geloofwaardigheid

De aankondiging lokte onmiddellijke reacties uit in de AI-gemeenschap. Sommige onderzoekers prezen de weigering van Anthropic om toe te geven op het gebied van surveillance en wapengebruik, waarbij zij opmerkten dat eisen van de overheid om veiligheidsmaatregelen te versoepelen in het belang van inkoop een zorgwekkend precedent zouden scheppen. Anderen uitten hun zorgen: de overstap van een bindende pauze naar vrijwillige rapportage vermindert de mechanische garanties die voorheen de basis vormden voor vertrouwen.

Vertrouwen is deels technisch en deels een kwestie van reputatie. Anthropic wijst op eigen onderzoek — waaronder werk dat aantoont dat bepaalde modellen onder kunstmatige omstandigheden kunnen worden verleid tot chantage-achtig gedrag — om een voorzichtige houding bij de inzet te rechtvaardigen. Het bedrijf benadrukte ook concrete politieke activiteiten: de onderneming heeft geïnvesteerd in belangenbehartiging en publieke voorlichting over AI-risico's. Maar transparantierapportage alleen is niet altijd voldoende om externe belanghebbenden tevreden te stellen die juridisch afdwingbare beperkingen of onafhankelijke audits eisen voordat systemen worden gecertificeerd voor overheidsgebruik.

Gevolgen voor de markt en het beleid

Het debat speelt zich af tegen de achtergrond van een markt die al nerveus is over de ontwrichtende effecten van AI. Investeerders en klanten kijken of bedrijven die veiligheid vooropstellen zowel kunnen concurreren als strenge controles kunnen handhaven. De koerswijziging van Anthropic geeft aan dat ten minste sommige bedrijven zich onder druk gezet voelen door concurrentie en door de contractuele macht van grote klanten zoals het Pentagon. Als dit resulteert in een race om systemen in te zetten zonder duurzame veiligheidscontroles, kunnen toezichthouders en wetgevers zich genoodzaakt voelen om in te grijpen.

Aan de andere kant laat de dreigende harde opstelling van het Pentagon — zwarte lijst, inroepen van de Defense Production Act, aanmerking als risico voor de toeleveringsketen — zien hoe inkoop kan worden gebruikt om zakelijke beleidskeuzes af te dwingen of te bestraffen. Die dynamiek roept bredere vragen op: moeten kopers op het gebied van nationale veiligheid strengere eisen stellen dan de open markt, en zo ja, hoe kunnen die eisen worden gecontroleerd en gehandhaafd zonder innovatie te belemmeren? Het is waarschijnlijk dat wetgevers en toezichthouders zich hiermee gaan bemoeien, en de touwtrekkerij tussen commerciële belangen en publieke veiligheid zal naar verwachting niet snel worden opgelost.

Implicaties voor toekomstige AI-veiligheidsnormen

De stap van Anthropic illustreert een groter systemisch probleem: veiligheidsnormen die afhankelijk zijn van vrijwilligheid en morele overreding kunnen bezwijken onder de druk van commerciële en geopolitieke concurrentie waarbij veel op het spel staat. De nieuwe aanpak van het bedrijf — frequentere publieke rapportage en de beoordeling van voortgang richting veiligheidsmijlpalen — levert mogelijk een rijkere dataset op voor beleidsmakers, onderzoekers en auditors, maar laat in het midden hoe onenigheid over acceptabele risico's wordt opgelost. Het Pentagon wil glasheldere garanties voor de systemen die het gebruikt; Anthropic en andere bedrijven geven de voorkeur aan flexibele, iteratieve processen die eenzijdige pauzes vermijden.

De praktische vervolgstappen zullen bepalend zijn. Als het Pentagon de inkoopsancties doorzet, zal er een precedent worden geschapen over hoe ver kopers kunnen gaan om leveranciers te dwingen hun interne beleid te wijzigen. Als Anthropic vasthoudt aan zijn dubbele weigering met betrekking tot AI-wapens en massasurveillance terwijl het doorgaat met het publiceren van capaciteitsrapporten, kan de uitkomst een onderhandeld compromis zijn: strengere onafhankelijke tests en contractuele veiligheidsclausules voor overheidswerk, gecombineerd met toezeggingen van de sector over transparantie voor commerciële diensten. Bij gebrek daaraan vergroot de patstelling de kans op wetgevende maatregelen om afdwingbare normen te creëren.

Het verhaal is een duidelijk voorbeeld van hoe technische beslissingen — of het nu gaat om het pauzeren van modeltraining of het vervangen van een bindende toezegging door een rapportgestuurde roadmap — onlosmakelijk verbonden zijn met geopolitiek, inkoopmacht en marktprikkels. De beleidswijziging van Anthropic is niet slechts een interne administratieve verandering; het is een signaal over hoe de retoriek van 'veiligheid eerst' standhoudt wanneer bedrijven geconfronteerd worden met zowel concurrenten die zich haasten om capaciteiten te leveren als een overheid die bruikbare, certificeerbare systemen eist. Hoe dat signaal wordt ontvangen door klanten, toezichthouders en onderzoekers, zal de volgende fase van AI-governance vormgeven.

Bronnen

  • Anthropic (Responsible Scaling Policy v3 en Frontier Safety Roadmap)
  • Amerikaans ministerie van Defensie / Publieke verklaringen en inkoopacties van het Pentagon
  • Berichtgeving van CNN over de beleidswijziging van Anthropic en het geschil met het Pentagon
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Wat is de kernbelofte van Anthropic op het gebied van veiligheid en waarom is deze belangrijk?
A Anthropic's kernbelofte op het gebied van veiligheid, onderdeel van hun Responsible Scaling Policy, was om geen grensverleggende AI-modellen te trainen of uit te brengen, tenzij het bedrijf vooraf adequate veiligheidsmaatregelen kon garanderen. Deze toezegging onderscheidde het bedrijf van concurrenten door veiligheid boven snelle ontwikkeling te stellen. De betekenis ervan lag in het stellen van een hogere standaard voor AI-veiligheid te midden van druk vanuit de industrie, hoewel critici opmerken dat vrijwillige toezeggingen gemakkelijk kunnen worden gewijzigd.
Q Waarom zou Anthropic naar verluidt zijn veiligheidstoezegging hebben laten varen in het geschil met het Pentagon?
A De zoekresultaten maken geen melding van een geschil met het Pentagon; in plaats daarvan liet Anthropic zijn veiligheidstoezegging varen vanwege de intense concurrentie van rivalen zoals OpenAI, de noodzaak om concurrerend te blijven in een verhitte AI-race, en het gebrek aan overheidsregulering of branchegenoten die vergelijkbare strenge normen hanteerden. Het bedrijf verschoof naar transparantiemaatregelen zoals veiligheidsstappenplannen en risicorapporten om veiligheid in evenwicht te brengen met het ontwikkelingstempo.
Q Wat betekent een 'rode lijn' in debatten over AI-ontwikkeling en -beleid?
A In debatten over AI-ontwikkeling en -beleid verwijst een 'rode lijn' naar een kritieke drempel of grens waarboven de ontwikkeling of inzet van AI-systemen als te riskant wordt beschouwd, wat leidt tot een stopzetting of strikte waarborgen. Het vertegenwoordigt ononderhandelbare limieten om catastrofale risico's te voorkomen, vergelijkbaar met bioveiligheidsniveaus in andere vakgebieden.
Q Welke impact zou de beslissing van Anthropic kunnen hebben op AI-contracten van de overheid en veiligheidsnormen?
A De beslissing van Anthropic zou zwakkere vrijwillige veiligheidsnormen kunnen normaliseren, wat mogelijk de verwachtingen voor AI-contracten van de overheid verlaagt waarbij snelle inzet prioriteit krijgt boven strenge waarborgen. Het zou andere bedrijven kunnen aanmoedigen om dit voorbeeld te volgen, waardoor contracten de nadruk leggen op concurrentievermogen en transparantierapporten in plaats van op strikte randvoorwaarden, te midden van de roep om bindende regelgeving.
Q Wat zijn de bredere implicaties van dit CNN-rapport voor AI-veiligheid in de sector?
A Het CNN-rapport benadrukt, zoals weerspiegeld in de berichtgeving, de kwetsbaarheid van vrijwillige AI-veiligheidstoezeggingen. Dit duidt op een bredere verschuiving in de sector van voorzichtigheid naar concurrentie en onderstreept de noodzaak van overheidsregulering. Het kan het publieke vertrouwen in het zelfbestuur van AI-ontwikkelaars ondermijnen en debatten over het afdwingen van verplicht toezicht om catastrofale risico's te beperken intensiveren.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!