Pentagon ger Anthropic dagar: ett bistert ultimatum
Frasen "pentagon gives anthropic days" är nu mer än bara en internetrubrik: den här veckan pressade Pentagon Anthropic med en tidsfrist på tre dagar för att lyfta säkerhetsspärrarna på sin Claude-modell, annars riskerar företaget att stämplas som en risk i försörjningskedjan och stängas ute från amerikanskt försvarsarbete. Kravet framfördes under ett spänt möte på tisdagsmorgonen i Pentagon där försvarsminister Pete Hegseth och högt uppsatta jurister från departementet deltog, enligt uppgifter från deltagare och uttalanden från företaget. Valet som Anthropic ställdes inför var bistert: gå med på Pentagons villkor eller bli svartlistade och potentiellt tvingade via Defense Production Act (DPA).
Pentagon ger Anthropic dagar — vad som hände under mötet
Tjänstemän vid mötet berättade för reportrar att tonen var konfrontativ. En försvarstjänsteman beskrev sessionen som "inte varm och mysig", och en annan erkände paradoxen i att Pentagon samtidigt är beroende av ledande frontmodeller men ovillig att acceptera att privata företag sätter villkor för militär användning. Anthropics VD Dario Amodei deltog i mötet och efter samtalet släppte företaget ett uttalande där man sa sig förbli engagerad i att stödja legitima nationella säkerhetsuppdrag, samtidigt som man vill bevara ett säkert och testbart modellbeteende.
Den omedelbara utlösande faktorn för konfrontationen, enligt medieuppgifter, var ett antal avslöjanden om att Claude-modellen hade använts — utan förvarning till Anthropic — i en militär operation i januari. Den episoden, och rapporteringen kring den, förstärkte trycket inom Pentagon att insistera på ohindrad åtkomst. Försvarsdepartementet har varit tydligt med en kortsiktig tidsplan för AI-acceleration: en "AI-first"-krigföringsstrategi som publicerades i januari ställde upp demonstrerbara projekt under sommaren, och högt uppsatta tjänstemän säger att de behöver de mest kapabla modellerna nu för att hålla dessa tidsplaner.
Vid sidan av ultimatumet meddelade Pentagon ett separat arrangemang för att distribuera xAI:s Grok-modell på hemligstämplade militära nätverk under rubriken "alla lagliga ändamål". Rapporterade skillnader i kontraktsvillkor mellan de två företagen — där det ena företaget accepterade breda formuleringar kring användning medan det andra gjorde motstånd — underströk administrationens budskap om att staten inte kommer att tolerera leverantörsbegränsningar som den anser vara oförenliga med operativa behov.
Pentagon ger Anthropic dagar — juridiska verktyg och hotet om svartlistning
Pentagon formulerade sina alternativ i två juridiska kategorier: svartlistning som en risk i försörjningskedjan och att åberopa Defense Production Act för att tvinga fram ett specifikt beteende. Svartlistning skulle innebära att framtida kontrakt med Pentagon ogiltigförklaras och att huvudleverantörer pressas att bryta sina band med företaget. I praktiken skulle detta utesluta Anthropic från en stor del av statliga intäkter och partnerskap, samt signalera till andra kunder att omvärdera sina affärsrelationer. Varningen är bestraffande: den är avsedd att tvinga ett företag att välja mellan en filtrerad affärsmodell och förlusten av lukrativa statliga uppdrag.
Defense Production Act har en annan juridisk ställning. DPA ger presidenten omfattande befogenheter att kräva att företag prioriterar och accepterar statliga kontrakt samt producerar varor och tjänster som behövs för det nationella försvaret. För AI skulle detta kunna användas för att beordra en leverantör att skräddarsy eller konfigurera om modeller, ta bort specifika säkerhetsfunktioner eller tillhandahålla teknisk åtkomst för hemligstämplade uppgifter. Att använda DPA mot en mjukvaruleverantör på detta sätt vore nytt och juridiskt omstritt, men företrädare för Pentagon ska enligt uppgift ha lyft fram det som ett trovärdigt instrument för att tvinga fram efterlevnad.
För utomstående observatörer och juridiska experter väcker dessa alternativ omedelbara frågor om prejudikat och tillsyn. Svartlistning förändrar leveranslandskapet genom administrativt dekret; DPA skulle genomföra en påtvingad teknisk förändring av en produkt. Båda åtgärderna har konsekvenser för företagens autonomi, medborgerliga rättigheter och den internationella marknaden för avancerad AI.
Anthropics säkerhetsåtgärder och företagsstrategi
Anthropic har i offentliga dokument och intervjuer beskrivit sitt säkerhetssystem som en blandning av tekniska och policyrelaterade skyddsmekanismer. Dessa säkerhetsåtgärder inkluderar innehållsfiltrering, vägranslägen för vissa typer av förfrågningar och tydliga policyuttalanden som förbjuder tillämpningar såsom "helt autonoma vapen" och "inhemsk massövervakning av amerikaner". Företaget har också motsatt sig att skriva under breda kontraktsformuleringar om att stödja "alla lagliga ändamål", med argumentet att sådana formuleringar skulle eliminera meningsfulla begränsningar för hur modeller används.
Den positionen existerar dock jämsides med en historik av kommersiellt och statligt engagemang. Anthropic har drivit på för distribution i hemliga nätverk tillsammans med infrastrukturpartner, lanserat ett statligt inriktat erbjudande kallat Claude Gov och vunnit betydande kontrakt med försvarskunder. Företaget har även stora moln- och chipinvesterare bland sina finansiärer och har affärsrelationer som flätar samman det med det militär-underrättelseorganisatoriska ekosystemet. Dessa kopplingar komplicerar påståenden om att företaget skulle stå helt utanför försvarsprioriteringar.
På frågan om varför Pentagon gav Anthropic tre dagar för att ta bort AI-säkerhetsspärrar, pekar observatörer på en blandning av strategiskt tryck och omedelbar operativ efterfrågan. Departementet vill ha en testad och förklarbar väg för att snabbt integrera stora modeller i missionsplanering, logistik och vapensystem. Varje leverantörsbegränsning som kan förhindra snabb och obegränsad användning — särskilt under den juridiska standarden "alla lagliga ändamål" — ramas in av Pentagon som en oacceptabel risk för beredskapen.
Vad svartlistning och ett tillbakadragande av säkerhetsspärrar skulle innebära i praktiken
Om Anthropic blev svartlistat skulle företaget förlora direkt tillgång till många försvarsmöjligheter; leverantörer skulle kunna beordras att bryta banden och statliga upphandlingskanaler skulle stängas. Om Anthropic istället tog bort säkerhetsspärrarna under press eller tvång, skulle den omedelbara tekniska konsekvensen bli modeller som accepterar ett bredare spektrum av instruktioner och operativa order, inklusive sådana som rör målsökning, övervakning eller andra känsliga uppdrag.
Följdeffekterna skulle bli både tekniska och samhälleliga. Att ta bort säkerhetsspärrar ökar risken för att modeller omvandlas för massövervakning, vilket gör att automatiserade övervakningssystem kan skalas upp snabbare. Det skulle kunna påskynda integrationen i vapenstödssystem där den mänskliga tillsynen kan vara begränsad. Ur ett säkerhetsperspektiv kan lättade restriktioner försämra förmågan att testa och granska modeller för bias, hallucinationer och sårbarhet för fientliga angrepp — problem som redan gör det riskabelt att använda modeller i livsavgörande system.
För medborgerliga rättigheter och internationella normer är insatserna höga: modeller utan restriktioner skulle kunna användas för storskaliga inhemska övervakningsprogram, riktad desinformation i stor skala eller utländska operationer med lägre beviskrav. Detta är exakt de avvägningar som företaget offentligt har sagt att man vill undvika, vilket förklarar varför tvisten har blivit en brännpunkt.
Vidare konsekvenser: marknader, politik och framtiden för militär AI
Denna konfrontation illustrerar en bredare spänning i AI-ekosystemet. Regeringar vill ha förutsägbar och granskningsbar tillgång till de mest kapabla modellerna för att påskynda militära tillämpningar. Många företag å andra sidan fruktar ryktesmässiga och etiska bakslag från obegränsad militär användning. Klyftan förstärks av politik: företag som är villiga att acceptera breda kontraktsformuleringar får snabb tillgång till statliga nätverk, medan de som försöker upprätthålla villkorade begränsningar riskerar uteslutning eller tvång.
Det understryker också en kylig operativ verklighet: när en teknisk förmåga bedöms vara strategiskt nödvändig kan staten ta till extraordinära juridiska och ekonomiska påtryckningar för att säkra den. Denna dynamik kommer att tvinga privata AI-leverantörer att väga kommersiella krav, investerares förväntningar, juridisk exponering och offentlig granskning mot varandra i förhandlingar med regeringar. För beslutsfattare väcker episoden frågor om transparens, tillsyn och internationella normer som styr AI i militära sammanhang.
För forskare, ingenjörer och allmänheten kommer resultatet att spela roll eftersom det formar hur de mest avancerade modellerna styrs och testas. Om branschen accepterar ett totalt borttagande av säkerhetsspärrar i den nationella säkerhetens namn, kommer utrymmet för oberoende säkerhetsforskning, offentlig granskning och skydd av medborgerliga rättigheter att krympa. Omvänt, om företag lyckas försvara vissa gränser, kan striden driva regeringen att utveckla sin egen interna kapacitet eller att skapa upphandlingsregler som balanserar operativa behov mot säkerhetskrav.
Den omedelbara tidslinjen förblir kort: Pentagons krav på tre dagar har satt Anthropic under enorm press att välja väg. Oavsett beslut kommer episoden att bli ett testfall för om privata AI-företag kan sätta effektiva gränser för militär användning av frontmodeller, eller om staten kommer att tvinga fram bredare tillgång i den militära beredskapens namn.
Källor
- Pressmaterial från USA:s försvarsdepartement
- Pressmaterial och policydokument från Anthropic
- Pressmaterial från xAI (Grok)
- Defense Production Act (text och juridisk vägledning)
Comments
No comments yet. Be the first!