Pentagon hotar med avstängning när samtalen med Anthropic når ett dödläge
Denna vecka hotar Pentagon med att stänga av Anthropic, enligt rapportering som dök upp den 16 februari 2026, då det amerikanska försvarsdepartementet pressar företaget att lätta på de begränsningar det sätter för hur dess stora språkmodeller får användas av militären. Tvisten – som rapporterats av CNBC tillsammans med tidigare bevakning från Reuters och Axios – kretsar kring huruvida kommersiella AI-företag kommer att tillåta att deras system används för vad Pentagon beskriver som ”alla lagliga ändamål”, inklusive vapenutveckling, underrättelseinsamling och operationer på slagfältet. Anthropic säger att de har stått på sig gällande specifika säkerhetsbegränsningar, såsom strikta gränser för helt autonoma vapen och inhemsk massövervakning, och oenigheten har eskalerat till hot om att relationen kan brytas.
pentagon hotar med avstängning: de juridiska och avtalsmässiga friktionspunkterna
Kärnan i konflikten är det juridiska och avtalsmässiga språket. Pentagon vill ha tillgång till modeller på hemliga nätverk och en bredare formulering som skulle tillåta användning i en rad militära uppdrag; företag har vanligtvis gett tillgång under förutsättning av säkerhetsspärrar på modellnivå och policybaserade restriktioner. För Pentagon är frasen ”alla lagliga ändamål” en enskild avtalsterm som skulle minska tvetydigheten kring tillåten militär användning. För företag som Anthropic, OpenAI, Google och xAI riskerar ett godkännande av den formuleringen att urholka interna säkerhetsbarriärer – både tekniska kontroller inbyggda i modellerna och företagspolitiska åtaganden avsedda att begränsa missbruk.
Förhandlingarna rör även tekniska detaljer: hur modeller distribueras på hemliga nätverk, huruvida innehållsfilter och loggning av användning förblir på plats, och vem som bär ansvaret om ett AI-drivet system producerar skadliga resultat. Pentagon har signalerat frustration efter månader av samtal; drivkraften att ta bort eller lätta på restriktioner återspeglar en operativ önskan att använda de mest kapabla systemen som finns tillgängliga i omstridda miljöer, medan företag oroar sig för skadeståndsansvar, ryktesrisk och de bredare etiska aspekterna av militära tillämpningar.
Hur Anthropic och de andra leverantörerna har svarat
Anthropic har offentligt sagt att tidiga samtal med den amerikanska regeringen fokuserade på frågor om användningspolicy och explicita gränser – framför allt förbud mot helt autonoma vapen och begränsningar av inhemsk massövervakning – snarare än att ge grönt ljus åt specifika operationer. En talesperson för företaget sa till reportrar att man inte hade diskuterat användningen av dess Claude-modell för namngivna taktiska operationer med Pentagon. Det uttalandet står sida vid sida med rapporter om att Claude användes i minst en högprofilerad operation via en partner: Wall Street Journal rapporterade att Claude användes via Palantir i en operation för att fånga Venezuelas tidigare president, vilket visar hur partnerintegrationer komplicerar enkla beskrivningar av företagens återhållsamhet.
Andra stora AI-företag som nämns i rapporteringen – OpenAI, Google och xAI – är också föremål för påtryckningar från Pentagon för att utöka åtkomsten. Reuters och CNBC beskrev omfattande begäranden från försvarsdepartementet om att göra modeller tillgängliga på hemliga nätverk utan många av de standardrestriktioner som företag tillämpar på civila användare. Företag har hanterat dessa förfrågningar på olika sätt och balanserat kontraktsmöjligheter och säkerhetsprövningar mot interna policyer och extern granskning.
Varför Pentagon trycker på och vad man vill uppnå
Men att trycka på för generella, öppna avtalsformuleringar – ”alla lagliga ändamål” – väcker frågor om vilka skyddsmekanismer som finns kvar när modeller används i kinetiska eller dolda sammanhang. Laglig användning är en bred juridisk standard som fortfarande kräver implementering av kontroller för att undvika oavsiktlig eskalering, civil skada eller brott mot nationell och internationell lag. Dessa operativa krav är källan till den nuvarande spänningen.
Tekniska skyddsmekanismer står på spel och Pentagons oro
Företag bygger in skyddsmekanismer i modeller längs två axlar: kontroller på modellnivå (finjustering, säkerhetslager, red-team-testning och innehållsfilter) och kontroller på policynivå (användarvillkor och avtalsmässiga restriktioner för användning). Pentagons påtryckningar för att minska eller kringgå restriktioner skulle förändra hur dessa kontroller fungerar i praktiken. Till exempel kan placering av en modell på ett hemligt nätverk ta bort viss telemetri och loggning av säkerhetsskäl, men det kan också undergräva företagets förmåga att övervaka missbruk och åtgärda problematiskt beteende.
Enligt uppgift är Pentagon frustrerat över att Anthropic har motsatt sig förslag om att lätta på gränserna för scenarier som företaget anser vara förenade med hög risk – såsom helt autonom vapenkontroll och inhemsk massövervakning. Detta är områden där många AI-företag, inte bara Anthropic, har försvarat strikta förbud mot autonomt beslutsfattande som skulle kunna orsaka dödliga utfall utan mänsklig tillsyn.
Hur strypt åtkomst kan ge ringar på vattnet för säkerhet och trygghet
Om Pentagon gör verklighet av hotet och bryter banden med Anthropic, skulle den omedelbara effekten bli ett smalare utbud av leverantörer tillgängliga för det amerikanska försvaret. Det skulle sannolikt påskynda interna ansträngningar inom försvarsdepartementet för att bygga eller beställa skräddarsydda modeller, öka beroendet av företag som går med på bredare användarvillkor, eller uppmuntra partnerskap med utländska leverantörer – där varje utfall bär med sig sina egna avvägningar gällande säkerhet och tillsyn. En avstängning kan också driva myndigheter att acceptera lösningar med färre säkerhetskontroller på leverantörssidan, vilket ökar risken för missbruk eller oavsiktliga konsekvenser.
Omvänt menar företag som upprätthåller robusta säkerhetsrestriktioner att dessa barriärer minskar risker i senare led, förhindrar uppdragsglidning och bevarar allmänhetens förtroende. Dödläget visar på ett djupare strategiskt val: huruvida nationella säkerhetsaktörer tolererar företagsspecifika spärrar som begränsar vissa militära tillämpningar, eller om de insisterar på obegränsad tillgång och accepterar nya tillsynsbördor inom statliga system.
Tidigare prejudikat och det bredare politiska sammanhanget
Försvarsdepartementet har tidigare finansierat AI-forskning och bildat partnerskap med industrin, men det nuvarande ögonblicket sticker ut på grund av omfattningen och mognaden hos kommersiellt tillgängliga stora språkmodeller. Tidigare samarbeten inkluderade villkorade anslag och pilotprojekt som krävde specifika skyddsmekanismer; den nuvarande tvisten handlar om breda operativa villkor snarare än pilotfinansiering. Pentagons hot om att stänga av en leverantör på grund av policyoenigheter är en eskalering inför öppen ridå och signalerar tuffa förhandlingar framöver för alla stora leverantörer av avancerade AI-verktyg.
Det finns också politiska påtryckningar med i spelet. Offentliga personer och konkurrenter har uttalat sig – främst Elon Musk, som nyligen attackerade Anthropics modeller i offentliga kommentarer – vilket understryker att debatter om partiskhet, säkerhet och den rätta rollen för AI i militära sammanhang nu är en del av ett högljutt offentligt samtal, inte bara slutna upphandlingstvister.
Förhandlingar och nästa steg
Båda sidor har incitament att undvika ett totalt brott. Pentagon behöver spetskompetens; företag vill behålla statliga affärer och undvika att stängas ute från betydande kontrakt. Räkna med intensiva förhandlingar bakom kulisserna om avtalstext, tekniska isoleringsåtgärder (till exempel fysiskt isolerade distributioner), utökade gransknings- och tillsynsförfaranden och möjligen nya juridiska konstruktioner som klargör ansvar och acceptabel användning i hemliga sammanhang.
För den bredare allmänheten och beslutsfattare väcker denna tvist välbekanta frågor om exportkontroll, tillsyn av tekniker med dubbla användningsområden och huruvida nya styrmodeller krävs för AI som används inom nationell säkerhet. Oavsett det omedelbara utfallet kommer förhandlingen att sätta prejudikat för hur regeringar och privata AI-utvecklare delar känslig kapacitet samtidigt som de försöker hålla säkerhetsbarriärerna intakta.
Källor
- Amerikanska försvarsdepartementets (Pentagons) offentliga uttalanden och upphandlingsmaterial
- Anthropics pressmaterial och företagets uttalanden
- Palantir Technologies offentliggöranden kring partnerskap och distributioner
Comments
No comments yet. Be the first!