Fredagen den 27 februari 2026 meddelade OpenAI:s vd Sam Altman på X att "i kväll har vi nått en överenskommelse med krigsdepartementet om att driftsätta våra modeller i deras hemligstämplade nätverk". Detta besked kom bara timmar efter att president Donald Trump instruerat amerikanska myndigheter att upphöra med användningen av teknik från Anthropic och Pentagon rört sig mot att stämpla Anthropic som en risk i leveranskedjan. Frasen OpenAI tecknar avtal med Pentagon spreds snabbt via branschkanaler och politiska flöden. De korta, kärva offentliga uttalandena lämnar många tekniska och juridiska detaljer öppna, men de omedelbara konturerna är tydliga: OpenAI uppger att försvarsdepartementet har accepterat företagets röda linjer för säkerhet och kommer att köra dess modeller på hemligstämplade system, samtidigt som Anthropic formellt har stängts ute från vissa statliga kanaler. Händelseförloppet – en svartlistning av ett företag och ett avtal med ett annat – kristalliserar en ny och spänningsfylld relation mellan ledande AI-labb och nationella säkerhetsinstitutioner.
OpenAI tecknar avtal med Pentagon — vad avtalet omfattar
Enligt OpenAI:s inlägg och efterföljande meddelanden från företaget tillåter avtalet försvarsdepartementet att driftsätta OpenAI-modeller inom hemligstämplade nätverk, samtidigt som företagets röda linjer bevaras. Dessa linjer förbjuder inhemsk massövervakning och helt autonom användning av dödligt våld. Sam Altman sa att försvarsdepartementet "visat en djup respekt för säkerhet" och gått med på skrivningar som återspeglar dessa förbud. OpenAI har också åtagit sig att bygga tekniska skyddsmekanismer och placera personal på plats för att hjälpa till med drift och övervakning av modellerna. Offentlig rapportering beskriver arrangemanget som uttryckligen begränsat till departementets hemligstämplade miljö snarare än en generell licens för varje kommersiell partner, men försvarsdepartementets exakta tekniska villkor, granskningsmöjligheter och tillsynsmekanismer har inte offentliggjorts i sin helhet.
Ur ett tekniskt perspektiv är huvudpunkterna välbekanta men svåra att operationalisera: förbud mot inhemsk massövervakning, mänskligt ansvar vid våldsanvändning och verktyg som upprätthåller beteendebegränsningar. Dessa standarder kan implementeras som avtalsenliga förpliktelser, tekniska säkerhetsspärrar och rådgivningsteam på plats, men de är beroende av verifieringsmekanismer som allmänheten inte kan granska. Pentagon har historiskt sett krävt djupgående, ibland ingripande, inspektioner av leverantörers verktyg och försörjningskedjor. Huruvida Pentagons önskan om kontroll kommer att matcha OpenAI:s löften återstår att se, och om de tekniska skyddsmekanismerna kan skalas upp i operativa miljöer är en öppen fråga.
OpenAI tecknar avtal med Pentagon och konsekvenserna för Anthropic
OpenAI:s tillkännagivande landade i skuggan av ett uppmärksammat dödläge mellan Anthropic och försvarsdepartementet som slutade med en brysk reaktion från Vita huset och Pentagon. Försvarsminister Pete Hegseth gav Anthropic ett ultimatum om att tillåta militär användning av dess modeller "för alla lagliga ändamål", och efter att samtalen misslyckats utsåg departementet Anthropic till en "risk i leveranskedjan för den nationella säkerheten". President Trump instruerade därefter federala myndigheter att sluta använda Anthropics teknik. Anthropic meddelade att de kommer att utmana beslutet rättsligt och att de hade insisterat på policyer som förbjuder att deras modeller används för helt autonoma vapen och inhemsk massövervakning.
Tekniska skyddsmekanismer och operativa gränser
Både Pentagon och AI-företagen talar om röda linjer och skyddsmekanismer, men att översätta dessa principer till hållbara och testbara begränsningar är svårt. Att förbjuda inhemsk massövervakning eller autonom våldsanvändning är juridiskt meningsfullt, men det beror på de dagliga tekniska kontrollerna, åtkomstpolicyer, telemetri, loggning och förmågan att påvisa efterlevnad vid en granskning. OpenAI har sagt att de kommer att placera personal för att stödja säker drift och bygga tekniska säkerhetsspärrar; i praktiken kräver dessa åtgärder oberoende verifiering, kontinuerlig övervakning och tydliga eskaleringsvägar när en modell beter sig oförutsägbart.
Vidare blir många av de vanliga försvarsmekanismerna — som grundlig modelltestning, robust härkomst för träningsdata och programvara som upprätthåller användningspolicyer — mer komplexa i hemligstämplade nätverk. Pentagons egen AI-strategi från januari betonar ett snabbt införande av kommersiell kapacitet, samtidigt som man kräver insyn i beroenden och risker. Denna spänning — snabb driftsättning kontra djupgående kvalitetssäkring — är kärnan i varför tekniska skyddsmekanismer kommer att granskas noga av både projektledare och externa kontrollorgan.
Branschens inflytande, upphandling och politiska risker
Händelsen blottlägger en förändrad maktbalans: kommersiella AI-labb besitter nu förmågor som militären eftertraktar, och regeringar måste besluta hur de ska samarbeta utan att ge upp den strategiska kontrollen. Experter menar att det kortsiktiga övertaget ligger hos de företag som äger de ledande modellerna och den knappa talangen, men suveräna stater behåller verktyg för upphandling, regulatoriska styrmedel och juridisk auktoritet. Försvarsdepartementet kan tvinga fram efterlevnad genom kontraktsregler, nekad tillgång till hemligstämplad information eller andra verktyg; företag kan undanhålla samarbete för att skydda sitt rykte eller sina företagsvärderingar. Båda sidor kan påföra den andra kostnader, vilket skapar ett skört offentligt-privat samförstånd.
Politiskt har kritiker varnat för att svartlistningen av Anthropic och det samtidiga välkomnandet av OpenAI kan användas för att styra kontrakt mot föredragna leverantörer eller för att straffa företag som insisterar på säkerhetsbegränsningar. Framstående politiker och säkerhetstjänstemän har redan uttalat sig; vissa demokrater anklagar administrationen för att politisera nationella säkerhetsbeslut, medan vissa försvarsledare hävdar att militären inte kan tillåta leverantörer att ensidigt begränsa laglig användning. Den bredare marknadskontexten — stora finansieringsrundor, molnpartnerskap och kommersiell konsolidering — innebär att upphandlingsval ger eko genom hela ekosystemet av leverantörer, chiptillverkare och molnleverantörer.
Vad detta betyder för den nationella säkerheten och AI-branschen
För Pentagon lovar integreringen av kommersiella toppmodeller snabbare kapacitetsförbättringar, men introducerar samtidigt beroenden och potentiella risker med att vara bunden till en enskild leverantör. Analytiker varnar för att ett alltför stort beroende av en enda leverantör kan skapa sårbarhet om åtkomsten avbryts, och leverantörsinlåsning kan bli en långsiktig strategisk belastning. Försvarsdepartementet balanserar också kortsiktig beredskap mot att upprätthålla demokratiska normer och juridiska begränsningar; hur man navigerar i denna svåra balansgång kommer att forma framtida samarbeten med teknikföretag och de incitament företag möter när de väljer att prioritera säkerhet framför marknadstillträde.
För AI-branschen markerar incidenten ett praktiskt test av om säkerhetsåtaganden är hållbara när de nationella säkerhetsanslagen är stora och det politiska trycket är intensivt. Anthropics rättsliga utmaning och OpenAI:s offentliga försäkringar kommer att spelas ut i domstolar, myndigheter och upphandlingskontor. Samtidigt kommer privata investeringar och molnpartnerskap — inklusive stora nyligen genomförda åtaganden mellan OpenAI och ledande molnleverantörer — att påverka vilka arkitekturer och driftsättningsmodeller regeringen accepterar. Striden är därför både juridisk och teknisk, och den kommer att sätta prejudikat för hur mycket kontroll företag kan behålla när deras teknik behandlas som strategisk infrastruktur.
Källor
- USA:s försvarsdepartement (Promemoria om strategi för artificiell intelligens, 9 jan. 2026)
- Georgetown University, Center for Security and Emerging Technology (analytikerkommentarer)
- Aspen Policy Academy (policyanalys och kommentarer)
Comments
No comments yet. Be the first!