OpenAI säkrar avtal med Pentagon

AI
OpenAI Wins Pentagon Deal
OpenAI har tillkännagivit ett avtal med USA:s försvarsdepartement om att distribuera sina modeller på hemligstämplade nätverk, bara timmar efter att Trump-administrationen svartlistat rivalen Anthropic. Avtalet väcker omedelbara frågor om säkerhetsmässiga gränsdragningar, leverantörsinflytande och den framtida utformningen av samarbeten mellan militären och techsektorn.

Fredagen den 27 februari 2026 meddelade OpenAI:s vd Sam Altman på X att "i kväll har vi nått en överenskommelse med krigsdepartementet om att driftsätta våra modeller i deras hemligstämplade nätverk". Detta besked kom bara timmar efter att president Donald Trump instruerat amerikanska myndigheter att upphöra med användningen av teknik från Anthropic och Pentagon rört sig mot att stämpla Anthropic som en risk i leveranskedjan. Frasen OpenAI tecknar avtal med Pentagon spreds snabbt via branschkanaler och politiska flöden. De korta, kärva offentliga uttalandena lämnar många tekniska och juridiska detaljer öppna, men de omedelbara konturerna är tydliga: OpenAI uppger att försvarsdepartementet har accepterat företagets röda linjer för säkerhet och kommer att köra dess modeller på hemligstämplade system, samtidigt som Anthropic formellt har stängts ute från vissa statliga kanaler. Händelseförloppet – en svartlistning av ett företag och ett avtal med ett annat – kristalliserar en ny och spänningsfylld relation mellan ledande AI-labb och nationella säkerhetsinstitutioner.

OpenAI tecknar avtal med Pentagon — vad avtalet omfattar

Enligt OpenAI:s inlägg och efterföljande meddelanden från företaget tillåter avtalet försvarsdepartementet att driftsätta OpenAI-modeller inom hemligstämplade nätverk, samtidigt som företagets röda linjer bevaras. Dessa linjer förbjuder inhemsk massövervakning och helt autonom användning av dödligt våld. Sam Altman sa att försvarsdepartementet "visat en djup respekt för säkerhet" och gått med på skrivningar som återspeglar dessa förbud. OpenAI har också åtagit sig att bygga tekniska skyddsmekanismer och placera personal på plats för att hjälpa till med drift och övervakning av modellerna. Offentlig rapportering beskriver arrangemanget som uttryckligen begränsat till departementets hemligstämplade miljö snarare än en generell licens för varje kommersiell partner, men försvarsdepartementets exakta tekniska villkor, granskningsmöjligheter och tillsynsmekanismer har inte offentliggjorts i sin helhet.

Ur ett tekniskt perspektiv är huvudpunkterna välbekanta men svåra att operationalisera: förbud mot inhemsk massövervakning, mänskligt ansvar vid våldsanvändning och verktyg som upprätthåller beteendebegränsningar. Dessa standarder kan implementeras som avtalsenliga förpliktelser, tekniska säkerhetsspärrar och rådgivningsteam på plats, men de är beroende av verifieringsmekanismer som allmänheten inte kan granska. Pentagon har historiskt sett krävt djupgående, ibland ingripande, inspektioner av leverantörers verktyg och försörjningskedjor. Huruvida Pentagons önskan om kontroll kommer att matcha OpenAI:s löften återstår att se, och om de tekniska skyddsmekanismerna kan skalas upp i operativa miljöer är en öppen fråga.

OpenAI tecknar avtal med Pentagon och konsekvenserna för Anthropic

OpenAI:s tillkännagivande landade i skuggan av ett uppmärksammat dödläge mellan Anthropic och försvarsdepartementet som slutade med en brysk reaktion från Vita huset och Pentagon. Försvarsminister Pete Hegseth gav Anthropic ett ultimatum om att tillåta militär användning av dess modeller "för alla lagliga ändamål", och efter att samtalen misslyckats utsåg departementet Anthropic till en "risk i leveranskedjan för den nationella säkerheten". President Trump instruerade därefter federala myndigheter att sluta använda Anthropics teknik. Anthropic meddelade att de kommer att utmana beslutet rättsligt och att de hade insisterat på policyer som förbjuder att deras modeller används för helt autonoma vapen och inhemsk massövervakning.

Tekniska skyddsmekanismer och operativa gränser

Både Pentagon och AI-företagen talar om röda linjer och skyddsmekanismer, men att översätta dessa principer till hållbara och testbara begränsningar är svårt. Att förbjuda inhemsk massövervakning eller autonom våldsanvändning är juridiskt meningsfullt, men det beror på de dagliga tekniska kontrollerna, åtkomstpolicyer, telemetri, loggning och förmågan att påvisa efterlevnad vid en granskning. OpenAI har sagt att de kommer att placera personal för att stödja säker drift och bygga tekniska säkerhetsspärrar; i praktiken kräver dessa åtgärder oberoende verifiering, kontinuerlig övervakning och tydliga eskaleringsvägar när en modell beter sig oförutsägbart.

Vidare blir många av de vanliga försvarsmekanismerna — som grundlig modelltestning, robust härkomst för träningsdata och programvara som upprätthåller användningspolicyer — mer komplexa i hemligstämplade nätverk. Pentagons egen AI-strategi från januari betonar ett snabbt införande av kommersiell kapacitet, samtidigt som man kräver insyn i beroenden och risker. Denna spänning — snabb driftsättning kontra djupgående kvalitetssäkring — är kärnan i varför tekniska skyddsmekanismer kommer att granskas noga av både projektledare och externa kontrollorgan.

Branschens inflytande, upphandling och politiska risker

Händelsen blottlägger en förändrad maktbalans: kommersiella AI-labb besitter nu förmågor som militären eftertraktar, och regeringar måste besluta hur de ska samarbeta utan att ge upp den strategiska kontrollen. Experter menar att det kortsiktiga övertaget ligger hos de företag som äger de ledande modellerna och den knappa talangen, men suveräna stater behåller verktyg för upphandling, regulatoriska styrmedel och juridisk auktoritet. Försvarsdepartementet kan tvinga fram efterlevnad genom kontraktsregler, nekad tillgång till hemligstämplad information eller andra verktyg; företag kan undanhålla samarbete för att skydda sitt rykte eller sina företagsvärderingar. Båda sidor kan påföra den andra kostnader, vilket skapar ett skört offentligt-privat samförstånd.

Politiskt har kritiker varnat för att svartlistningen av Anthropic och det samtidiga välkomnandet av OpenAI kan användas för att styra kontrakt mot föredragna leverantörer eller för att straffa företag som insisterar på säkerhetsbegränsningar. Framstående politiker och säkerhetstjänstemän har redan uttalat sig; vissa demokrater anklagar administrationen för att politisera nationella säkerhetsbeslut, medan vissa försvarsledare hävdar att militären inte kan tillåta leverantörer att ensidigt begränsa laglig användning. Den bredare marknadskontexten — stora finansieringsrundor, molnpartnerskap och kommersiell konsolidering — innebär att upphandlingsval ger eko genom hela ekosystemet av leverantörer, chiptillverkare och molnleverantörer.

Vad detta betyder för den nationella säkerheten och AI-branschen

För Pentagon lovar integreringen av kommersiella toppmodeller snabbare kapacitetsförbättringar, men introducerar samtidigt beroenden och potentiella risker med att vara bunden till en enskild leverantör. Analytiker varnar för att ett alltför stort beroende av en enda leverantör kan skapa sårbarhet om åtkomsten avbryts, och leverantörsinlåsning kan bli en långsiktig strategisk belastning. Försvarsdepartementet balanserar också kortsiktig beredskap mot att upprätthålla demokratiska normer och juridiska begränsningar; hur man navigerar i denna svåra balansgång kommer att forma framtida samarbeten med teknikföretag och de incitament företag möter när de väljer att prioritera säkerhet framför marknadstillträde.

För AI-branschen markerar incidenten ett praktiskt test av om säkerhetsåtaganden är hållbara när de nationella säkerhetsanslagen är stora och det politiska trycket är intensivt. Anthropics rättsliga utmaning och OpenAI:s offentliga försäkringar kommer att spelas ut i domstolar, myndigheter och upphandlingskontor. Samtidigt kommer privata investeringar och molnpartnerskap — inklusive stora nyligen genomförda åtaganden mellan OpenAI och ledande molnleverantörer — att påverka vilka arkitekturer och driftsättningsmodeller regeringen accepterar. Striden är därför både juridisk och teknisk, och den kommer att sätta prejudikat för hur mycket kontroll företag kan behålla när deras teknik behandlas som strategisk infrastruktur.

Källor

  • USA:s försvarsdepartement (Promemoria om strategi för artificiell intelligens, 9 jan. 2026)
  • Georgetown University, Center for Security and Emerging Technology (analytikerkommentarer)
  • Aspen Policy Academy (policyanalys och kommentarer)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Vad är OpenAI:s Pentagon-avtal och vad innebär det?
A OpenAI:s Pentagon-avtal är en överenskommelse som tillkännagavs den 28 februari 2026, vilken tillåter försvarsdepartementet att distribuera OpenAI:s AI-modeller på sina klassificerade nätverk. Det inkluderar etiska säkerhetsåtgärder såsom förbud mot inhemsk massövervakning och krav på mänskligt ansvar vid användning av våld, inklusive autonoma vapen, med tekniska lösningar inbyggda i modellerna för att upprätthålla dessa. OpenAI:s VD Sam Altman uppgav att Pentagon respekterar dessa säkerhetsprinciper, vilka återspeglas i amerikansk lag och policy.
Q Varför blev Anthropic svartlistat av Trump, enligt CNBC?
A Enligt rapporter blev Anthropic svartlistat av Trump-administrationen efter att ha vägrat att släppa sina restriktioner för AI-användning vid inhemsk massövervakning och helt autonoma vapen, vilket ledde till en låst situation med Pentagon. President Trump beordrade federala myndigheter att fasa ut Anthropic-teknik, och krigsminister Pete Hegseth betecknade företaget som en "försörjningskedjerisk för den nationella säkerheten", vilket förbjuder entreprenörer från att göra affärer med dem. Denna aldrig tidigare skådade åtgärd kom bara timmar före tillkännagivandet av OpenAI:s avtal.
Q Hur kan OpenAI:s Pentagon-kontrakt påverka AI-branschen och nationella säkerhetsöverväganden?
A OpenAI:s Pentagon-kontrakt kan stärka dess position inom AI-branschen genom att säkra statlig tillgång och finansiering, samtidigt som det allvarligt skadar Anthropics tillväxt genom svartlistning och uteslutning från federala system. För den nationella säkerheten möjliggör det distribution av AI i klassificerade nätverk med säkerhetsåtgärder, vilket potentiellt påskyndar militär AI-kapacitet mitt under geopolitiska spänningar såsom USA:s och Israels åtgärder mot Iran. Experter noterar att det väcker frågor om relationen mellan stat och näringsliv och sätter ett prejudikat för "patriotiska" AI-leverantörer.
Q Vad säger CNBC:s rapport om OpenAI:s avtal med Pentagon och Anthropics status?
A CNBC-relaterade rapporter, via Fortune, uppger att OpenAI nådde en överenskommelse om att Pentagon ska använda dess AI-modeller i klassificerade system, genom att införliva säkerhetsbegränsningar för massövervakning och autonoma vapen på ett annat sätt än Anthropic genom att anpassa sig till amerikansk lag och bygga in tekniska skyddsåtgärder. Timmar tidigare utsåg den amerikanska regeringen Anthropic till en "risk i försörjningskedjan", vilket hotar dess verksamhet efter att företaget insisterat på uttryckliga kontraktsbegränsningar som Pentagon avvisade. OpenAI:s tillvägagångssätt tillät "alla lagliga ändamål" samtidigt som skyddsåtgärder bäddades in.
Q Vilka villkor eller omfattning täcker Pentagon-kontraktet med OpenAI?
A Pentagon-kontraktet med OpenAI täcker distribution av dess AI-modeller på klassificerade nätverk för alla lagliga ändamål, med inbyggda tekniska skyddsåtgärder som förhindrar användning i inhemsk massövervakning eller dödliga autonoma vapen. Det fastställer förbud mot massövervakning och mänskligt ansvar för våldsanvändning, i linje med amerikansk lag och policy, och inkluderar OpenAI-ingenjörer för att säkerställa säkerheten. OpenAI strävar efter att dessa villkor ska utökas till att gälla alla AI-företag.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!