Venerdì 27 febbraio 2026, il CEO di OpenAI Sam Altman ha annunciato su X che "stasera abbiamo raggiunto un accordo con il Dipartimento della Guerra per implementare i nostri modelli nella loro rete classificata", uno sviluppo arrivato poche ore dopo che il Presidente Donald Trump ha ordinato alle agenzie statunitensi di cessare l'uso della tecnologia di Anthropic e il Pentagono ha provveduto a etichettare Anthropic come un rischio per la catena di approvvigionamento. La frase "openai stringe un accordo con il pentagono" si è diffusa rapidamente nei feed del settore e della politica; le brevi e concise dichiarazioni pubbliche lasciano aperti molti dettagli tecnici e legali, ma i contorni immediati sono chiari: OpenAI afferma che il Dipartimento della Difesa ha accettato le sue linee rosse di sicurezza e farà girare i suoi modelli su sistemi classificati, mentre Anthropic è stata formalmente estromessa da alcuni canali governativi. La sequenza — una lista nera per un'azienda e un contratto per un'altra — cristallizza una nuova, tesa relazione tra i laboratori di IA di frontiera e le istituzioni di sicurezza nazionale.
openai stringe un accordo con il pentagono — cosa copre l'intesa
Secondo il post di OpenAI e le successive comunicazioni aziendali, l'accordo permette al Dipartimento della Difesa di implementare i modelli di OpenAI all'interno di reti classificate, preservando al contempo le linee rosse dell'azienda che vietano la sorveglianza di massa interna e l'uso completamente autonomo della forza letale. Sam Altman ha dichiarato che il DoD ha "mostrato un profondo rispetto per la sicurezza" e ha accettato un linguaggio che riflette tali divieti; OpenAI si è inoltre impegnata a creare salvaguardie tecniche e a inserire personale per aiutare a gestire e monitorare i modelli. I resoconti pubblici descrivono l'accordo come esplicitamente limitato all'ambiente classificato del dipartimento piuttosto che come una licenza generale per ogni partner commerciale, ma le esatte condizioni tecniche, l'accesso per gli audit e i meccanismi di supervisione del DoD non sono stati completamente resi noti.
Dal punto di vista tecnico, i punti principali sono noti ma difficili da rendere operativi: il non utilizzo per la sorveglianza di massa interna, la responsabilità umana per l'uso della forza e strumenti che impongano vincoli comportamentali. Questi standard possono essere implementati come obblighi contrattuali, guardrail software e team di consulenza in loco, ma dipendono da meccanismi di verifica che il pubblico non può ispezionare. Storicamente il Pentagono ha richiesto un'ispezione profonda, a volte invasiva, degli strumenti e della catena di approvvigionamento dei fornitori; resta da vedere se la propensione al controllo del Pentagono corrisponderà alle promesse di OpenAI e se le salvaguardie tecniche scaleranno nei contesti operativi.
openai stringe un accordo con il pentagono e le ricadute su Anthropic
L'annuncio di OpenAI è arrivato all'ombra di un alto profilo di scontro tra Anthropic e il Dipartimento della Difesa, conclusosi con una severa risposta da parte della Casa Bianca e del Pentagono. Il Segretario alla Difesa Pete Hegseth aveva dato ad Anthropic un ultimatum per consentire l'uso militare dei suoi modelli "per tutti gli scopi leciti" e, dopo il fallimento dei colloqui, il dipartimento ha designato Anthropic come un "rischio per la catena di approvvigionamento alla sicurezza nazionale". Il Presidente Trump ha poi ordinato alle agenzie federali di interrompere l'uso della tecnologia di Anthropic. Anthropic ha dichiarato che contesterà legalmente la designazione e di aver insistito su politiche che vietano l'uso dei suoi modelli per armi autonome e sorveglianza di massa interna.
Salvaguardie tecniche e limiti operativi
Sia il Pentagono che le aziende di IA parlano di linee rosse e salvaguardie, ma tradurre questi principi in vincoli duraturi e verificabili è difficile. Proibire la sorveglianza di massa interna o l'uso autonomo della forza è legalmente significativo, ma dipende dai controlli ingegneristici quotidiani, dalle politiche di accesso, dalla telemetria, dal logging e dalla capacità di dimostrare la conformità in fase di audit. OpenAI ha dichiarato che schiererà personale per supportare le operazioni sicure e costruire guardrail tecnici; in pratica, tali misure richiedono verifiche indipendenti, monitoraggio continuo e chiari percorsi di escalation quando un modello si comporta in modo imprevedibile.
Inoltre, molti dei comuni meccanismi difensivi — test approfonditi dei modelli, provenienza robusta dei dati di addestramento e software che impone politiche di utilizzo — diventano più complessi sulle reti classificate. La strategia per l'IA del DoD di gennaio sottolinea l'adozione rapida di capacità commerciali, richiedendo al contempo visibilità su dipendenze e rischi. Questa tensione — schieramento rapido contro garanzia approfondita — è il motivo per cui le salvaguardie tecniche saranno esaminate da vicino sia dai responsabili dei programmi che dagli attori della supervisione esterna.
Leva industriale, appalti e rischi politici
L'episodio espone un mutamento degli equilibri di potere: i laboratori commerciali di IA detengono ora capacità che i militari desiderano, e i governi devono decidere come collaborare senza cedere il controllo strategico. Gli esperti affermano che la leva a breve termine spetti alle aziende che possiedono i modelli leader e i talenti scarsi, ma i governi sovrani conservano strumenti di approvvigionamento, leve normative e autorità legale. Il DoD può imporre la conformità attraverso regole contrattuali, il diniego dell'accesso classificato o altri strumenti; le aziende possono negare la cooperazione per proteggere la reputazione o i valori aziendali. Entrambe le parti possono imporre costi all'altra, il che crea un fragile patto pubblico-privato.
Politicamente, i critici hanno avvertito che la lista nera di Anthropic e il contemporaneo abbraccio di OpenAI potrebbero essere usati per indirizzare i contratti verso fornitori preferiti o per punire le aziende che insistono sui vincoli di sicurezza. Esponenti politici e funzionari della sicurezza sono già intervenuti: alcuni democratici accusano l'amministrazione di politicizzare le decisioni sulla sicurezza nazionale, mentre alcuni leader della difesa sostengono che i militari non possono permettere ai fornitori di limitare unilateralmente gli usi leciti. Il più ampio contesto di mercato — round di finanziamento importanti, partnership cloud e consolidamento commerciale — significa che le scelte di approvvigionamento si ripercuotono su un ecosistema di fornitori, produttori di chip e provider cloud.
Cosa significa per la sicurezza nazionale e l'industria dell'IA
Per il Pentagono, l'integrazione di modelli commerciali di alto livello promette miglioramenti più rapidi delle capacità, ma introduce dipendenze e potenziali rischi legati a un unico fornitore. Gli analisti avvertono che l'eccessivo affidamento su un singolo provider potrebbe creare fragilità in caso di interruzione dell'accesso, e il vendor lock-in potrebbe diventare una passività strategica a lungo termine. Il DoD sta anche bilanciando la prontezza a breve termine con il mantenimento delle norme democratiche e dei vincoli legali; il modo in cui troverà un equilibrio in questa situazione plasmerà la futura collaborazione con le aziende tecnologiche e gli incentivi che le società dovranno affrontare quando sceglieranno di dare priorità alla sicurezza rispetto all'accesso al mercato.
Per l'industria dell'IA, l'incidente rappresenta un test pratico per verificare se gli impegni sulla sicurezza siano sostenibili quando i fondi per la sicurezza nazionale sono ingenti e la pressione politica è intensa. La sfida legale di Anthropic e le assicurazioni pubbliche di OpenAI si giocheranno nei tribunali, nelle agenzie e negli uffici contrattuali. Nel frattempo, gli investimenti privati e le partnership cloud — inclusi i recenti grandi impegni tra OpenAI e i principali cloud provider — influenzeranno quali architetture e modelli di implementazione il governo accetterà. La lotta è quindi sia legale che tecnica, e stabilirà dei precedenti su quanto controllo le aziende possano preservare quando le loro tecnologie vengono trattate come infrastrutture strategiche.
Fonti
- Dipartimento della Difesa degli Stati Uniti (Memorandum sulla strategia per l'Intelligenza Artificiale, 9 gennaio 2026)
- Georgetown University, Center for Security and Emerging Technology (commento degli analisti)
- Aspen Policy Academy (analisi politica e commento)
Comments
No comments yet. Be the first!