Pentagono vs Anthropic: minaccia di esclusione

A.I
Pentagon vs Anthropic: Cut-off Threat
Il Pentagono minaccia di interrompere i rapporti con Anthropic a causa delle restrizioni sull'uso militare della sua IA, esortando le aziende a consentire l'integrazione degli strumenti nelle reti classificate. Lo stallo evidenzia le tensioni tra le necessità della difesa, i paletti di sicurezza aziendali e i rischi per la sicurezza nazionale.

Il Pentagono minaccia l'interruzione dei rapporti mentre i colloqui con Anthropic raggiungono un vicolo cieco

Questa settimana il Pentagono ha minacciato di interrompere i rapporti con Anthropic, secondo quanto emerso il 16 febbraio 2026, mentre il Dipartimento della Difesa degli Stati Uniti esercita pressioni sull'azienda affinché allenti i limiti imposti sull'uso dei suoi modelli linguistici di grandi dimensioni da parte dei militari. La disputa — riportata da CNBC insieme a precedenti servizi di Reuters e Axios — si concentra sulla questione se le aziende di IA commerciale permetteranno l'uso dei propri sistemi per quelli che il Pentagono descrive come "tutti gli scopi leciti", inclusi lo sviluppo di armi, la raccolta di intelligence e le operazioni sul campo di battaglia. Anthropic afferma di aver mantenuto la propria posizione su specifici vincoli di sicurezza, come limiti invalicabili alle armi autonome e alla sorveglianza di massa nazionale, e il disaccordo è degenerato in minacce di interruzione del rapporto.

minaccia del pentagono di interrompere i rapporti: i punti di frizione legali e contrattuali

Il cuore dello scontro risiede nel linguaggio legale e contrattuale. Il Pentagono vuole accedere ai modelli su reti classificate e una formulazione più ampia che consenta l'uso in una vasta gamma di missioni militari; le aziende hanno tipicamente fornito l'accesso subordinato a salvaguardie a livello di modello e restrizioni basate su policy aziendali. Per il Pentagono, la frase "tutti gli scopi leciti" è una clausola contrattuale singola che ridurrebbe l'ambiguità sull'uso militare consentito. Per aziende come Anthropic, OpenAI, Google e xAI, accettare tale formulazione rischia di erodere i guardrail di sicurezza interni — sia i controlli tecnici integrati nei modelli che gli impegni delle policy aziendali volti a limitare gli abusi.

I negoziati toccano anche dettagli tecnici: come i modelli vengono distribuiti su reti classificate, se i filtri per i contenuti e il logging dell'utilizzo rimangano attivi e chi sia responsabile se un sistema guidato dall'IA produce output dannosi. Il Pentagono ha manifestato frustrazione dopo mesi di colloqui; la spinta a rimuovere o allentare le restrizioni riflette un desiderio operativo di utilizzare i sistemi più capaci disponibili in ambienti contesi, mentre le aziende si preoccupano della responsabilità legale, del rischio reputazionale e dell'etica più ampia delle applicazioni militari.

Come hanno risposto Anthropic e gli altri fornitori

Anthropic ha dichiarato pubblicamente che i primi colloqui con il governo degli Stati Uniti si sono concentrati su questioni relative alle policy di utilizzo e su confini espliciti — in particolare il divieto di armi autonome e i limiti alla sorveglianza di massa nazionale — piuttosto che sul dare il via libera a specifiche operazioni. Un portavoce dell'azienda ha riferito ai giornalisti di non aver discusso con il Pentagono l'uso del suo modello Claude per operazioni tattiche nominate. Tale dichiarazione si affianca a segnalazioni secondo cui Claude sarebbe stato utilizzato in almeno un'operazione di alto profilo tramite un partner: il Wall Street Journal ha riportato che Claude è stato impiegato attraverso Palantir in un'operazione per catturare l'ex presidente del Venezuela, dimostrando come le integrazioni dei partner complichino le semplici descrizioni di moderazione aziendale.

Anche altre importanti aziende di IA menzionate nei rapporti — OpenAI, Google e xAI — sono oggetto di pressioni da parte del Pentagono per ampliare l'accesso. Reuters e CNBC hanno descritto ampie richieste del DoD per rendere disponibili i modelli su reti classificate senza molte delle restrizioni standard che le aziende applicano agli utenti civili. Le aziende hanno gestito queste richieste in modo diverso, bilanciando le opportunità contrattuali e i nulla osta di sicurezza con le policy interne e lo scrutinio esterno.

Perché il Pentagono sta spingendo e cosa vuole ottenere

Tuttavia, insistere per un linguaggio contrattuale generico e aperto — "tutti gli scopi leciti" — solleva interrogativi su quali salvaguardie rimangano in vigore quando i modelli vengono utilizzati in contesti cinetici o sotto copertura. L'uso lecito è uno standard legale ampio che richiede comunque l'attuazione di controlli per evitare escalation involontarie, danni ai civili o violazioni del diritto interno e internazionale. Queste esigenze operative sono all'origine dell'attuale tensione.

Salvaguardie tecniche in gioco e preoccupazioni del Pentagono

Le aziende integrano le salvaguardie nei modelli lungo due assi: controlli a livello di modello (fine-tuning, livelli di sicurezza, test red-team e filtri per i contenuti) e controlli a livello di policy (termini di servizio e restrizioni contrattuali sull'uso). La spinta del Pentagono a ridurre o aggirare le restrizioni cambierebbe il modo in cui tali controlli operano nella pratica. Ad esempio, collocare un modello su una rete classificata potrebbe rimuovere parte della telemetria e del logging per motivi di sicurezza, ma può anche minare la capacità dell'azienda di monitorare gli abusi e correggere i comportamenti problematici.

Secondo quanto riferito, il Pentagono è frustrato dal fatto che Anthropic abbia resistito alle proposte di allentare i limiti in scenari che l'azienda ritiene ad alto rischio — come il controllo di armi completamente autonome e la sorveglianza di massa nazionale. Queste sono aree in cui molte aziende di IA, non solo Anthropic, hanno difeso divieti rigorosi sul processo decisionale autonomo che potrebbe causare esiti letali senza la supervisione umana.

Come l'interruzione dell'accesso potrebbe ripercuotersi sulla sicurezza

Se il Pentagono dovesse dare seguito alla minaccia e interrompere i legami con Anthropic, l'effetto immediato sarebbe un set più ristretto di fornitori disponibili per la comunità della difesa statunitense. Ciò probabilmente accelererebbe gli sforzi interni del DoD per costruire o appaltare modelli su misura, aumenterebbe la dipendenza da aziende che accettano termini di utilizzo più ampi o incoraggerebbe partnership con fornitori stranieri — ogni esito con i propri compromessi in termini di sicurezza e supervisione. Un'interruzione potrebbe anche spingere le agenzie ad accettare soluzioni con meno controlli di sicurezza lato fornitore, aumentando il rischio di abusi o conseguenze non intenzionali.

Al contrario, le aziende che mantengono solide restrizioni di sicurezza sostengono che questi guardrail riducano i rischi a valle, prevengano l'espansione impropria delle missioni (mission creep) e preservino la fiducia del pubblico. Lo stallo evidenzia una scelta strategica più profonda: se gli attori della sicurezza nazionale debbano tollerare guardrail aziendali che limitano determinate applicazioni militari, o se debbano insistere su un accesso illimitato accettando nuovi oneri di supervisione all'interno dei sistemi governativi.

Precedenti passati e il contesto politico più ampio

Il DoD ha precedentemente finanziato la ricerca sull'IA e formato partnership con l'industria, ma il momento attuale si distingue per la scala e la maturità dei modelli linguistici di grandi dimensioni disponibili commercialmente. Le collaborazioni precedenti includevano sovvenzioni condizionate e progetti pilota che richiedevano salvaguardie specifiche; la disputa attuale riguarda termini operativi generali piuttosto che finanziamenti per progetti pilota. La minaccia del Pentagono di tagliare fuori un fornitore per disaccordi sulle policy è un'escalation pubblica e segnala trattative difficili all'orizzonte per tutti i principali fornitori di strumenti di IA avanzata.

Sono in gioco anche pressioni politiche. Figure pubbliche e concorrenti sono intervenuti — in particolare Elon Musk, che ha recentemente attaccato i modelli di Anthropic in commenti pubblici — sottolineando come i dibattiti su bias, sicurezza e il ruolo appropriato dell'IA in contesti militari facciano ora parte di una rumorosa conversazione pubblica, non solo di riservate controversie sugli appalti.

Negoziati e prossime mosse

Entrambe le parti hanno incentivi a evitare una rottura definitiva. Il Pentagono ha bisogno di capacità all'avanguardia; le aziende vogliono mantenere le commesse governative ed evitare di essere escluse da contratti significativi. Sono prevedibili intensi negoziati dietro le quinte sul linguaggio contrattuale, misure di isolamento tecnico (ad esempio, distribuzioni air-gapped o compensate), procedure avanzate di audit e supervisione, e possibilmente nuovi costrutti legali che chiariscano la responsabilità e l'uso accettabile in contesti classificati.

Per il grande pubblico e i decisori politici, questa disputa solleva questioni familiari sui controlli alle esportazioni, sulla supervisione delle tecnologie a duplice uso e sulla necessità di nuovi modelli di governance per l'IA utilizzata nella sicurezza nazionale. Qualunque sia l'esito immediato, la negoziazione stabilirà precedenti su come i governi e gli sviluppatori privati di IA condividano capacità sensibili cercando al contempo di mantenere intatti i guardrail di sicurezza.

Fonti

  • Dichiarazioni pubbliche e materiali di approvvigionamento del Dipartimento della Difesa degli Stati Uniti (Pentagono)
  • Materiali stampa e dichiarazioni aziendali di Anthropic
  • Comunicazioni pubbliche di Palantir Technologies relative alle implementazioni dei partner
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Cos'è Anthropic e perché il Pentagono minaccia di interrompere i rapporti a causa dei protocolli di sicurezza dell'IA?
A Anthropic è un'azienda di intelligenza artificiale con sede a San Francisco, nota per il suo modello Claude AI, che è stato utilizzato in operazioni militari come un raid in Venezuela. Il Pentagono, sotto il Segretario alla Difesa Pete Hegseth, minaccia di interrompere i legami e di etichettare Anthropic come un 'rischio per la catena di approvvigionamento' a causa del rifiuto dell'azienda di consentire l'uso militare illimitato di Claude per tutti gli scopi leciti, insistendo invece su tutele contro la sorveglianza di massa sugli americani e le armi autonome. Questa disputa si è intensificata nonostante mesi di negoziati, con il Pentagono che considera le restrizioni di Anthropic eccessivamente limitanti.
Q Quali protocolli di sicurezza dell'IA il Pentagono ha affermato che Anthropic non è riuscita a soddisfare?
A Il Pentagono ha dichiarato che Anthropic non ha soddisfatto i requisiti per l'accesso illimitato a Claude AI per tutti gli usi militari leciti, in particolare nei sistemi classificati. Anthropic richiede clausole contrattuali che vietino la sorveglianza di massa sugli americani e lo sviluppo di armi che operino senza il coinvolgimento umano, cosa che il Pentagono ritiene impraticabile a causa delle zone d'ombra. Il Pentagono sta inoltre esercitando pressioni per ottenere un simile accesso illimitato da OpenAI, Google e xAI.
Q Il Pentagono ha intrapreso azioni simili contro altre aziende di IA?
A Il Pentagono non ha ancora intrapreso azioni simili, come etichettare altre aziende di IA come rischi per la catena di approvvigionamento, ma è impegnato in difficili negoziati con OpenAI, Google e xAI sulle stesse questioni di accesso illimitato. Queste aziende hanno acconsentito ad allentare le restrizioni per l'uso militare nei sistemi classificati, sebbene ciò non sia stato ancora pienamente implementato per le operazioni sensibili. Al momento non risultano segnalazioni di interruzioni effettive o designazioni per queste aziende.
Q In che modo l'interruzione dei rapporti con Anthropic potrebbe influire sulla sicurezza dell'IA e sulle iniziative di sicurezza nazionale?
A L'interruzione dei rapporti con Anthropic potrebbe ostacolare la sicurezza nazionale interrompendo l'accesso a Claude, che è all'avanguardia nelle applicazioni militari specializzate, mentre i modelli concorrenti sono 'appena dietro', rischiando potenzialmente di ritardare operazioni critiche. Ciò potrebbe spingere le aziende di IA a indebolire le misure di sicurezza, rischiando di amplificare le violazioni della privacy attraverso la sorveglianza di massa o lo sviluppo di armi autonome. Al contrario, stabilisce un precedente per dare priorità alle esigenze militari rispetto alle restrizioni aziendali sull'IA, facendo potenzialmente avanzare le iniziative di IA per la difesa ma a scapito delle tutele etiche.
Q Cosa ha riportato la CNBC sulla disputa tra il Pentagono e Anthropic?
A La CNBC non è citata direttamente nei rapporti disponibili sulla disputa; la copertura proviene principalmente da Axios e Hindustan Times. Axios ha dettagliato la quasi-decisione del Segretario alla Difesa Pete Hegseth di recidere i legami con Anthropic a causa delle restrizioni d'uso di Claude, citando funzionari del Pentagono sull'etichettatura dell'azienda come rischio per la catena di approvvigionamento e sulla frustrazione dopo mesi di colloqui. L'Hindustan Times ha fatto eco a questo, evidenziando le tutele di Anthropic contro la sorveglianza e le armi autonome.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!