Il Pentagono concede tre giorni ad Anthropic

Pentagon Gives Anthropic Three Days
Il Pentagono ha lanciato un ultimatum di tre giorni ad Anthropic per rimuovere i limiti di sicurezza sul suo modello Claude, pena il blacklisting o la coercizione ai sensi del Defense Production Act, segnando un'escalation nello scontro sull'accesso militare all'IA di frontiera.

Il Pentagono concede pochi giorni ad Anthropic: un ultimatum lapidario

La frase "il Pentagono concede pochi giorni ad Anthropic" è ormai più di un titolo su internet: questa settimana il Pentagono ha esercitato pressioni su Anthropic con una scadenza di tre giorni per rimuovere le barriere di sicurezza dal suo modello Claude, pena l'essere etichettata come rischio per la catena di approvvigionamento ed essere esclusa dalle attività della difesa statunitense. La richiesta è stata formulata durante un teso incontro martedì mattina al Pentagono, a cui hanno partecipato il Segretario alla Difesa Pete Hegseth e alti legali del dipartimento, secondo quanto riportato dai partecipanti e dai comunicati aziendali. La scelta presentata ad Anthropic è stata netta: acconsentire alle condizioni del Pentagono, o finire nella lista nera ed essere potenzialmente costretta ai sensi del Defense Production Act (DPA).

Il Pentagono concede pochi giorni ad Anthropic — cosa è successo durante l'incontro

I funzionari presenti all'incontro hanno riferito ai giornalisti che il tono è stato conflittuale. Un funzionario della difesa ha descritto la sessione come "tutt'altro che amichevole", e un altro ha riconosciuto il paradosso per cui il Pentagono dipende simultaneamente dai modelli di frontiera pur non essendo disposto ad accettare che aziende private pongano condizioni sull'uso militare. L'amministratore delegato di Anthropic, Dario Amodei, ha partecipato all'incontro e, dopo il colloquio, l'azienda ha rilasciato una dichiarazione affermando di rimanere impegnata a sostenere le missioni legittime di sicurezza nazionale, preservando al contempo un comportamento del modello sicuro e testabile.

L'innesco immediato del confronto, come descritto dai resoconti della stampa, è stato una serie di rivelazioni sull'uso del modello Claude — senza preavviso ad Anthropic — in un'operazione militare di gennaio. Quell'episodio, e le relative notizie, hanno intensificato le pressioni all'interno del Pentagono per insistere su un accesso illimitato. Il Dipartimento della Difesa è stato esplicito riguardo a una tabella di marcia a breve termine per l'accelerazione dell'IA: una strategia bellica "AI‑first" pubblicata a gennaio ha delineato progetti dimostrabili per quest'estate, e alti funzionari affermano di aver bisogno ora dei modelli più capaci per rispettare tali scadenze.

Insieme all'ultimatum, il Pentagono ha annunciato un accordo separato per distribuire il modello Grok di xAI su reti militari classificate sotto la dicitura "tutti gli scopi leciti". Le differenze riportate nei termini contrattuali tra le due società — una che accetta un linguaggio di utilizzo ampio mentre l'altra resiste — hanno sottolineato il messaggio dell'amministrazione: lo Stato non tollererà restrizioni da parte dei fornitori che ritiene incompatibili con le necessità operative.

Il Pentagono concede pochi giorni ad Anthropic — strumenti legali e minaccia di esclusione

Il Pentagono ha inquadrato le sue opzioni in due ambiti legali: l'inserimento nella lista nera come rischio per la catena di approvvigionamento e l'invocazione del Defense Production Act per imporre comportamenti specifici. Finire nella lista nera significherebbe annullare i futuri contratti del Pentagono e fare pressione sui principali contraenti affinché interrompano i legami. In pratica, ciò escluderebbe Anthropic da una grossa fetta di entrate e partnership governative, e segnalerebbe agli altri clienti di riconsiderare i rapporti commerciali. L'avvertimento ha finalità punitive: intende costringere un'azienda a scegliere tra un modello di business filtrato e la perdita di redditizi incarichi governativi.

Il Defense Production Act occupa una posizione legale diversa. Il DPA concede al presidente ampi poteri per richiedere alle aziende di dare priorità e accettare contratti governativi e per produrre beni e servizi necessari alla difesa nazionale. Per l'IA, questo potrebbe essere usato per ordinare a un fornitore di personalizzare o riconfigurare i modelli, rimuovere particolari funzioni di sicurezza o fornire un accesso tecnico per compiti classificati. L'uso del DPA contro un fornitore di software in questo modo sarebbe inedito e legalmente contestato, ma i funzionari del Pentagono lo avrebbero citato come uno strumento credibile per imporre la conformità.

Per gli osservatori esterni e gli studiosi di diritto, queste opzioni sollevano interrogativi immediati sui precedenti e sulla supervisione. L'inserimento nella lista nera cambia il panorama delle forniture attraverso un atto amministrativo d'imperio; il DPA attuerebbe un cambiamento tecnico forzato a un prodotto. Entrambe le misure hanno implicazioni per l'autonomia aziendale, le libertà civili e il mercato internazionale dell'IA di frontiera.

Le tutele di Anthropic e il posizionamento aziendale

Anthropic ha descritto il suo regime di sicurezza in documenti pubblici e interviste come un mix di barriere tecniche e politiche. Tali tutele includono il filtraggio dei contenuti, modalità di rifiuto per certe classi di richieste e dichiarazioni programmatiche esplicite che vietano applicazioni come le "armi completamente autonome" e la "sorveglianza domestica di massa degli americani". L'azienda ha anche resistito alla firma di contratti con un linguaggio generico che impegna a sostenere "tutti gli scopi leciti", sostenendo che tale formulazione eliminerebbe limiti significativi sulle modalità di distribuzione dei modelli.

Tale posizione, tuttavia, si affianca a una storia di impegni commerciali e governativi. Anthropic ha portato avanti distribuzioni su reti classificate con partner infrastrutturali, ha lanciato un'offerta orientata al governo chiamata Claude Gov e si è aggiudicata importanti contratti con clienti della difesa. L'azienda annovera tra i suoi sostenitori anche importanti investitori nel settore cloud e dei chip, e intrattiene relazioni commerciali che la intrecciano con l'ecosistema dell'intelligence militare. Questi intrecci complicano le affermazioni secondo cui l'azienda sarebbe del tutto estranea alle priorità della difesa.

Alla domanda sul perché il Pentagono abbia concesso ad Anthropic tre giorni per eliminare le tutele dell'IA, gli osservatori indicano un mix di pressione strategica e domanda operativa immediata. Il dipartimento vuole un percorso testato e spiegabile per integrare rapidamente i modelli di grandi dimensioni nella pianificazione delle missioni, nella logistica e nei sistemi d'arma. Qualsiasi restrizione del fornitore che possa impedire un uso rapido e senza vincoli — specialmente sotto lo standard legale di "tutti gli scopi leciti" — viene presentata dal Pentagono come un rischio inaccettabile per la prontezza operativa.

Cosa significherebbero in pratica l'esclusione e il ritiro delle tutele

Se Anthropic venisse inserita nella lista nera, l'azienda perderebbe l'accesso diretto a molte opportunità nel settore della difesa; ai contraenti potrebbe essere ordinato di tagliare i ponti e i canali di approvvigionamento governativi verrebbero chiusi. Se invece Anthropic rimuovesse le tutele sotto pressione o costrizione, la conseguenza tecnica immediata sarebbe avere modelli che accettano una gamma più ampia di prompt e istruzioni operative, comprese quelle relative al targeting, alla sorveglianza o ad altre missioni sensibili.

Gli effetti a valle sarebbero sia tecnici che sociali. La rimozione delle barriere di sicurezza aumenta il rischio che i modelli vengano riconvertiti per la sorveglianza di massa, consentendo ai sistemi di monitoraggio automatizzati di scalare più velocemente. Potrebbe accelerare l'integrazione nei sistemi di supporto alle armi dove la supervisione umana potrebbe essere limitata. Dal punto di vista della sicurezza, l'allentamento dei vincoli può degradare la capacità di testare e sottoporre a audit i modelli per quanto riguarda bias, allucinazioni e vulnerabilità avversarie — problemi che già rendono rischioso l'impiego dei modelli in sistemi critici per la vita umana.

Per le libertà civili e le norme internazionali, la posta in gioco è alta: modelli privi di restrizioni potrebbero essere utilizzati per programmi di sorveglianza interna su larga scala, disinformazione mirata di massa o operazioni estere con soglie di prova inferiori. Sono esattamente i compromessi che l'azienda ha dichiarato pubblicamente di voler evitare, il che aiuta a spiegare perché la disputa sia diventata un punto critico.

Implicazioni più ampie: mercati, politica e il futuro dell'IA militare

Questo confronto illustra una tensione più ampia nell'ecosistema dell'IA. I governi vogliono un accesso prevedibile e verificabile ai modelli più capaci per accelerare le applicazioni belliche. Molte aziende, d'altra parte, temono contraccolpi reputazionali ed etici derivanti da un uso militare senza restrizioni. La spaccatura è accentuata dalla politica: le aziende disposte ad accettare un linguaggio contrattuale ampio ottengono un accesso rapido alle reti governative, mentre quelle che cercano di mantenere limiti condizionali rischiano l'esclusione o la coercizione.

Sottolinea inoltre una raggelante realtà operativa: quando una capacità tecnologica è giudicata strategicamente necessaria, lo Stato può ricorrere a straordinarie pressioni legali ed economiche per assicurarsela. Questa dinamica costringerà i fornitori privati di IA a soppesare imperativi commerciali, aspettative degli investitori, esposizione legale e controllo pubblico nelle trattative con i governi. Per i decisori politici, l'episodio solleva interrogativi sulla trasparenza, la supervisione e le norme internazionali che regolano l'IA in contesti militari.

Per i ricercatori, gli ingegneri e il pubblico, l'esito sarà importante perché determinerà il modo in cui i modelli più avanzati vengono governati e testati. Se l'industria accetta la rimozione totale delle tutele in nome della sicurezza nazionale, lo spazio per la ricerca indipendente sulla sicurezza, l'audit pubblico e la protezione delle libertà civili si ridurrà. Al contrario, se le aziende difenderanno con successo alcuni limiti, la contesa potrebbe spingere il governo a sviluppare le proprie capacità interne o a creare regole di approvvigionamento che bilancino le necessità operative con i requisiti di sicurezza.

La tempistica immediata rimane breve: la richiesta di tre giorni del Pentagono ha messo Anthropic sotto un'enorme pressione per scegliere una strada. Qualunque sia la decisione, l'episodio sarà un caso di prova per verificare se le aziende private di IA possano porre limiti efficaci all'uso militare dei modelli di frontiera, o se lo Stato imporrà un accesso più ampio in nome della prontezza della difesa.

Fonti

  • Materiali stampa del Dipartimento della Difesa degli Stati Uniti
  • Materiali stampa e documenti di politica pubblica di Anthropic
  • Materiali stampa di xAI (Grok)
  • Defense Production Act (testo e guida legale)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Perché il Pentagono ha dato ad Anthropic tre giorni per rimuovere le misure di sicurezza dell'IA?
A Non ci sono prove nelle fonti disponibili che il Pentagono abbia concesso ad Anthropic tre giorni per rimuovere le misure di sicurezza dell'IA; il titolo dell'articolo fornito appare privo di fondamento in base ai risultati della ricerca. Anthropic ha invece rafforzato la sua Responsible Scaling Policy (RSP) con una maggiore trasparenza e controlli del rischio, inclusi gli AI Safety Levels (ASL) per i modelli avanzati. L'azienda ha aggiornato la sua RSP in risposta alle lezioni apprese durante l'implementazione, non a pressioni esterne da parte del Pentagono.
Q Quali sono esattamente le misure di sicurezza per l'IA utilizzate da Anthropic?
A Le misure di sicurezza per l'IA di Anthropic includono la Responsible Scaling Policy (RSP) con gli AI Safety Levels (ASL), che comprende classificatori per bloccare contenuti chimici e biologici dannosi, controlli di accesso, red-teaming, bug bounty e sistemi di rilevamento in tempo reale. Questi comprendono i Constitutional Classifiers, il reindirizzamento delle risposte (response steering), l'applicazione delle policy sugli account e valutazioni per prevenire abusi come lo sviluppo di armi biologiche o attacchi di distillazione. Le misure di sicurezza sono integrate durante l'addestramento, la distribuzione e il monitoraggio dei modelli per garantire la sicurezza come requisito di lancio.
Q Cosa significa se un'azienda finisce nella lista nera del Pentagono?
A I risultati della ricerca non specificano cosa significhi per un'azienda essere inserita nella lista nera dal Pentagono. Non vengono fornite informazioni pertinenti sulle procedure di inserimento nella lista nera del Pentagono o sulle implicazioni per le aziende di IA come Anthropic.
Q Cosa potrebbe accadere se Anthropic rimuovesse le sue misure di sicurezza per l'IA?
A La rimozione delle misure di sicurezza per l'IA potrebbe aumentare i rischi catastrofici derivanti dall'IA avanzata, come consentire lo sviluppo di armi biologiche o altri abusi da parte di attori malevoli, poiché la RSP di Anthropic è progettata per mitigare tali rischi attraverso le protezioni ASL. Ciò potrebbe permettere a concorrenti con misure di sicurezza più deboli di dominare, portando potenzialmente a un mondo complessivamente meno sicuro, secondo la logica della policy di Anthropic. Tuttavia, Anthropic mantiene l'impegno di eguagliare o superare gli sforzi di sicurezza dei concorrenti.
Q Chi è Anthropic e qual è la sua posizione sulla sicurezza dell'IA?
A Anthropic è un'azienda di IA focalizzata sullo sviluppo di sistemi sicuri e affidabili come Claude, fondata con una forte enfasi sulla sicurezza dell'IA. La loro posizione si basa sulla Responsible Scaling Policy (RSP), che utilizza gli AI Safety Levels per imporre misure di sicurezza crescenti per i modelli avanzati, promuovendo la trasparenza, la mitigazione del rischio e protezioni leader del settore contro danni catastrofici. L'azienda conduce valutazioni approfondite, attività di red-teaming e controlli per bilanciare l'utilità con la sicurezza.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!