Il Pentagono concede pochi giorni ad Anthropic: un ultimatum lapidario
La frase "il Pentagono concede pochi giorni ad Anthropic" è ormai più di un titolo su internet: questa settimana il Pentagono ha esercitato pressioni su Anthropic con una scadenza di tre giorni per rimuovere le barriere di sicurezza dal suo modello Claude, pena l'essere etichettata come rischio per la catena di approvvigionamento ed essere esclusa dalle attività della difesa statunitense. La richiesta è stata formulata durante un teso incontro martedì mattina al Pentagono, a cui hanno partecipato il Segretario alla Difesa Pete Hegseth e alti legali del dipartimento, secondo quanto riportato dai partecipanti e dai comunicati aziendali. La scelta presentata ad Anthropic è stata netta: acconsentire alle condizioni del Pentagono, o finire nella lista nera ed essere potenzialmente costretta ai sensi del Defense Production Act (DPA).
Il Pentagono concede pochi giorni ad Anthropic — cosa è successo durante l'incontro
I funzionari presenti all'incontro hanno riferito ai giornalisti che il tono è stato conflittuale. Un funzionario della difesa ha descritto la sessione come "tutt'altro che amichevole", e un altro ha riconosciuto il paradosso per cui il Pentagono dipende simultaneamente dai modelli di frontiera pur non essendo disposto ad accettare che aziende private pongano condizioni sull'uso militare. L'amministratore delegato di Anthropic, Dario Amodei, ha partecipato all'incontro e, dopo il colloquio, l'azienda ha rilasciato una dichiarazione affermando di rimanere impegnata a sostenere le missioni legittime di sicurezza nazionale, preservando al contempo un comportamento del modello sicuro e testabile.
L'innesco immediato del confronto, come descritto dai resoconti della stampa, è stato una serie di rivelazioni sull'uso del modello Claude — senza preavviso ad Anthropic — in un'operazione militare di gennaio. Quell'episodio, e le relative notizie, hanno intensificato le pressioni all'interno del Pentagono per insistere su un accesso illimitato. Il Dipartimento della Difesa è stato esplicito riguardo a una tabella di marcia a breve termine per l'accelerazione dell'IA: una strategia bellica "AI‑first" pubblicata a gennaio ha delineato progetti dimostrabili per quest'estate, e alti funzionari affermano di aver bisogno ora dei modelli più capaci per rispettare tali scadenze.
Insieme all'ultimatum, il Pentagono ha annunciato un accordo separato per distribuire il modello Grok di xAI su reti militari classificate sotto la dicitura "tutti gli scopi leciti". Le differenze riportate nei termini contrattuali tra le due società — una che accetta un linguaggio di utilizzo ampio mentre l'altra resiste — hanno sottolineato il messaggio dell'amministrazione: lo Stato non tollererà restrizioni da parte dei fornitori che ritiene incompatibili con le necessità operative.
Il Pentagono concede pochi giorni ad Anthropic — strumenti legali e minaccia di esclusione
Il Pentagono ha inquadrato le sue opzioni in due ambiti legali: l'inserimento nella lista nera come rischio per la catena di approvvigionamento e l'invocazione del Defense Production Act per imporre comportamenti specifici. Finire nella lista nera significherebbe annullare i futuri contratti del Pentagono e fare pressione sui principali contraenti affinché interrompano i legami. In pratica, ciò escluderebbe Anthropic da una grossa fetta di entrate e partnership governative, e segnalerebbe agli altri clienti di riconsiderare i rapporti commerciali. L'avvertimento ha finalità punitive: intende costringere un'azienda a scegliere tra un modello di business filtrato e la perdita di redditizi incarichi governativi.
Il Defense Production Act occupa una posizione legale diversa. Il DPA concede al presidente ampi poteri per richiedere alle aziende di dare priorità e accettare contratti governativi e per produrre beni e servizi necessari alla difesa nazionale. Per l'IA, questo potrebbe essere usato per ordinare a un fornitore di personalizzare o riconfigurare i modelli, rimuovere particolari funzioni di sicurezza o fornire un accesso tecnico per compiti classificati. L'uso del DPA contro un fornitore di software in questo modo sarebbe inedito e legalmente contestato, ma i funzionari del Pentagono lo avrebbero citato come uno strumento credibile per imporre la conformità.
Per gli osservatori esterni e gli studiosi di diritto, queste opzioni sollevano interrogativi immediati sui precedenti e sulla supervisione. L'inserimento nella lista nera cambia il panorama delle forniture attraverso un atto amministrativo d'imperio; il DPA attuerebbe un cambiamento tecnico forzato a un prodotto. Entrambe le misure hanno implicazioni per l'autonomia aziendale, le libertà civili e il mercato internazionale dell'IA di frontiera.
Le tutele di Anthropic e il posizionamento aziendale
Anthropic ha descritto il suo regime di sicurezza in documenti pubblici e interviste come un mix di barriere tecniche e politiche. Tali tutele includono il filtraggio dei contenuti, modalità di rifiuto per certe classi di richieste e dichiarazioni programmatiche esplicite che vietano applicazioni come le "armi completamente autonome" e la "sorveglianza domestica di massa degli americani". L'azienda ha anche resistito alla firma di contratti con un linguaggio generico che impegna a sostenere "tutti gli scopi leciti", sostenendo che tale formulazione eliminerebbe limiti significativi sulle modalità di distribuzione dei modelli.
Tale posizione, tuttavia, si affianca a una storia di impegni commerciali e governativi. Anthropic ha portato avanti distribuzioni su reti classificate con partner infrastrutturali, ha lanciato un'offerta orientata al governo chiamata Claude Gov e si è aggiudicata importanti contratti con clienti della difesa. L'azienda annovera tra i suoi sostenitori anche importanti investitori nel settore cloud e dei chip, e intrattiene relazioni commerciali che la intrecciano con l'ecosistema dell'intelligence militare. Questi intrecci complicano le affermazioni secondo cui l'azienda sarebbe del tutto estranea alle priorità della difesa.
Alla domanda sul perché il Pentagono abbia concesso ad Anthropic tre giorni per eliminare le tutele dell'IA, gli osservatori indicano un mix di pressione strategica e domanda operativa immediata. Il dipartimento vuole un percorso testato e spiegabile per integrare rapidamente i modelli di grandi dimensioni nella pianificazione delle missioni, nella logistica e nei sistemi d'arma. Qualsiasi restrizione del fornitore che possa impedire un uso rapido e senza vincoli — specialmente sotto lo standard legale di "tutti gli scopi leciti" — viene presentata dal Pentagono come un rischio inaccettabile per la prontezza operativa.
Cosa significherebbero in pratica l'esclusione e il ritiro delle tutele
Se Anthropic venisse inserita nella lista nera, l'azienda perderebbe l'accesso diretto a molte opportunità nel settore della difesa; ai contraenti potrebbe essere ordinato di tagliare i ponti e i canali di approvvigionamento governativi verrebbero chiusi. Se invece Anthropic rimuovesse le tutele sotto pressione o costrizione, la conseguenza tecnica immediata sarebbe avere modelli che accettano una gamma più ampia di prompt e istruzioni operative, comprese quelle relative al targeting, alla sorveglianza o ad altre missioni sensibili.
Gli effetti a valle sarebbero sia tecnici che sociali. La rimozione delle barriere di sicurezza aumenta il rischio che i modelli vengano riconvertiti per la sorveglianza di massa, consentendo ai sistemi di monitoraggio automatizzati di scalare più velocemente. Potrebbe accelerare l'integrazione nei sistemi di supporto alle armi dove la supervisione umana potrebbe essere limitata. Dal punto di vista della sicurezza, l'allentamento dei vincoli può degradare la capacità di testare e sottoporre a audit i modelli per quanto riguarda bias, allucinazioni e vulnerabilità avversarie — problemi che già rendono rischioso l'impiego dei modelli in sistemi critici per la vita umana.
Per le libertà civili e le norme internazionali, la posta in gioco è alta: modelli privi di restrizioni potrebbero essere utilizzati per programmi di sorveglianza interna su larga scala, disinformazione mirata di massa o operazioni estere con soglie di prova inferiori. Sono esattamente i compromessi che l'azienda ha dichiarato pubblicamente di voler evitare, il che aiuta a spiegare perché la disputa sia diventata un punto critico.
Implicazioni più ampie: mercati, politica e il futuro dell'IA militare
Questo confronto illustra una tensione più ampia nell'ecosistema dell'IA. I governi vogliono un accesso prevedibile e verificabile ai modelli più capaci per accelerare le applicazioni belliche. Molte aziende, d'altra parte, temono contraccolpi reputazionali ed etici derivanti da un uso militare senza restrizioni. La spaccatura è accentuata dalla politica: le aziende disposte ad accettare un linguaggio contrattuale ampio ottengono un accesso rapido alle reti governative, mentre quelle che cercano di mantenere limiti condizionali rischiano l'esclusione o la coercizione.
Sottolinea inoltre una raggelante realtà operativa: quando una capacità tecnologica è giudicata strategicamente necessaria, lo Stato può ricorrere a straordinarie pressioni legali ed economiche per assicurarsela. Questa dinamica costringerà i fornitori privati di IA a soppesare imperativi commerciali, aspettative degli investitori, esposizione legale e controllo pubblico nelle trattative con i governi. Per i decisori politici, l'episodio solleva interrogativi sulla trasparenza, la supervisione e le norme internazionali che regolano l'IA in contesti militari.
Per i ricercatori, gli ingegneri e il pubblico, l'esito sarà importante perché determinerà il modo in cui i modelli più avanzati vengono governati e testati. Se l'industria accetta la rimozione totale delle tutele in nome della sicurezza nazionale, lo spazio per la ricerca indipendente sulla sicurezza, l'audit pubblico e la protezione delle libertà civili si ridurrà. Al contrario, se le aziende difenderanno con successo alcuni limiti, la contesa potrebbe spingere il governo a sviluppare le proprie capacità interne o a creare regole di approvvigionamento che bilancino le necessità operative con i requisiti di sicurezza.
La tempistica immediata rimane breve: la richiesta di tre giorni del Pentagono ha messo Anthropic sotto un'enorme pressione per scegliere una strada. Qualunque sia la decisione, l'episodio sarà un caso di prova per verificare se le aziende private di IA possano porre limiti efficaci all'uso militare dei modelli di frontiera, o se lo Stato imporrà un accesso più ampio in nome della prontezza della difesa.
Fonti
- Materiali stampa del Dipartimento della Difesa degli Stati Uniti
- Materiali stampa e documenti di politica pubblica di Anthropic
- Materiali stampa di xAI (Grok)
- Defense Production Act (testo e guida legale)
Comments
No comments yet. Be the first!