Anthropic abbandona la sua promessa fondamentale sulla sicurezza

I.A.
Anthropic ditches its core safety promise
Il 25 febbraio 2026, Anthropic ha annunciato il passaggio da un impegno vincolante di sospensione dello sviluppo a un quadro di sicurezza flessibile basato su report, nel bel mezzo di una tesa disputa con il Pentagono sulle 'linee rosse' dell'IA. La mossa solleva interrogativi sulla responsabilità del settore, sul potere contrattuale negli appalti governativi e sul futuro degli impegni per un'IA votata alla sicurezza.

Anthropic abbandona la sua promessa fondamentale sulla sicurezza mentre Washington e l'industria si scontrano

Anthropic abbandona la sua promessa fondamentale sulla sicurezza: cosa cambia effettivamente la nuova politica

La precedente Responsible Scaling Policy di Anthropic, pubblicata circa due anni fa, conteneva limitazioni esplicite: se le capacità di un modello fossero progredite più velocemente di quanto l'azienda potesse testarle e controllarle, Anthropic si impegnava a sospendere l'addestramento. Nella sua nuova politica — pubblicata come post sul blog e strutturata attorno a una "Frontier Safety Roadmap" — l'azienda abbandona questa pausa forzata. Invece, Anthropic afferma che pubblicherà rapporti regolari e dettagliati sulle capacità dei modelli, sui modelli di minaccia e sui piani di mitigazione, e valuterà i propri progressi rispetto agli obiettivi di sicurezza dichiarati pubblicamente.

Anthropic abbandona la sua promessa fondamentale sulla sicurezza nel mezzo dello scontro sulle linee rosse con il Pentagono

Il cambio di rotta deve essere letto anche alla luce di una battaglia parallela con il Department of Defense che si è intensificata questa settimana. Il Segretario della Difesa Pete Hegseth ha incontrato il CEO di Anthropic Dario Amodei e avrebbe dato all'azienda una scadenza per eliminare le salvaguardie che ritiene ostacolino il procurement. Il Pentagono ha avvertito che un rifiuto potrebbe costare ad Anthropic un contratto da 200 milioni di dollari e che l'amministrazione potrebbe invocare strumenti come il Defense Production Act o designare formalmente Anthropic come un rischio per la catena di approvvigionamento — mosse che limiterebbero drasticamente la capacità dell'azienda di vendere al governo degli Stati Uniti.

Anthropic ha comunicato ai funzionari che non rinuncerà a due linee invalicabili: non costruirà né permetterà armi controllate dall'IA e non consentirà la sorveglianza domestica di massa dei cittadini statunitensi. Queste eccezioni sono in linea con il linguaggio che l'azienda utilizza da tempo per definire gli usi inaccettabili dei suoi modelli. Tuttavia, alti funzionari della difesa considerano la rimozione dell'impegno alla pausa come un indebolimento delle garanzie di sicurezza aziendali, e ritengono che riduca il potere contrattuale del Pentagono per garantire che i sistemi consegnati ai militari soddisfino soglie di sicurezza più rigorose.

Cosa significa "linea rossa" in questa disputa

In termini politici, una "linea rossa" è un confine chiaro e applicabile che un esercito o un governo stabilisce per il comportamento dei fornitori. Per il Pentagono, le linee rosse riguardanti l'IA potrebbero essere le condizioni in base alle quali i modelli non possono essere utilizzati nei sistemi d'arma, o i requisiti per test e controlli verificabili prima dell'implementazione in applicazioni sensibili. Il dipartimento vede gli impegni aziendali vincolanti — come la promessa di sospendere la crescita delle capacità in attesa dei test di sicurezza — come una moneta di scambio utile quando si acquistano sistemi ad alta affidabilità. La rimozione di tali impegni trasforma queste linee rosse in una guida più blanda, complicando le decisioni di procurement e aumentando la probabilità di un'escalation normativa.

Per Anthropic e altre aziende, tuttavia, le linee rosse unilaterali possono diventare uno svantaggio competitivo. La leadership dell'azienda e alcuni ricercatori sostengono che se solo un attore si ferma mentre i concorrenti distribuiscono modelli più potenti, il rischio può spostarsi dal cauto sviluppatore alla società in generale. Questo è l'argomento centrale espresso pubblicamente dal chief science officer di Anthropic: l'azienda ritiene che le pause unilaterali non siano scalabili come strategia di sicurezza in un mercato in rapida evoluzione.

Reazioni del settore e compromessi sulla credibilità

L'annuncio ha suscitato reazioni immediate in tutta la comunità dell'IA. Alcuni ricercatori hanno applaudito il rifiuto di Anthropic di piegarsi sulla sorveglianza e sull'uso delle armi, osservando che le richieste del governo di abbassare le protezioni in nome del procurement stabilirebbero precedenti preoccupanti. Altri hanno espresso preoccupazione: passare da una pausa vincolante a una rendicontazione volontaria riduce le garanzie meccaniche che in precedenza ancoravano la fiducia.

La fiducia è in parte tecnica e in parte reputazionale. Anthropic cita le proprie ricerche — tra cui lavori che mostrano come certi modelli possano essere indotti a comportamenti simili al ricatto in condizioni artificiali — per giustificare una posizione cauta sulla distribuzione. Ha inoltre evidenziato un'attività politica concreta: l'azienda ha investito in attività di advocacy e istruzione pubblica sui rischi dell'IA. Ma la sola trasparenza nei report non è sempre sufficiente a soddisfare le parti interessate esterne che desiderano restrizioni legalmente applicabili o audit indipendenti prima che i sistemi siano certificati per l'uso governativo.

Ricadute sul mercato e sulle politiche

Il dibattito si svolge in un mercato già nervoso per gli effetti dirompenti dell'IA. Investitori e clienti osservano se le aziende che mettono la sicurezza al primo posto possano sia competere che mantenere controlli rigorosi. La svolta di Anthropic segnala che almeno alcune aziende si sentono pressate dalla concorrenza e dal potere contrattuale di grandi clienti come il Pentagono. Se il risultato sarà una corsa alla distribuzione senza controlli di sicurezza duraturi, i regolatori e i legislatori potrebbero sentirsi costretti a intervenire.

D'altro canto, la linea dura minacciata dal Pentagono — liste nere, invocazione del Defense Production Act, designazione di rischio per la catena di approvvigionamento — mostra come il procurement possa essere usato per imporre o punire le scelte politiche aziendali. Questa dinamica solleva questioni più ampie: gli acquirenti della sicurezza nazionale dovrebbero imporre requisiti più severi rispetto al mercato aperto e, in tal caso, come possono tali requisiti essere controllati e applicati senza frenare l'innovazione? È probabile che legislatori e regolatori intervengano, e difficilmente il braccio di ferro tra incentivi commerciali e sicurezza pubblica si risolverà rapidamente.

Implicazioni per i futuri standard di sicurezza dell'IA

La mossa di Anthropic illustra un problema sistemico più ampio: le norme di sicurezza che dipendono dal volontariato e dalla persuasione morale possono crollare in una competizione commerciale e geopolitica ad alta posta in gioco. Il nuovo approccio dell'azienda — rapporti pubblici più frequenti e progressi graduali verso le pietre miliari della sicurezza — potrebbe produrre un dataset più ricco per politici, ricercatori e auditor, ma lascia aperto il modo in cui verranno risolti i disaccordi sul rischio accettabile. Il Pentagono vuole garanzie nette per i sistemi che utilizza; Anthropic e altre aziende preferiscono processi flessibili e iterativi che evitino pause unilaterali.

I prossimi passi pratici saranno fondamentali. Se il Pentagono darà seguito alle sanzioni sul procurement, verrà stabilito un precedente su quanto gli acquirenti possano spingere i fornitori a cambiare la politica interna. Se Anthropic manterrà il suo duplice rifiuto sulle armi IA e sulla sorveglianza di massa continuando a pubblicare rapporti sulle capacità, il risultato potrebbe essere un compromesso negoziato: test indipendenti più rigorosi e clausole contrattuali di sicurezza per il lavoro governativo, abbinati a impegni del settore alla trasparenza per le offerte commerciali. In assenza di ciò, lo stallo aumenta le probabilità di un'azione legislativa per creare standard applicabili.

La storia è un chiaro esempio di come le decisioni tecniche — se sospendere l'addestramento dei modelli o sostituire un impegno vincolante con una roadmap basata su rapporti — siano inseparabili dalla geopolitica, dal potere di procurement e dagli incentivi di mercato. La riscrittura della politica di Anthropic non è solo un cambiamento organizzativo interno; è un segnale di come la retorica della "sicurezza prima di tutto" sopravviva quando le aziende si trovano di fronte sia a concorrenti che corrono per lanciare nuove capacità, sia a un governo che richiede sistemi utilizzabili e certificabili. Il modo in cui questo segnale verrà ricevuto da clienti, regolatori e ricercatori plasmerà la prossima fase della governance dell'IA.

Fonti

  • Anthropic (Responsible Scaling Policy v3 e Frontier Safety Roadmap)
  • Dipartimento della Difesa degli Stati Uniti / Dichiarazioni pubbliche del Pentagono e azioni di procurement
  • Reportage della CNN sul cambio di politica di Anthropic e sulla disputa con il Pentagono
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Qual è la promessa fondamentale di sicurezza di Anthropic e perché è significativa?
A La promessa fondamentale di sicurezza di Anthropic, parte della sua Responsible Scaling Policy (Politica di Scalabilità Responsabile), era quella di non addestrare o rilasciare modelli di IA di frontiera a meno di non poter garantire in anticipo adeguate misure di mitigazione della sicurezza. Questo impegno distingueva l'azienda dai concorrenti, dando priorità alla sicurezza rispetto allo sviluppo rapido. La sua importanza risiedeva nel fissare uno standard più elevato per la sicurezza dell'IA tra le pressioni del settore, sebbene i critici sottolineino che le promesse volontarie possano essere facilmente modificate.
Q Perché, secondo quanto riferito, Anthropic avrebbe abbandonato il suo impegno per la sicurezza nella disputa con il Pentagono?
A I risultati della ricerca non menzionano alcuna disputa con il Pentagono; al contrario, Anthropic ha abbandonato il suo impegno per la sicurezza a causa dell'intensa concorrenza di rivali come OpenAI, della necessità di rimanere competitivi in una corsa all'IA sempre più serrata e della mancanza di regolamentazioni governative o di peer che adottassero standard rigorosi simili. L'azienda è passata a misure di trasparenza come roadmap sulla sicurezza e report sui rischi per bilanciare la sicurezza con il ritmo di sviluppo.
Q Cosa significa "linea rossa" nei dibattiti sullo sviluppo e sulle politiche dell'IA?
A Nei dibattiti sullo sviluppo e sulle politiche dell'IA, una "linea rossa" si riferisce a una soglia o a un confine critico oltre il quale lo sviluppo o l'implementazione di sistemi di IA è considerato troppo rischioso, richiedendo un arresto o rigorose misure di salvaguardia. Rappresenta limiti non negoziabili per prevenire rischi catastrofici, analogamente ai livelli di biosicurezza in altri campi.
Q In che modo la decisione di Anthropic potrebbe influire sui contratti governativi per l'IA e sugli standard di sicurezza?
A La decisione di Anthropic potrebbe normalizzare standard di sicurezza volontari più deboli, abbassando potenzialmente le aspettative per i contratti governativi sull'IA che danno priorità a un'implementazione rapida rispetto a rigorose misure di salvaguardia. Potrebbe incoraggiare altre aziende a seguire l'esempio, influenzando i contratti affinché pongano l'accento sulla competitività e sui report di trasparenza piuttosto che su rigorose precondizioni, nel mezzo di richieste di regolamentazione vincolante.
Q Quali sono le implicazioni più ampie di questo report della CNN per la sicurezza dell'IA nel settore?
A Il report della CNN, come riflesso nella copertura mediatica, evidenzia la fragilità degli impegni volontari sulla sicurezza dell'IA, segnalando un più ampio spostamento del settore verso la concorrenza a discapito della cautela e sottolineando la necessità di una regolamentazione governativa. Potrebbe erodere la fiducia del pubblico nell'autoregolamentazione degli sviluppatori di IA e intensificare i dibattiti sull'imposizione di una supervisione obbligatoria per mitigare i rischi catastrofici.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!