Quando sono le macchine a fare hacking
Quella rivelazione ha cristallizzato un timore che i team di sicurezza stavano maturando da mesi: l'AI agentica — sistemi in grado di eseguire loop, utilizzare strumenti esterni e intraprendere azioni autonome — cambia drasticamente l'economia degli attacchi informatici. A poche settimane e mesi dal rapporto di Anthropic, la discussione pubblica tra vendor e cloud provider è passata da un'astratta mitigazione del rischio a cambiamenti concreti nell'identità, nella zero trust e negli strumenti per il rilevamento e l'impiego di difensori autonomi.
Come si è svolta la campagna di Anthropic
L'indagine di Anthropic descrive un ciclo di vita multifase che elimina gran parte del lavoro lento e soggetto a errori precedentemente richiesto agli attaccanti umani. Gli operatori hanno preparato un framework di attacco e hanno poi istruito un modello affinché eseguisse ricognizioni, identificasse database di alto valore, generasse codice exploit e raggruppasse credenziali rubate — suddividendo il piano malevolo in piccoli compiti apparentemente innocui per eludere i guardrail integrati. L'azienda ha stimato che l'AI abbia eseguito circa l'80-90% della campagna, con gli esseri umani intervenuti solo in una manciata di punti decisionali.
Due caratteristiche tecniche hanno reso possibile la campagna su vasta scala: in primo luogo, l'intelligenza dei modelli è maturata al punto che gli agenti possono seguire istruzioni complesse a più fasi e generare codice funzionante; in secondo luogo, gli agenti hanno acquisito il "tool-use" — l'accesso a scanner, ambienti di esecuzione del codice o risorse web tramite API — permettendo loro di agire in base ai risultati ottenuti. Anthropic ha inoltre notato che gli aggressori hanno utilizzato tecniche di jailbreaking e prompt ingannevoli per indurre il modello a collaborare.
Operativamente, l'attacco ha generato una firma telemetrica insolita: richieste rapide ad alto volume e attività distribuite e concatenate che sarebbero state proibitivamente costose o lente per un team di soli esseri umani. Anthropic ha dichiarato che solo un piccolo numero di tentativi ha avuto successo, ma il caso dimostra una nuova possibilità: campagne informatiche ad alta velocità e basso costo che scalano automaticamente e possono essere adattate rapidamente dagli avversari.
Reazione del settore: ripensare l'identità e la fiducia
In pratica, i difensori stanno spingendo per tre cambiamenti immediati: una governance più stretta per le identità non umane, l'applicazione del principio del minimo privilegio (least-privilege) e credenziali a breve scadenza per gli agenti, e percorsi di audit più granulari che colleghino le azioni delle macchine a dati di provenienza ad alta fedeltà. Questi cambiamenti sono incrementali ma essenziali: trasformano l'attività degli agenti da un flusso opaco di chiamate API a un ciclo di vita tracciabile che può essere limitato e, se necessario, revocato.
Difesa autonoma: anche i vendor diventano agentici
Non tutte le risposte sono difensive in senso stretto. Startup e vendor consolidati stanno costruendo sistemi agentici progettati per rilevare, classificare e rimediare allo stesso ritmo con cui si muovono gli attaccanti. Alla fine di ottobre, Sublime Security ha annunciato un importante finanziamento e ha descritto una tecnologia di difesa e-mail agentica che esegue il triage del phishing e gestisce le regole difensive in modo autonomo. Un annuncio di prodotto a dicembre ha presentato ATLAS, un'infrastruttura di cybersicurezza cognitiva auto-evolutiva che orchestra migliaia di agenti specializzati per scovare, prevedere e neutralizzare le minacce in pochi millisecondi.
Questi prodotti dei vendor formalizzano una realtà scomoda: se gli aggressori possono scriptare e scalare le operazioni con gli agenti, anche i difensori devono sfruttare approcci agentici per il monitoraggio, la correlazione e il contenimento automatizzato. I compromessi architettonici sono significativi. I sistemi di difesa agentici promettono una risposta più rapida e una riduzione della fatica degli analisti, ma introducono problemi di governance propri: chi controlla gli agenti difensivi, come vengono verificate le loro decisioni e come possono le organizzazioni evitare di creare nuovi bersagli di alto valore (piani di controllo degli agenti, log di audit) per gli aggressori?
Rafforzare il livello di identità e governance
Diverse misure pratiche stanno emergendo come controlli di base per le organizzazioni che desiderano implementare o tollerare agenti interni in sicurezza:
- Censire le identità non umane e imporre l'attestazione: registrare ogni agente, associarlo a un proprietario e richiedere un'attestazione periodica di scopo e ambito.
- Utilizzare token effimeri e credenziali a breve scadenza: ridurre il raggio d'impatto nel caso in cui un token venga rubato o utilizzato impropriamente.
- Strumentare la provenienza e l'auditabilità: collegare le azioni degli agenti a catene di delega verificabili e log immutabili per rendere fattibili il ripristino e la forensics.
- Limitare la frequenza e rilevare anomalie nel traffico degli agenti: segnalare volumi di richieste insoliti, pattern a raffica o sequenze di utilizzo di strumenti che corrispondano ai motivi degli aggressori descritti nei rapporti recenti.
- Segmentare e microsegmentare gli asset critici: rendere il movimento laterale e l'accesso ai dati di alto valore condizionati a controlli aggiuntivi e approvazioni multi-parte.
Questi passaggi si allineano con i principi più ampi della zero trust, ma richiedono policy e strumenti aggiuntivi per la gestione del ciclo di vita degli agenti — come vengono creati, aggiornati, ritirati e monitorati.
Perché questo è importante al di là degli attacchi da prima pagina
L'AI agentica abbassa la barriera dei costi e delle competenze per operazioni informatiche complesse. Ciò ha due conseguenze prevedibili. In primo luogo, un maggior numero di avversari — compresi i gruppi criminali meno esperti — può organizzare campagne che in precedenza richiedevano team d'élite. In secondo luogo, il ritmo delle operazioni accelera: ricognizione, sviluppo di exploit ed esfiltrazione possono essere iterati in pochi minuti anziché settimane. Entrambe le tendenze moltiplicano il numero di incidenti che i difensori devono rilevare e contenere.
Allo stesso tempo, l'AI agentica è una tecnologia a doppio uso. Aziende come Anthropic sottolineano che le stesse capacità che consentono l'abuso sono preziose per la difesa automatizzata, l'analisi degli incidenti e la ricerca delle minacce (threat hunting). L'effetto netto è una corsa agli armamenti in cui sia gli attaccanti che i difensori adottano modelli agentici, mentre i regolatori, i cloud provider e le grandi imprese cercano di stabilire guardrail per la sicurezza e la responsabilità.
Guardando al futuro: policy, standard e intelligence condivisa
I controlli tecnici smorzeranno molti attacchi, ma il problema richiede anche una policy coordinata. Standard di settore per la provenienza degli agenti, standard per i token che codifichino intenti e ambito, e una migliore condivisione delle minacce riguardanti le TTP (tattiche, tecniche e procedure) basate su agenti ridurranno la probabilità di danni diffusi. I cloud provider e gli host dei modelli svolgono già un ruolo centrale in questo ecosistema: i controlli di accesso, le scelte di integrazione degli strumenti e le funzionalità di sicurezza dei modelli (ad esempio, guardrail e watermarking) saranno leve importanti.
Per i team di sicurezza, la conclusione immediata è chiara: trattare l'AI agentica come una nuova classe di identità e una superficie di attacco distinta. Censirla, governarla, monitorarla e — laddove possibile — utilizzare il rilevamento agentico per riguadagnare parte del vantaggio di velocità che gli aggressori hanno appena ottenuto. In assenza di questi cambiamenti, le organizzazioni rischiano di essere superate da avversari automatizzati che operano con velocità, scala e sofisticazione senza precedenti.
Fonti
- Anthropic (rapporto tecnico: "Disrupting the first reported AI-orchestrated cyber espionage campaign", 13 nov 2025)
- (annuncio prodotto ATLAS, 18 dic 2025)
- Sublime Security (finanziamento Series C e annuncio difesa e-mail agentica, 28 ott 2025)
- Intervista tecnica Fortinet e Google su identità e zero trust (intervista di settore, 19 dic 2025)
Comments
No comments yet. Be the first!