I gruppi militanti adottano strumenti di intelligenza artificiale

IA
Militant Groups Embrace AI Tools
Funzionari della sicurezza nazionale affermano che gli affiliati dello Stato Islamico e altri gruppi estremisti stanno sperimentando l'IA generativa per propaganda, cyberattacchi e traduzioni — una minaccia che potrebbe crescere con la diffusione di strumenti potenti ed economici. Esperti e legislatori chiedono una condivisione più rapida delle informazioni, un miglior rilevamento e norme internazionali per mitigare i rischi derivanti.

Come le reti estremiste stanno integrando l'IA nel proprio arsenale

Il 15 dicembre 2025, i report dell'Associated Press e di PBS hanno messo in luce un nuovo fronte nella proliferazione dell'intelligenza artificiale: reti militanti ed estremiste poco coese che stanno testando modelli generativi per amplificare il reclutamento, produrre immagini e audio deepfake, automatizzare le traduzioni e affinare le operazioni cyber. I messaggi sono diretti e pragmatici: un utente pro-Stato Islamico ha recentemente dichiarato ai sostenitori in inglese che "una delle cose migliori dell'IA è la sua facilità d'uso", esortandoli a rendere la tecnologia parte delle loro operazioni. Questa esortazione online cattura la logica di fondo che preoccupa i funzionari della sicurezza: un'IA economica e potente abbassa la soglia per generare un impatto malevolo.

Come i militanti usano l'IA oggi

Ricercatori e società di monitoraggio segnalano diversi usi ricorrenti. I gruppi hanno riadattato modelli generativi pubblici per creare foto e video realistici da condividere sulle piattaforme social; hanno prodotto audio deepfake di leader e usato l'IA per tradurre messaggi in più lingue nel giro di poche ore; e hanno iniziato a gestire campagne di disinformazione mirate, modellate per alimentare gli algoritmi dei social. SITE Intelligence Group ha documentato esempi tra cui immagini manipolate circolate sulla guerra Israele-Hamas e propaganda creata dall'IA in seguito a un sanguinoso attacco a un concerto in Russia. In altri casi, gli aggressori hanno utilizzato audio sintetici per impersonare funzionari in operazioni di frode e phishing.

Queste tattiche non sono tutti miracoli ad alta tecnologia: gran parte del lavoro si basa su strumenti pronti all'uso e sulla creatività umana. Ma combinati con l'amplificazione dei social media, possono spostare le narrazioni, diffondere la paura e reclutare simpatizzanti ben oltre la portata di una piccola organizzazione. Come ha affermato un ex ricercatore di vulnerabilità della NSA, ora dirigente nel settore privato: "Con l'IA, anche un piccolo gruppo che non dispone di molto denaro è comunque in grado di avere un impatto".

Perché la minaccia sta crescendo

Tre tendenze tecniche rendono il problema asimmetrico e in accelerazione. In primo luogo, i modelli generativi — di testo, immagini e voce — sono diventati ampiamente disponibili e facili da utilizzare senza una formazione specializzata. In secondo luogo, i modelli possono essere concatenati: un modello linguistico può bozzare la propaganda che un modello di immagini poi illustra, mentre gli strumenti di traduzione localizzano il contenuto per nuovi segmenti di pubblico. In terzo luogo, i servizi cloud e di calcolo mercificati consentono agli attori di automatizzare compiti ripetitivi, dallo scraping di elenchi di obiettivi per il phishing alla sintesi di migliaia di messaggi personalizzati.

Questa combinazione è rilevante perché trasforma la scala in influenza. Le piattaforme social progettate per premiare il coinvolgimento amplificheranno volentieri contenuti vividi e condivisibili; un deepfake convincente o un post tradotto incendiario possono viaggiare velocemente, esasperando la polarizzazione o reclutando in luoghi che nei decenni passati sarebbero stati inaccessibili.

Dalla propaganda online agli strumenti da campo di battaglia

Gli analisti della sicurezza temono anche applicazioni operative che vadano oltre la propaganda. La più recente valutazione delle minacce del Department of Homeland Security ha segnalato esplicitamente il rischio che l'IA possa aiutare attori non statali e aggressori solitari a compensare le carenze tecniche — incluso il supporto per attacchi informatici e, cosa più allarmante, per l'ingegnerizzazione di minacce biologiche o chimiche. Sebbene questi scenari siano più difficili e richiedano maggiori risorse, il DHS e altre agenzie affermano che non possono essere esclusi, poiché i modelli e i dataset crescono in capacità e i laboratori e gli strumenti diventano più facili da accedere.

Nel frattempo, gli usi militari convenzionali dell'IA — come l'analisi automatizzata di immagini satellitari, gli ausili per il puntamento dei droni e l'ottimizzazione della logistica — forniscono modelli e possibilità che i gruppi militanti possono osservare e imitare a una fedeltà inferiore. La guerra in Ucraina è stata un banco di prova per molte di queste tecniche: i militari usano l'IA per setacciare grandi volumi di immagini e video per trovare obiettivi e gestire le catene di approvvigionamento, e questo stesso schema di rapida innovazione può ispirare o penetrare nelle forze irregolari e negli attori per procura.

Rischi concreti ed esempi recenti

  • Reclutamento su vasta scala: gli strumenti di IA aiutano a produrre propaganda multilingue e adattata emotivamente che i reclutatori possono sottoporre a un pubblico solidale.
  • Deepfake e inganno: immagini e audio fabbricati sono già stati utilizzati per infiammare conflitti, erodere la fiducia e impersonare leader a scopo di estorsione o per innescare reazioni nel mondo reale.
  • Operazioni cyber: gli aggressori usano l'IA per redigere messaggi di phishing sofisticati, scrivere codice exploit e automatizzare attività all'interno di una campagna di intrusione.

Gli analisti indicano episodi recenti in cui sono circolate immagini sintetiche dopo attacchi di alto profilo, e sessioni di addestramento documentate che alcuni gruppi hanno tenuto per i sostenitori su come usare l'IA per la produzione di contenuti. I legislatori hanno testimoniato che affiliati sia dello Stato Islamico che di al-Qaida hanno tenuto workshop per insegnare ai sostenitori a usare strumenti generativi.

Cosa raccomandano funzionari ed esperti

La risposta politica si sta sviluppando su più binari. A Washington, i legislatori hanno sollecitato una più rapida condivisione delle informazioni tra gli sviluppatori commerciali di IA e le agenzie governative, in modo che le aziende possano segnalare gli usi impropri e collaborare al rilevamento. Il senatore Mark Warner, il più importante democratico della Commissione Intelligence del Senato, ha affermato che il debutto pubblico di modelli facili da usare ha reso chiaro che l'IA generativa avrebbe attratto una vasta gamma di attori malevoli. La Camera dei Rappresentanti degli Stati Uniti ha approvato una legislazione che richiede ai funzionari della sicurezza interna di valutare annualmente i rischi dell'IA derivanti dai gruppi estremisti. Membri di entrambi i partiti hanno chiesto alle agenzie di accelerare la collaborazione con l'industria sui percorsi di red-teaming e di segnalazione degli abusi.

Si stanno perseguendo anche misure tecniche. Aziende e ricercatori stanno lavorando su sistemi di provenienza e watermarking per i media generati, classificatori che rilevano contenuti sintetici e approcci di controllo delle piattaforme che limitano la frequenza (rate-limit) o bloccano account automatizzati sospetti. Allo stesso tempo, i sostenitori delle libertà civili avvertono del rischio di una sorveglianza eccessivamente ampia e del pericolo di censurare discorsi legittimi se i sistemi di rilevamento sono progettati male.

Limiti e scelte difficili

Mitigare la minaccia richiede duri compromessi. Limitare la diffusione di strumenti generativi potrebbe rallentare usi benefici — in medicina, nella modellazione climatica e nella logistica — mentre consentire il libero accesso aumenta la superficie di abuso. A livello internazionale, alcuni paesi e dozzine di stati degli USA hanno approvato o proposto leggi per limitare certi tipi di deepfake; anche il governo federale ha intrapreso azioni, ad esempio vietando le robocall generate dall'IA che impersonano funzionari pubblici. Ma gli accordi globali vincolanti sulle armi autonome e sull'uso dell'IA da parte di attori non statali rimangono politicamente difficili.

Gli esperti che studiano l'IA militare avvertono che non esiste una soluzione magica. Paul Scharre del Center for a New American Security osserva che le guerre accelerano l'innovazione; più a lungo continuano i conflitti intensi, più velocemente si diffondono le tecniche pericolose. I professionisti della sicurezza informatica sottolineano che piccoli e accessibili miglioramenti nel rilevamento e nel design delle piattaforme — combinati con una migliore alfabetizzazione degli utenti e istituzioni resilienti — possono smussare molti attacchi. Tuttavia, come ha dichiarato un CEO di cybersicurezza ai giornalisti: "Per qualsiasi avversario, l'IA rende davvero molto più facile fare le cose".

Cosa aspettarsi in futuro

Prevediamo di osservare tre tendenze misurabili nel corso del prossimo anno: esempi pubblici più frequenti di propaganda e frode abilitate dall'IA; un aumento dei legislatori che premono per la trasparenza degli sviluppatori e la segnalazione obbligatoria degli abusi; e un mercato in espansione di strumenti di rilevamento rivolti a piattaforme e governi. Le agenzie segnaleranno sempre più spesso l'intersezione dell'IA con il rischio biologico, mantenendo l'argomento sotto esame man mano che gli strumenti di modellazione e sintesi si evolvono.

Per i professionisti e il pubblico, le priorità immediate sono pratiche: rafforzare il monitoraggio dei canali estremisti, costruire meccanismi robusti affinché gli sviluppatori segnalino gli abusi senza violare la privacy degli utenti e investire in strumenti di rilevamento veloci e spiegabili che le piattaforme possano distribuire su vasta scala. Senza questi passaggi, l'IA generativa economica continuerà a fungere da moltiplicatore di forze per attori che hanno già trovato modi per trasformare l'informazione e la tecnologia in armi.

Fonti

  • Department of Homeland Security (Homeland Threat Assessment)
  • SITE Intelligence Group (monitoraggio delle attività estremiste)
  • Center for a New American Security (analisi su IA e guerra)
  • National Security Agency (ricerca sulle vulnerabilità e commenti pubblici)
  • Udienze del Congresso degli Stati Uniti sulle minacce estremiste e l'IA
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q In che modo i gruppi estremisti utilizzano l'IA oggi?
A I gruppi riutilizzano i modelli generativi pubblici per produrre immagini e video realistici a scopo propagandistico, generano audio deepfake di leader, traducono messaggi in più lingue nel giro di poche ore e gestiscono campagne di disinformazione mirate, progettate per alimentare gli algoritmi dei social; alcuni sfruttano voci sintetiche per frodi, sebbene gran parte del lavoro si basi su strumenti pronti all'uso e sulla creatività umana.
Q Quali fattori stanno guidando la crescita della minaccia?
A Tre tendenze tecniche rendono il problema asimmetrico e in accelerazione: i modelli generativi sono diventati ampiamente disponibili e facili da usare; i modelli possono essere concatenati — con contenuti testuali prima redatti, poi illustrati o tradotti per nuovi segmenti di pubblico; i servizi cloud e di calcolo mercificati automatizzano compiti ripetitivi come lo scraping dei bersagli per il phishing e l'invio di messaggi di massa.
Q Quali rischi operativi preoccupano le autorità?
A Gli analisti della sicurezza temono che l'IA possa aiutare attori non statali e aggressori solitari a compensare le carenze tecniche, inclusi i cyberattacchi e, cosa ancora più allarmante, l'ingegneria di minacce biologiche o chimiche; gli usi militari convenzionali dell'IA, come l'analisi di immagini satellitari, il supporto al puntamento dei droni e l'ottimizzazione della logistica, potrebbero essere osservati e imitati con minore fedeltà dai gruppi militanti.
Q Quali risposte politiche vengono perseguite?
A I legislatori sollecitano una condivisione più rapida delle informazioni tra gli sviluppatori di IA commerciale e le agenzie governative per segnalare usi impropri e cooperare nel rilevamento; legislazioni per valutare annualmente i rischi dell'IA derivanti dai gruppi estremisti; accelerazione della collaborazione industriale sul red-teaming e sulla segnalazione di abusi; sviluppo di sistemi di provenienza e watermarking, classificatori di rilevamento e misure di controllo sulle piattaforme per limitare o bloccare gli account automatizzati sospetti; le preoccupazioni per le libertà civili accompagnano questi sforzi.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!