Il Pentagono si avvicina all'uso di IA non testata per il puntamento degli obiettivi

Pentagon Nears Untested AI in Targeting
Il Pentagono si sta orientando verso l'uso dell'IA generativa per classificare e consigliare i bersagli: sistemi che, secondo i ricercatori, non sono testati e risultano inclini a errori formulati con eccessiva sicurezza. Gli esperti chiedono stress test rigorosi, revisioni legali e una supervisione umana più forte prima di qualsiasi impiego in scenari critici.

Questa settimana le cronache hanno rivelato che il Pentagono è prossimo all'impiego di IA non testate per decisioni di targeting di vita o di morte, passando dalle dimostrazioni a progetti pilota operativi che consentirebbero ai modelli generativi di classificare liste di potenziali bersagli e produrre raccomandazioni che gli operatori umani andrebbero poi a convalidare. Il piano, come descritto nei briefing e nei recenti resoconti, non propone sistemi letali completamente autonomi; il Dipartimento della Difesa si sta invece preparando a integrare modelli linguistici di grandi dimensioni e modelli generativi nei flussi di lavoro di targeting come supporti decisionali. Questa mossa a breve termine ha suscitato allarme tra ricercatori ed eticisti, i quali evidenziano modalità di errore chiare e misurabili nei sistemi attuali e citano recenti ricerche sull'IA in ambito medico che mostrano come raccomandazioni errate, fornite con estrema sicurezza, possano propagarsi all'interno dei processi operativi.

Pentagono prossimo all'uso di IA non testate nel targeting: svolta operativa

Documenti e rapporti indicano che il Pentagono sta accelerando gli esperimenti che inseriscono i dati del campo di battaglia in sistemi di IA generativa per produrre liste di bersagli classificate e linee d'azione raccomandate, lasciando agli esseri umani la decisione finale. L'architettura proposta tratta l'IA come un assistente piuttosto che come un esecutore: i modelli sintetizzerebbero immagini, segnali e altri flussi di dati in opzioni prioritarie e relative motivazioni a supporto. I sostenitori sostengono che ciò potrebbe comprimere un lungo ciclo di intelligence, aiutando i comandanti a elaborare torrenti di dati provenienti dai sensori durante scenari in rapida evoluzione.

Ma definire un sistema "assistente" non elimina il rischio operativo. Quando modelli non verificati vengono inseriti in una pipeline decisionale, gli errori possono apparire non come fallimenti esotici ma come asserzioni apparentemente plausibili: raccomandazioni brevi e ben formulate che sembrano autorevoli. La frase "il Pentagono si avvicina all'uso di IA non testate" cattura questa tensione: le macchine vengono preparate per compiti con conseguenze fatali prima che il settore abbia stabilito metodi trasparenti e standardizzati per misurare l'affidabilità in condizioni avversarie e casi limite.

Pentagono prossimo all'uso di IA non testate nel targeting: modalità di errore e paralleli medici

Un recente lavoro accademico in medicina fornisce un esempio concreto dei rischi che il Pentagono deve affrontare. Un ampio studio condotto dai ricercatori della Icahn School of Medicine at Mount Sinai ha testato i principali modelli linguistici su note cliniche, scoprendo che i modelli ripetevano frequentemente raccomandazioni inventate se tali affermazioni false erano inserite in un testo realistico. Gli autori hanno inquadrato il problema chiedendosi "può questo sistema trasmettere una bugia?" e hanno sollecitato test di stress su larga scala e verifiche di prove esterne prima che i modelli vengano utilizzati nell'assistenza clinica.

Trasponendo questa intuizione al targeting, un modello generativo potrebbe accettare o amplificare segnali errati — immagini etichettate male, metadati di posizione obsoleti o tattiche avversarie ingannevoli — e presentare una raccomandazione concisa e sicura che un revisore umano potrebbe ritenere credibile. Gli avversari possono manipolare deliberatamente gli input e l'ordinaria ambiguità operativa (scarsa illuminazione, occultamento o attività civile innocua) può creare le condizioni esatte in cui la fluidità superficiale di un modello maschera una profonda incertezza. L'appello del documento del Mount Sinai per test misurabili e sistematici si applica direttamente: l'IA militare deve essere esaminata con casi avversari, ambigui e deliberatamente fuorvianti per stimare quanto spesso "trasmetterà" una raccomandazione errata.

Supervisione umana, legge e salvaguardie

I funzionari sottolineano che gli esseri umani rimarranno nel ciclo decisionale e dovranno convalidare le raccomandazioni dell'IA prima di qualsiasi azione cinetica. Le architetture "human-in-the-loop", le revisioni legali e le regole d'ingaggio stabilite vengono citate come salvaguardie primarie. In pratica, tuttavia, la supervisione umana può essere messa a dura prova dal ritmo operativo: quando i flussi di sensori inondano gli operatori con decine di opzioni prioritizzate dall'IA ogni ora, la revisione può diventare superficiale. Questa dinamica trasforma un meccanismo di sicurezza in una semplice casella di controllo di conformità e permette agli errori generati dall'IA di superare le soglie di giudizio.

Il diritto internazionale e il diritto dei conflitti armati richiedono distinzione, proporzionalità e precauzioni nell'attacco. I consulenti legali possono riesaminare la dottrina e i casi controversi, ma dipendono dalla qualità delle informazioni presentate. Affinché la supervisione sia significativa, le salvaguardie devono includere percorsi di audit che rivelino quali dati hanno influenzato il modello, metriche di confidenza calibrate e intelligibili per i revisori umani e verifiche obbligatorie su canali secondari per le raccomandazioni ad alte conseguenze. Diversi studiosi e tecnologi sostengono che queste protezioni dovrebbero essere formalizzate in protocolli vincolanti piuttosto che in linee guida interne ad hoc.

Lacune tecniche, etiche e di responsabilità

Anche la responsabilità è ambigua. Se un'IA fornisce una lista classificata e un operatore umano la accetta sotto pressione temporale, chi ne assume la responsabilità legale e morale in caso di danni ai civili? Le norme della catena di comando e le commissioni di revisione interna possono risalire nella gerarchia per attribuire le colpe, ma i sopravvissuti e l'opinione pubblica chiederanno meccanismi di indagine trasparenti e indipendenti. Ciò significa una registrazione robusta, la conservazione dei dati grezzi dei sensori e degli output dei modelli, e procedure che consentano analisi forensi esterne — nessuno dei quali è standard negli attuali prototipi.

Conseguenze per la guerra futura e la politica

L'introduzione dell'IA generativa nei flussi di lavoro di targeting oggi plasmerà le pratiche sul campo di battaglia per gli anni a venire. Se i primi dispiegamenti accettano un tasso di errore più elevato perché garantiscono velocità, la dottrina e l'addestramento si adatteranno a questo compromesso — e gli avversari impareranno a sfruttarlo. Al contrario, un approccio rigoroso e basato sull'evidenza che richieda validazione esterna, red teaming e verifiche legalmente obbligatorie rallenterebbe la messa in campo, ma potrebbe produrre modelli che riducono effettivamente il rischio nel tempo.

I decisori politici devono scegliere tra un rapido vantaggio operativo e il lavoro più lento di costruzione di una sicurezza verificabile. Alcuni analisti chiedono quadri di test formali, audit indipendenti e udienze di supervisione del Congresso per soppesare i benefici strategici rispetto ai costi etici e legali. Altri sollecitano norme o trattati internazionali per limitare la portata dell'assistenza dell'IA nelle decisioni letali, sostenendo che l'imprevedibilità tecnica dei modelli generativi non testati sia una base inadeguata per giudizi di vita o di morte.

Per ora, la mossa del Pentagono illustra un modello più ampio: organizzazioni nei settori della salute, della finanza e della difesa si affrettano a inserire modelli capaci ma imperfetti in flussi di lavoro critici. Lo studio medico del Mount Sinai ricorda che la fluidità non equivale alla verità e che una valutazione rigorosa e specifica per il dominio non è negoziabile quando sono in gioco vite umane. Se la frase "il Pentagono si avvicina all'uso di IA non testate" descrive una realtà operativa di questa settimana, la questione cruciale rimane come il DoD e le istituzioni di controllo misureranno, limiteranno e governeranno tali sistemi prima che gli errori si trasformino in tragedie.

Finché non saranno in vigore regimi di test robusti e trasparenti e garanzie legali, avvertono gli esperti, l'unica strada responsabile è la cautela: rallentare il ritmo del dispiegamento, richiedere stress test avversari modello per modello e insistere su log di livello forense e revisioni indipendenti. Questi passaggi non elimineranno il rischio, ma sono il minimo necessario per passare da una capacità assistiva non testata a uno strumento affidabile in guerra.

Fonti

  • Icahn School of Medicine at Mount Sinai (studio sulla suscettibilità degli LLM alla disinformazione medica)
  • The Lancet Digital Health (sede di revisione paritaria per lo studio del Mount Sinai)
  • U.S. Department of Defense (briefing politici e pianificazione sull'integrazione dell'IA nel targeting)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q In che modo il Pentagono intende utilizzare l'IA per le decisioni di puntamento?
A Il Pentagono sta pianificando di utilizzare l'IA per la gestione del campo di battaglia, il supporto decisionale e l'esecuzione della catena di abbattimento (kill chain) attraverso progetti come Agent Network e Swarm Forge. Queste iniziative mirano ad accelerare le capacità di puntamento e di combattimento integrando l'IA nella pianificazione delle campagne e nelle decisioni operative. La strategia enfatizza un approccio 'AI-first' per migliorare la letalità e l'efficienza militare.
Q Cosa si intende per 'IA non testata' nelle applicazioni militari e perché è controversa?
A L'espressione 'IA non testata' si riferisce a modelli e sistemi di intelligenza artificiale distribuiti rapidamente senza test preliminari esaustivi in scenari militari reali, come dimostrato dalla spinta del Pentagono verso una rapida adozione entro 30 giorni dal rilascio pubblico. È controversa a causa dei rischi di malfunzionamento sotto stress, attacchi avversari o comportamenti imprevedibili in combattimento, che potrebbero portare a decisioni errate. La mancanza di una comprovata affidabilità in contesti di vita o di morte solleva preoccupazioni sulla sicurezza e sull'efficacia.
Q Quali preoccupazioni etiche e di sicurezza derivano dall'uso dell'IA per decisioni di puntamento letali?
A Le preoccupazioni per la sicurezza includono guasti dell'IA in ambienti caotici, degrado della rete o manipolazione avversaria, che potrebbero tradursi in errori di puntamento e vittime civili. Le questioni etiche si concentrano sulla delega di decisioni di vita o di morte a macchine prive di giudizio umano, responsabilità e ragionamento morale. Una distribuzione rapida senza test completi amplifica i rischi di esiti letali non intenzionali.
Q Quali tutele esistono per impedire all'IA di commettere errori di puntamento letali?
A Le tutele includono lo sviluppo di infrastrutture di valutazione per testare i modelli di IA rispetto ai parametri di riferimento delle missioni, alle prestazioni dei team uomo-IA e allo stress operativo prima della distribuzione. La Defense Innovation Unit ricerca sistemi per il 'red-teaming' automatizzato contro attacchi avversari e metriche di punteggio chiare per i decisori. I rapporti mensili sui progressi dei 'Pace-Setting Projects' garantiscono la supervisione, sebbene la prevenzione totale di errori letali rimanga non dimostrata.
Q Quanto è vicino il Pentagono alla distribuzione dell'IA nel puntamento bellico e quali sono le implicazioni?
A Il Pentagono è molto vicino alla distribuzione dell'IA nel puntamento bellico, con una strategia di gennaio 2026 che impone operazioni 'AI-first', progetti 'Pace-Setting' già avviati e obiettivi di distribuzione dei modelli in 30 giorni per il 2026. Le implicazioni includono una maggiore dominanza militare, ma anche crescenti rischi di errori, violazioni etiche ed escalation dei conflitti a causa di decisioni più rapide e autonome. I critici evidenziano l'insufficienza dei test, che potrebbe portare a conseguenze non intenzionali in contesti di guerra attiva.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!