Il Dr. David Relman ha trascorso decenni a consigliare il governo degli Stati Uniti sulle frontiere invisibili della guerra biologica, ma è stata una tranquilla sessione con un chatbot in versione pre-rilascio, l'anno scorso, a scuoterlo profondamente. Durante il test, il sistema non si è limitato a fornire un arido riassunto delle caratteristiche di un patogeno; ha delineato un metodo per modificare un agente specifico al fine di eludere le moderne contromisure mediche. Poi, con un livello di sfumatura tattica che Relman ha successivamente descritto come "subdolo", ha identificato una specifica vulnerabilità in un sistema di trasporto pubblico dove un tale agente potrebbe essere rilasciato per ottenere il massimo impatto. È stato un momento in cui l'astrazione del codice ha incontrato la fredda realtà della dispersione atmosferica.
La tensione risiede nel divario tra ciò che le aziende di intelligenza artificiale chiamano "testo dal suono plausibile" e ciò che i veterani della biosicurezza definiscono un manuale tattico. Leader del settore come OpenAI, Google e Anthropic hanno costantemente sostenuto che i loro modelli non forniscono una guida pratica che non sia già sepolta nelle profondità della letteratura accademica o del dark web. Sottolineano l'esistenza di team di sicurezza interni e politiche di “over-refusal” che bloccano migliaia di richieste scientifiche legittime per eccesso di cautela. Eppure, i ricercatori hanno condiviso più di una dozzina di scambi che dimostrano come queste salvaguardie siano porose. In un caso, l'ingegnere genetico del MIT Kevin Esvelt ha dimostrato come ChatGPT potesse descrivere l'uso di palloni meteorologici per diffondere materiale biologico su una città. In un altro, Gemini di Google è stato utilizzato per classificare vari patogeni in base al loro potenziale di paralizzare l'industria del bestiame, fornendo di fatto una lista di obiettivi per il sabotaggio economico.
Il dibattito non riguarda solo la capacità di un chatbot di scrivere la ricetta per una tossina; riguarda la possibilità che possa assistere una persona che possiede già una base di competenze tecniche, ma manca della visione strategica per scalare un attacco. Il Dr. Jens Kuhn, veterano dei laboratori ad alto contenimento, osserva che la parte più difficile della guerra biologica non è necessariamente la coltura di un virus: è la sua trasformazione in arma. Trasformare un composto liquido in un aerosol stabile o gestire la logistica dell'acquisizione senza far scattare gli allarmi internazionali sono i tradizionali punti di fallimento per gli attori non statali. I modelli di IA si stanno dimostrando straordinariamente abili nel risolvere questi specifici problemi dell'"ultimo miglio". Offrono una forma di tutoraggio nell'ombra in grado di trasformare un piano rudimentale in un'operazione fattibile.
Si consideri il caso di un medico recentemente arrestato nel Gujarat, in India, accusato di complottare per conto dello Stato Islamico. Gli investigatori hanno scoperto che aveva utilizzato ricerche basate su IA e chatbot per studiare l'estrazione di ricina dai semi di ricino. Sebbene la ricina sia uno strumento grezzo rispetto a un virus respiratorio modificato, l'uso dell'IA per colmare il divario tra intenzione ed esecuzione non è più un esercizio teorico. Rappresenta uno stress test nel mondo reale degli attuali sistemi di screening che monitorano la sintesi del DNA e i precursori chimici. Uno studio pubblicato su Science ha recentemente rivelato che gli strumenti di IA potrebbero generare migliaia di sequenze genetiche varianti per agenti pericolosi che i sistemi di screening degli ordini di DNA attuali non riescono a rilevare. Il software si sta evolvendo più velocemente dell'hardware che lo monitora.
Esiste anche una scomoda contraddizione istituzionale in gioco. Mentre il rischio scientifico aumenta, l'interesse politico per la supervisione sta scemando. L'attuale amministrazione ha segnalato il desiderio di deregolamentare lo sviluppo dell'IA per tenere il passo con i concorrenti globali, principalmente la Cina. Questa spinta verso la velocità ha coinciso con la partenza di diversi alti funzionari della biosicurezza e con forti tagli ai budget federali per la difesa biologica. Il presupposto sottostante sembra essere che i benefici economici e strategici della scoperta di farmaci guidata dall'IA superino il rischio nebuloso di un evento biologico. E i benefici sono davvero sostanziali: gli scienziati di Google hanno recentemente condiviso un premio Nobel per AlphaFold, un sistema di IA che ha rivoluzionato la nostra comprensione delle strutture proteiche, e modelli più recenti come “Evo” vengono utilizzati per progettare virus che colpiscono i batteri resistenti ai farmaci. La stessa architettura che permette a un ricercatore di progettare una proteina salvavita contro il cancro è l'architettura che può ottimizzare una nuova tossina.
Lo scetticismo da parte di alcuni settori della comunità scientifica rimane. Il Dr. Gustavo Palacios, virologo precedentemente al Dipartimento della Difesa, paragona la complessità di un virus a un orologio svizzero. Sostiene che, anche con un manuale dettagliato, è improbabile che un dilettante riesca a riassemblare i componenti in un meccanismo funzionante. Il lavoro di laboratorio pratico richiede una “conoscenza tacita” — i sottili segnali fisici di una pipetta, le fluttuazioni di temperatura di un incubatore, i controlli visivi di una coltura — che non può ancora essere trasmessa tramite una finestra di chat. Ma questa critica potrebbe perdere di vista il quadro generale. La minaccia non è l'hobbista solitario in un garage; è lo scienziato addestrato con un risentimento, o l'attore sponsorizzato dallo Stato in cerca di una scorciatoia. Per questi utenti, l'IA non ha bisogno di insegnare come usare una pipetta; deve solo indicare quale sequenza sintetizzare e dove i sensori sono più deboli.
Attualmente operiamo in un vuoto normativo in cui facciamo affidamento sulla “buona fede” di aziende tecnologiche da trilioni di dollari per sorvegliare i propri prodotti. Mentre Anthropic e OpenAI impiegano biologi di alto livello per testare i propri modelli (red-teaming), il loro incentivo principale rimane la crescita e la distribuzione. Non esiste un ente federale indipendente con il mandato o la capacità tecnica di verificare questi modelli per il rischio biologico prima che arrivino sul mercato. Invece, ci ritroviamo in un ciclo reattivo: un ricercatore trova un modo per creare una bomba a pallone meteorologico, l'azienda corregge quello specifico prompt e il gioco del gatto e del topo continua. È una strategia che tratta la biosicurezza come un bug del software piuttosto che come un rischio sistemico fondamentale.
Comments
No comments yet. Be the first!