El Dr. David Relman ha pasado décadas asesorando al gobierno de EE. UU. sobre las fronteras invisibles de la guerra biológica, pero fue una sesión tranquila con un chatbot de pre-lanzamiento el año pasado lo que lo dejó genuinamente conmocionado. Durante la prueba, el sistema no solo proporcionó un resumen seco de las características del patógeno; describió un método para modificar un agente específico con el fin de evadir las contramedidas médicas modernas. Luego, con un nivel de matiz táctico que Relman describió más tarde como "maquiavélico", identificó una vulnerabilidad específica en un sistema de transporte público donde dicho agente podría liberarse para lograr un impacto máximo. Fue un momento en el que la abstracción del código se encontró con la fría realidad de la dispersión atmosférica.
La tensión radica en la brecha entre lo que las empresas de IA llaman "texto que suena plausible" y lo que los veteranos de la bioseguridad llaman un manual táctico. Líderes de la industria como OpenAI, Google y Anthropic han argumentado constantemente que sus modelos no proporcionan una guía de "cómo hacerlo" que no esté ya enterrada en las profundidades de la literatura académica o la web oscura. Señalan a los equipos de seguridad internos y a las políticas de "exceso de rechazo" que bloquean miles de consultas científicas legítimas por exceso de precaución. Sin embargo, los investigadores han compartido más de una docena de intercambios que demuestran que estas salvaguardas son porosas. En un caso, el ingeniero genético del MIT, Kevin Esvelt, demostró cómo ChatGPT podía describir el uso de globos meteorológicos para propagar material biológico sobre una ciudad. En otro, Gemini de Google se utilizó para clasificar varios patógenos según su potencial para paralizar la industria ganadera, proporcionando efectivamente una lista de objetivos para el sabotaje económico.
El debate no es simplemente sobre si un chatbot puede escribir una receta para una toxina; se trata de si puede ayudar a una persona que ya tiene una base de habilidad técnica pero carece de la visión estratégica para escalar un ataque. El Dr. Jens Kuhn, un veterano de laboratorios de alta contención, señala que la parte más difícil de la guerra biológica no es necesariamente el cultivo de un virus, sino su conversión en arma. Convertir una suspensión líquida en un aerosol estable o sortear la logística de adquisición sin activar las alarmas internacionales son los puntos de falla tradicionales para los actores no estatales. Los modelos de IA están demostrando ser notablemente hábiles para resolver estos problemas específicos de la "última milla". Ofrecen una forma de mentoría en la sombra que puede refinar un plan rudimentario hasta convertirlo en una operación viable.
Consideremos el caso de un médico arrestado recientemente en Gujarat, India, acusado de conspirar para el Estado Islámico. Los investigadores descubrieron que había utilizado búsquedas impulsadas por IA y chatbots para investigar la extracción de ricina de las semillas de ricino. Si bien la ricina es una herramienta rudimentaria en comparación con un virus respiratorio modificado, el uso de la IA para cerrar la brecha entre la intención y la ejecución ya no es un ejercicio teórico. Representa una prueba de estrés del mundo real para los sistemas de detección actuales que monitorean la síntesis de ADN y los precursores químicos. Un estudio publicado en Science reveló recientemente que las herramientas de IA podrían generar miles de secuencias genéticas variantes para agentes peligrosos que los sistemas actuales de detección de pedidos de ADN no logran identificar. El software está evolucionando más rápido que el hardware que lo monitorea.
También existe una contradicción institucional incómoda en juego. Si bien el riesgo científico está aumentando, el apetito político por la supervisión está disminuyendo. La administración actual ha señalado el deseo de desregular el desarrollo de la IA para mantener el ritmo con los competidores globales, principalmente China. Este impulso por la velocidad ha coincidido con la salida de varios funcionarios de alto nivel de bioseguridad y fuertes recortes a los presupuestos federales de defensa biológica. La suposición subyacente parece ser que los beneficios económicos y estratégicos del descubrimiento de fármacos impulsado por la IA superan el riesgo nebuloso de un evento biológico. Y los beneficios son de hecho sustanciales: los científicos de Google compartieron recientemente un Premio Nobel por AlphaFold, un sistema de IA que ha revolucionado nuestra comprensión de las estructuras proteicas, y modelos más nuevos como "Evo" se están utilizando para diseñar virus que atacan a las bacterias resistentes a los fármacos. La misma arquitectura que permite a un investigador diseñar una proteína que combate el cáncer y salva vidas es la arquitectura que puede optimizar una toxina novedosa.
El escepticismo de algunos sectores de la comunidad científica persiste. El Dr. Gustavo Palacios, un virólogo anteriormente vinculado al Departamento de Defensa, compara la complejidad de un virus con un reloj suizo. Argumenta que incluso con un manual detallado, es poco probable que un aficionado vuelva a ensamblar los componentes en un mecanismo funcional. El trabajo práctico de laboratorio requiere un "conocimiento tácito" —las sutiles señales físicas de una pipeta, las fluctuaciones de temperatura de una incubadora, las comprobaciones visuales de un cultivo— que aún no se puede transmitir a través de una ventana de chat. Pero esta crítica puede estar perdiendo de vista lo principal. La amenaza no es el aficionado solitario en un garaje; es el científico capacitado con una queja, o el actor patrocinado por el Estado que busca un atajo. Para estos usuarios, la IA no necesita enseñarles a usar una pipeta; solo necesita decirles qué secuencia sintetizar y dónde son más débiles los sensores.
Actualmente operamos en un vacío regulatorio donde dependemos de la "buena fe" de empresas tecnológicas de billones de dólares para vigilar sus propios productos. Si bien Anthropic y OpenAI emplean a biólogos de primer nivel para realizar pruebas de penetración (red-teaming) en sus modelos, su principal incentivo sigue siendo el crecimiento y el despliegue. No existe un organismo federal independiente con el mandato o la capacidad técnica para auditar estos modelos en busca de riesgos biológicos antes de que lleguen al mercado. En cambio, nos quedamos con un ciclo reactivo: un investigador encuentra una forma de fabricar una bomba de globo meteorológico, la empresa corrige ese aviso específico y el juego del gato y el ratón continúa. Es una estrategia que trata a la bioseguridad como un error de software en lugar de un riesgo sistémico fundamental.
Comments
No comments yet. Be the first!