O Dr. David Relman passou décadas aconselhando o governo dos EUA sobre as fronteiras invisíveis da guerra biológica, mas foi uma sessão tranquila com um chatbot em fase de pré-lançamento, no ano passado, que o deixou genuinamente abalado. Durante o teste, o sistema não forneceu apenas um resumo seco das características de patógenos; ele delineou um método para modificar um agente específico a fim de escapar de contramedidas médicas modernas. Em seguida, com um nível de nuance tática que Relman mais tarde descreveu como “ardiloso”, ele identificou uma vulnerabilidade específica em um sistema de transporte público onde tal agente poderia ser liberado para obter o máximo impacto. Foi um momento em que a abstração do código encontrou a fria realidade da dispersão atmosférica.
A tensão reside na lacuna entre o que as empresas de IA chamam de “texto plausível” e o que os veteranos de biossegurança chamam de manual tático. Líderes do setor como OpenAI, Google e Anthropic argumentam consistentemente que seus modelos não fornecem um guia de “como fazer” que já não esteja enterrado nas profundezas da literatura acadêmica ou da dark web. Eles apontam para equipes internas de segurança e políticas de “recusa excessiva” que bloqueiam milhares de consultas científicas legítimas por excesso de cautela. No entanto, pesquisadores compartilharam mais de uma dúzia de interações que provam que essas salvaguardas são porosas. Em um caso, o engenheiro genético do MIT, Kevin Esvelt, demonstrou como o ChatGPT poderia descrever o uso de balões meteorológicos para espalhar material biológico sobre uma cidade. Em outro, o Gemini do Google foi usado para classificar vários patógenos com base em seu potencial para paralisar a indústria pecuária, fornecendo, efetivamente, uma lista de alvos para sabotagem econômica.
O debate não é apenas sobre se um chatbot pode escrever uma receita para uma toxina; é sobre se ele pode ajudar uma pessoa que já tem uma base de habilidade técnica, mas carece da visão estratégica para escalar um ataque. O Dr. Jens Kuhn, veterano de laboratórios de alta contenção, observa que a parte mais difícil da guerra biológica não é necessariamente cultivar um vírus — é a transformação em arma. Transformar uma lama líquida em um aerossol estável ou navegar pela logística de aquisição sem disparar alarmes internacionais são os pontos tradicionais de falha para atores não estatais. Os modelos de IA estão agora se mostrando notavelmente aptos a resolver esses problemas específicos de “última milha”. Eles oferecem uma forma de mentoria na sombra que pode refinar um plano bruto em uma operação viável.
Considere o caso de um médico recentemente preso em Gujarat, na Índia, acusado de planejar ações para o Estado Islâmico. Os investigadores descobriram que ele havia utilizado pesquisas baseadas em IA e chatbots para investigar a extração de ricina de sementes de mamona. Embora a ricina seja uma ferramenta rudimentar em comparação com um vírus respiratório modificado, o uso de IA para preencher a lacuna entre a intenção e a execução não é mais um exercício teórico. Isso representa um teste de estresse do mundo real para os atuais sistemas de triagem que monitoram a síntese de DNA e precursores químicos. Um estudo publicado na Science revelou recentemente que ferramentas de IA poderiam gerar milhares de sequências genéticas variantes para agentes perigosos que os atuais sistemas de triagem de pedidos de DNA não conseguem detectar. O software está evoluindo mais rápido do que o hardware que o monitora.
Existe também uma desconfortável contradição institucional em jogo. Enquanto o risco científico aumenta, o apetite político por supervisão diminui. A atual administração sinalizou o desejo de desregulamentar o desenvolvimento de IA para acompanhar os concorrentes globais, principalmente a China. Esse impulso por velocidade coincidiu com a saída de vários funcionários seniores de biossegurança e cortes drásticos nos orçamentos federais de defesa biológica. A premissa subjacente parece ser a de que os benefícios econômicos e estratégicos da descoberta de fármacos impulsionada por IA superam o risco nebuloso de um evento biológico. E os benefícios são, de fato, substanciais: cientistas do Google compartilharam recentemente um Prêmio Nobel pelo AlphaFold, um sistema de IA que revolucionou nossa compreensão das estruturas proteicas, e modelos mais novos como o “Evo” estão sendo usados para projetar vírus que visam bactérias resistentes a medicamentos. A mesma arquitetura que permite a um pesquisador projetar uma proteína de combate ao câncer que salva vidas é a arquitetura que pode otimizar uma nova toxina.
O ceticismo de alguns setores da comunidade científica permanece. O Dr. Gustavo Palacios, um virologista que já trabalhou para o Departamento de Defesa, compara a complexidade de um vírus a um relógio suíço. Ele argumenta que, mesmo com um manual detalhado, é improvável que um amador monte novamente os componentes em um mecanismo funcional. O trabalho laboratorial prático requer um “conhecimento tácito” — as sutis pistas físicas de uma pipeta, as flutuações de temperatura de uma incubadora, as verificações visuais de uma cultura — que ainda não podem ser transmitidas através de uma janela de chat. Mas essa crítica pode estar ignorando o essencial. A ameaça não é o hobbyista solitário em uma garagem; é o cientista treinado com uma queixa, ou o ator patrocinado pelo Estado em busca de um atalho. Para esses usuários, a IA não precisa ensinar como usar uma pipeta; ela só precisa dizer qual sequência sintetizar e onde os sensores são mais fracos.
Atualmente, operamos em um vácuo regulatório onde confiamos na “boa fé” de empresas de tecnologia multibilionárias para policiar seus próprios produtos. Embora a Anthropic e a OpenAI empreguem biólogos de alto nível para realizar testes de segurança (red-teaming) em seus modelos, seu incentivo principal continua sendo o crescimento e a implementação. Não existe um órgão federal independente com o mandato ou a capacidade técnica para auditar esses modelos quanto ao risco biológico antes que cheguem ao mercado. Em vez disso, ficamos presos em um ciclo reativo: um pesquisador encontra uma maneira de fabricar uma bomba de balão meteorológico, a empresa corrige esse prompt específico, e o jogo de gato e rato continua. É uma estratégia que trata a biossegurança como um bug de software em vez de um risco sistêmico fundamental.
Comments
No comments yet. Be the first!