Pentágono se Aproxima do Uso de IA Não Testada para Seleção de Alvos

I.A.
Pentagon Nears Untested AI in Targeting
O Pentágono está avançando no uso de IA generativa para classificar e recomendar alvos — sistemas que pesquisadores alertam serem não testados e propensos a erros convincentes. Especialistas pedem testes de estresse rigorosos, revisão jurídica e supervisão humana mais robusta antes de qualquer implementação em situações de vida ou morte.

Esta semana, reportagens revelaram que o Pentágono se aproxima do uso de IA não testada em decisões de vida ou morte na seleção de alvos, passando de demonstrações para pilotos operacionais que permitiriam que modelos generativos classificassem listas de alvos potenciais e produzissem recomendações para posterior validação por operadores humanos. O plano, conforme descrito em briefings e coberturas recentes, não propõe sistemas letais totalmente autônomos; em vez disso, o Departamento de Defesa está se preparando para integrar grandes modelos de linguagem e modelos generativos nos fluxos de trabalho de seleção de alvos como auxílios à decisão. Essa movimentação de curto prazo provocou alarme entre pesquisadores e eticistas, que apontam para modos de falha claros e mensuráveis nos sistemas atuais e para pesquisas recentes de IA médica que mostram como recomendações confiantemente erradas podem se propagar dentro de processos operacionais.

Pentágono se aproxima do uso de IA não testada em seleção de alvos: mudança operacional

Documentos e reportagens indicam que o Pentágono está acelerando experimentos que alimentam sistemas de IA generativa com dados do campo de batalha para produzir listas de alvos classificadas e cursos de ação recomendados, com a decisão final deixada para os humanos. A arquitetura proposta trata a IA como um assistente, e não como um executor: os modelos sintetizariam imagens, sinais e outros feeds em opções priorizadas e justificativas de apoio. Os defensores argumentam que isso poderia comprimir um ciclo de inteligência longo, ajudando comandantes a processar torrentes de dados de sensores durante cenários de rápida evolução.

Mas chamar um sistema de "assistente" não remove o risco operacional. Quando modelos não validados são inseridos em um fluxo de decisão, os erros podem não aparecer como falhas exóticas, mas como afirmações aparentemente plausíveis — recomendações curtas e bem formuladas que parecem autoritárias. A frase "Pentágono se aproxima do uso de IA não testada" captura essa tensão: as máquinas estão sendo preparadas para tarefas com consequências fatais antes que o setor tenha estabelecido métodos transparentes e padronizados para medir a confiabilidade sob condições adversas e casos extremos.

Pentágono se aproxima do uso de IA não testada em seleção de alvos: modos de falha e paralelos médicos

Trabalhos acadêmicos recentes na medicina fornecem um análogo concreto para os riscos que o Pentágono enfrenta. Um grande estudo de pesquisadores da Icahn School of Medicine at Mount Sinai testou modelos de linguagem de ponta em notas clínicas e descobriu que os modelos frequentemente repetiam recomendações fabricadas se essas alegações falsas estivessem inseridas em textos realistas. Os autores enquadraram o problema como "este sistema pode transmitir uma mentira?" e instaram a realização de testes de estresse em larga escala e verificações de evidências externas antes que os modelos sejam usados em cuidados clínicos.

Traduzindo essa percepção para a seleção de alvos, um modelo generativo poderia aceitar ou amplificar sinais incorretos — imagens rotuladas incorretamente, metadados de localização obsoletos ou táticas adversárias enganosas — e apresentar uma recomendação concisa e confiante que um revisor humano poderia tratar como credível. Adversários podem manipular deliberadamente os dados de entrada, e a ambiguidade operacional rotineira (má iluminação, oclusão ou atividade civil inócua) pode criar exatamente as condições onde a fluência superficial de um modelo mascara uma incerteza profunda. O apelo do artigo do Mount Sinai por testes mensuráveis e sistemáticos aplica-se diretamente: a IA militar deve ser sondada com casos adversários, ambíguos e deliberadamente enganosos para estimar com que frequência ela "transmitirá" uma recomendação ruim.

Supervisão humana, lei e salvaguardas

Autoridades enfatizam que os humanos permanecerão no circuito (human-in-the-loop) e deverão validar as recomendações da IA antes de qualquer ação cinética. Arquiteturas de supervisão humana, revisões legais e regras de engajamento estabelecidas são citadas como salvaguardas primárias. Na prática, entretanto, a supervisão humana pode ser sobrecarregada pelo ritmo: quando fluxos de sensores inundam os operadores com dezenas de opções priorizadas por IA por hora, a revisão pode tornar-se superficial. Essa dinâmica converte um mecanismo de segurança em uma mera caixa de verificação de conformidade e permite que erros semeados pela IA passem pelos limiares de julgamento.

O direito internacional e o direito dos conflitos armados exigem distinção, proporcionalidade e precauções no ataque. Consultores jurídicos podem revisar a doutrina e casos contestados, mas dependem da qualidade da informação apresentada. Para que a supervisão seja significativa, as salvaguardas devem incluir trilhas de auditoria que exponham quais dados influenciaram o modelo, métricas de confiança calibradas e inteligíveis para revisores humanos, e verificação obrigatória por um segundo canal para recomendações de alta consequência. Diversos acadêmicos e tecnólogos argumentam que essas proteções deveriam ser formalizadas em protocolos vinculativos, em vez de orientações internas ad hoc.

Lacunas técnicas, éticas e de responsabilidade

A responsabilidade também é ambígua. Se uma IA fornece uma lista classificada e um operador humano a aceita sob pressão de tempo, quem detém a responsabilidade legal e moral quando civis são prejudicados? As normas da cadeia de comando e os conselhos de revisão interna podem rastrear a culpa hierarquia acima, mas os sobreviventes e o público exigirão mecanismos de investigação transparentes e independentes. Isso significa registros robustos, retenção de dados brutos de sensores e das saídas do modelo, além de procedimentos que permitam análises forenses externas — nada disso é padrão nos protótipos atuais.

Consequências para a guerra e políticas futuras

A introdução de IA generativa nos fluxos de trabalho de seleção de alvos agora moldará as práticas no campo de batalha por anos. Se as implantações iniciais aceitarem uma taxa de erro mais alta porque oferecem velocidade, a doutrina e o treinamento se adaptarão a essa troca — e os adversários aprenderão a explorá-la. Por outro lado, uma abordagem rigorosa e baseada em evidências, que exija validação externa, red teaming e verificação legalmente mandatada, retardaria a implementação, mas poderia produzir modelos que realmente reduzam o risco ao longo do tempo.

Os formuladores de políticas enfrentam uma escolha entre a vantagem operacional rápida e o trabalho mais lento de construir uma segurança verificável. Alguns analistas pedem estruturas de teste formais, auditorias independentes e audiências de supervisão do Congresso para ponderar os benefícios estratégicos contra os custos éticos e legais. Outros instam normas ou tratados internacionais para restringir o escopo da assistência de IA em decisões letais, argumentando que a imprevisibilidade técnica de modelos generativos não testados é uma base precária para julgamentos de vida ou morte.

Por ora, a movimentação do Pentágono ilustra um padrão mais amplo: organizações nos setores de saúde, finanças e defesa estão se apressando para integrar modelos capazes, mas imperfeitos, em fluxos de trabalho críticos. O estudo médico do Mount Sinai é um lembrete de que fluência não equivale à verdade, e que a avaliação rigorosa e específica do domínio é inegociável quando vidas humanas estão em jogo. Se a frase "Pentágono se aproxima do uso de IA não testada" descreve uma realidade operacional esta semana, a questão importante que permanece é como o DoD e as instituições de supervisão irão medir, limitar e governar esses sistemas antes que erros se tornem tragédias.

Até que regimes de teste robustos e transparentes e garantias legais estejam em vigor, alertam os especialistas, o único caminho responsável é a cautela: reduzir o ritmo de implantação, exigir testes de estresse adversários modelo por modelo e insistir em registros de nível forense e revisão independente. Esses passos não eliminarão o risco, mas são o mínimo necessário para passar de uma capacidade assistiva não testada para uma ferramenta confiável na guerra.

Fontes

  • Icahn School of Medicine at Mount Sinai (estudo mapeando a suscetibilidade de LLMs à desinformação médica)
  • The Lancet Digital Health (veículo de revisão por pares para o estudo do Mount Sinai)
  • U.S. Department of Defense (briefings de políticas e planejamento sobre a integração de IA na seleção de alvos)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q O que o Pentágono planeja usar a IA para fazer em decisões de mira?
A O Pentágono planeja usar a IA para gerenciamento de batalha, suporte a decisões e execução da cadeia de ataque (kill chain) por meio de projetos como Agent Network e Swarm Forge. Essas iniciativas visam acelerar as capacidades de mira e de combate, integrando a IA ao planejamento de campanhas e às decisões operacionais. A estratégia enfatiza uma abordagem de 'IA em primeiro lugar' para aumentar a letalidade e a eficiência militar.
Q O que significa 'IA não testada' em aplicações militares e por que isso é controverso?
A 'IA não testada' refere-se a modelos e sistemas de IA implantados rapidamente sem testes prévios exaustivos em cenários militares do mundo real, como visto na pressão do Pentágono por uma adoção rápida em até 30 dias após o lançamento público. É controverso devido aos riscos de mau funcionamento sob estresse, ataques adversários ou comportamento imprevisível em combate, o que pode levar a decisões errôneas. A falta de confiabilidade comprovada em contextos de vida ou morte levanta preocupações sobre segurança e eficácia.
Q Quais preocupações éticas e de segurança surgem do uso de IA para decisões de mira de vida ou morte?
A As preocupações com a segurança incluem falhas de IA em ambientes caóticos, degradação de rede ou manipulação adversária, o que poderia resultar em alvos incorretos e vítimas civis. As questões éticas centram-se na delegação de decisões de vida ou morte a máquinas que carecem de julgamento humano, responsabilidade e raciocínio moral. A implementação rápida sem testes completos amplia os riscos de resultados letais não intencionais.
Q Quais salvaguardas existem para evitar que a IA cometa erros letais de mira?
A As salvaguardas incluem o desenvolvimento de infraestrutura de avaliação para testar modelos de IA em relação a padrões de missão, desempenho de equipes humano-IA e estresse operacional antes da implantação. A Unidade de Inovação de Defesa busca sistemas para 'red-teaming' automatizado contra ataques adversários e métricas de pontuação claras para os tomadores de decisão. Relatórios mensais de progresso em Pace-Setting Projects garantem a supervisão, embora a prevenção total de erros letais permaneça sem comprovação.
Q Quão próximo o Pentágono está de implantar a IA na mira de guerra e quais são as implicações?
A O Pentágono está muito próximo de implantar a IA na seleção de alvos de guerra, com uma estratégia de janeiro de 2026 que exige operações focadas em IA, Pace-Setting Projects em andamento e metas de implantação de modelos em 30 dias para 2026. As implicações incluem maior domínio militar, mas também riscos acrescidos de erros, violações éticas e escalada de conflitos devido a decisões autônomas mais rápidas. Críticos destacam a insuficiência de testes, o que pode levar a consequências indesejadas em guerras ativas.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!