Pentágono ameaça rompimento enquanto negociações com a Anthropic chegam a um impasse
Nesta semana, o Pentágono ameaçou romper com a Anthropic, de acordo com relatos surgidos em 16 de fevereiro de 2026, à medida que o Departamento de Defesa dos EUA pressiona a empresa a flexibilizar os limites impostos sobre como seus grandes modelos de linguagem podem ser usados pelos militares. A disputa — relatada pela CNBC junto a coberturas anteriores da Reuters e Axios — centra-se em saber se as empresas comerciais de IA permitirão que seus sistemas sejam usados para o que o Pentágono descreve como "todos os fins lícitos", incluindo o desenvolvimento de armas, coleta de inteligência e operações no campo de batalha. A Anthropic afirma ter mantido sua posição sobre restrições de segurança específicas, como limites rígidos para armas autônomas e vigilância doméstica em massa, e o desentendimento escalou para ameaças de que o relacionamento poderia ser interrompido.
O Pentágono ameaça rompimento: os pontos de fricção jurídica e contratual
O cerne do embate é a linguagem jurídica e contratual. O Pentágono quer acesso aos modelos em redes classificadas e uma redação mais ampla que permita o uso em uma variedade de missões militares; as empresas normalmente fornecem acesso sujeito a salvaguardas no nível do modelo e restrições baseadas em políticas. Para o Pentágono, a frase "todos os fins lícitos" é um termo contratual único que reduziria a ambiguidade sobre o uso militar permitido. Para empresas como Anthropic, OpenAI, Google e xAI, aceitar essa redação corre o risco de erodir as barreiras de segurança (guardrails) internas — tanto os controles técnicos integrados aos modelos quanto os compromissos de política corporativa destinados a limitar o uso indevido.
As negociações também tocam em detalhes técnicos: como os modelos são implantados em redes classificadas, se os filtros de conteúdo e o registro de uso permanecem em vigor e quem é responsável se um sistema movido por IA produzir resultados prejudiciais. O Pentágono sinalizou frustração após meses de conversas; a pressão para remover ou afrouxar as restrições reflete um desejo operacional de usar os sistemas mais capazes disponíveis em ambientes contestados, enquanto as empresas se preocupam com a responsabilidade civil, o risco reputacional e a ética mais ampla das aplicações militares.
Como a Anthropic e os outros fornecedores responderam
A Anthropic disse publicamente que as conversas iniciais com o governo dos EUA focaram em questões de política de uso e limites explícitos — mais notavelmente proibições de armas autônomas e limites à vigilância doméstica em massa — em vez de autorizar operações específicas. Um porta-voz da empresa disse a repórteres que não havia discutido o uso de seu modelo Claude para operações táticas nomeadas com o Pentágono. Essa declaração contrasta com relatos de que o Claude foi usado em pelo menos uma operação de alto perfil por meio de um parceiro: o Wall Street Journal informou que o Claude foi implantado via Palantir em uma operação para capturar o ex-presidente da Venezuela, demonstrando como as integrações de parceiros complicam as caracterizações simples de contenção corporativa.
Outras grandes empresas de IA citadas em reportagens — OpenAI, Google e xAI — também são alvo de pressão do Pentágono para expandir o acesso. A Reuters e a CNBC descreveram amplas solicitações do Departamento de Defesa para disponibilizar modelos em redes classificadas sem muitas das restrições padrão que as empresas aplicam a usuários civis. As empresas lidaram com essas solicitações de forma diferente, equilibrando oportunidades contratuais e credenciais de segurança contra políticas internas e escrutínio externo.
Por que o Pentágono está pressionando e o que deseja alcançar
Mas a pressão por uma linguagem contratual abrangente e aberta — "todos os fins lícitos" — levanta questões sobre quais salvaguardas permanecem em vigor quando os modelos são usados em contextos cinéticos ou secretos. O uso lícito é um padrão legal amplo que ainda exige a implementação de controles para evitar escaladas não intencionais, danos a civis ou violações das leis nacionais e internacionais. Essas demandas operacionais são a fonte da tensão atual.
Salvaguardas técnicas em jogo e as preocupações do Pentágono
As empresas constroem salvaguardas nos modelos em dois eixos: controles no nível do modelo (ajuste fino, camadas de segurança, testes de red-team e filtros de conteúdo) e controles no nível da política (termos de serviço e restrições contratuais de uso). A pressão do Pentágono para reduzir ou contornar as restrições alteraria a forma como esses controles operam na prática. Por exemplo, colocar um modelo em uma rede classificada pode remover parte da telemetria e dos registros por razões de segurança, mas também pode prejudicar a capacidade da empresa de monitorar o uso indevido e corrigir comportamentos problemáticos.
Segundo relatos, o Pentágono está frustrado porque a Anthropic resistiu a propostas para relaxar limites em cenários que a empresa considera de alto risco — como o controle de armas totalmente autônomas e a vigilância doméstica em massa. Essas são áreas onde muitas empresas de IA, não apenas a Anthropic, defenderam proibições estritas à tomada de decisão autônoma que pudesse causar resultados letais sem supervisão humana.
Como o corte de acesso pode impactar a segurança
Se o Pentágono levar a cabo a ameaça e romper os laços com a Anthropic, o efeito imediato seria um conjunto mais restrito de fornecedores disponíveis para a comunidade de defesa dos EUA. Isso provavelmente aceleraria os esforços internos do Departamento de Defesa para construir ou contratar modelos sob medida, aumentaria a dependência de empresas que concordam com termos de uso mais amplos ou incentivaria parcerias com fornecedores estrangeiros — cada resultado trazendo suas próprias compensações em termos de segurança e supervisão. Um rompimento também poderia levar as agências a aceitar soluções com menos controles de segurança por parte do fornecedor, aumentando o risco de uso indevido ou consequências não intencionais.
Por outro lado, as empresas que mantêm restrições de segurança robustas argumentam que essas barreiras reduzem riscos futuros, evitam a expansão indevida da missão (mission creep) e preservam a confiança pública. O impasse mostra uma escolha estratégica mais profunda: se os atores da segurança nacional toleram barreiras corporativas que limitam certas aplicações militares, ou se insistem no acesso irrestrito e aceitam novos ônus de supervisão dentro dos sistemas governamentais.
Precedentes passados e o contexto político mais amplo
O Departamento de Defesa já financiou pesquisas de IA e formou parcerias com a indústria anteriormente, mas o momento atual se destaca pela escala e maturidade dos grandes modelos de linguagem disponíveis comercialmente. Colaborações anteriores incluíam subsídios condicionais e projetos-piloto que exigiam salvaguardas específicas; a disputa atual é sobre termos operacionais amplos, e não sobre financiamento de pilotos. A ameaça do Pentágono de cortar um fornecedor por desentendimentos políticos é uma escalada pública e sinaliza negociações difíceis pela frente para todos os principais fornecedores de ferramentas avançadas de IA.
Também há pressões políticas em jogo. Figuras públicas e concorrentes se manifestaram — mais notavelmente Elon Musk, que recentemente atacou os modelos da Anthropic em comentários públicos — ressaltando que os debates sobre viés, segurança e o papel adequado da IA em contextos militares agora fazem parte de uma conversa pública barulhenta, e não apenas de disputas de aquisição sigilosas.
Negociações e próximos passos
Ambos os lados têm incentivos para evitar uma ruptura total. O Pentágono precisa de capacidades de ponta; as empresas querem reter os negócios governamentais e evitar serem excluídas de contratos significativos. Esperam-se negociações intensas nos bastidores sobre a linguagem contratual, medidas de isolamento técnico (por exemplo, implantações air-gapped ou isoladas), procedimentos aprimorados de auditoria e supervisão e, possivelmente, novos constructos jurídicos que esclareçam a responsabilidade e o uso aceitável em contextos classificados.
Para o público em geral e os formuladores de políticas, essa disputa levanta questões familiares sobre controles de exportação, supervisão de tecnologias de uso duplo e se novos modelos de governança são necessários para a IA usada na segurança nacional. Qualquer que seja o resultado imediato, a negociação estabelecerá precedentes sobre como governos e desenvolvedores privados de IA compartilham capacidades sensíveis enquanto tentam manter as salvaguardas de segurança intactas.
Fontes
- Declarações públicas e materiais de aquisição do Departamento de Defesa dos EUA (Pentágono)
- Materiais de imprensa e declarações corporativas da Anthropic
- Divulgações públicas da Palantir Technologies sobre implantações com parceiros
Comments
No comments yet. Be the first!