Pentágono vs Anthropic: Ameaça de Suspensão de Acesso

Pentagon vs Anthropic: Cut-off Threat
O Pentágono ameaça suspender o acesso da Anthropic devido a restrições no uso militar de sua IA, pressionando empresas a permitirem o uso de ferramentas em redes classificadas. O impasse evidencia as tensões entre as exigências da defesa, as salvaguardas de segurança corporativas e os riscos à segurança nacional.

Pentágono ameaça rompimento enquanto negociações com a Anthropic chegam a um impasse

Nesta semana, o Pentágono ameaçou romper com a Anthropic, de acordo com relatos surgidos em 16 de fevereiro de 2026, à medida que o Departamento de Defesa dos EUA pressiona a empresa a flexibilizar os limites impostos sobre como seus grandes modelos de linguagem podem ser usados pelos militares. A disputa — relatada pela CNBC junto a coberturas anteriores da Reuters e Axios — centra-se em saber se as empresas comerciais de IA permitirão que seus sistemas sejam usados para o que o Pentágono descreve como "todos os fins lícitos", incluindo o desenvolvimento de armas, coleta de inteligência e operações no campo de batalha. A Anthropic afirma ter mantido sua posição sobre restrições de segurança específicas, como limites rígidos para armas autônomas e vigilância doméstica em massa, e o desentendimento escalou para ameaças de que o relacionamento poderia ser interrompido.

O Pentágono ameaça rompimento: os pontos de fricção jurídica e contratual

O cerne do embate é a linguagem jurídica e contratual. O Pentágono quer acesso aos modelos em redes classificadas e uma redação mais ampla que permita o uso em uma variedade de missões militares; as empresas normalmente fornecem acesso sujeito a salvaguardas no nível do modelo e restrições baseadas em políticas. Para o Pentágono, a frase "todos os fins lícitos" é um termo contratual único que reduziria a ambiguidade sobre o uso militar permitido. Para empresas como Anthropic, OpenAI, Google e xAI, aceitar essa redação corre o risco de erodir as barreiras de segurança (guardrails) internas — tanto os controles técnicos integrados aos modelos quanto os compromissos de política corporativa destinados a limitar o uso indevido.

As negociações também tocam em detalhes técnicos: como os modelos são implantados em redes classificadas, se os filtros de conteúdo e o registro de uso permanecem em vigor e quem é responsável se um sistema movido por IA produzir resultados prejudiciais. O Pentágono sinalizou frustração após meses de conversas; a pressão para remover ou afrouxar as restrições reflete um desejo operacional de usar os sistemas mais capazes disponíveis em ambientes contestados, enquanto as empresas se preocupam com a responsabilidade civil, o risco reputacional e a ética mais ampla das aplicações militares.

Como a Anthropic e os outros fornecedores responderam

A Anthropic disse publicamente que as conversas iniciais com o governo dos EUA focaram em questões de política de uso e limites explícitos — mais notavelmente proibições de armas autônomas e limites à vigilância doméstica em massa — em vez de autorizar operações específicas. Um porta-voz da empresa disse a repórteres que não havia discutido o uso de seu modelo Claude para operações táticas nomeadas com o Pentágono. Essa declaração contrasta com relatos de que o Claude foi usado em pelo menos uma operação de alto perfil por meio de um parceiro: o Wall Street Journal informou que o Claude foi implantado via Palantir em uma operação para capturar o ex-presidente da Venezuela, demonstrando como as integrações de parceiros complicam as caracterizações simples de contenção corporativa.

Outras grandes empresas de IA citadas em reportagens — OpenAI, Google e xAI — também são alvo de pressão do Pentágono para expandir o acesso. A Reuters e a CNBC descreveram amplas solicitações do Departamento de Defesa para disponibilizar modelos em redes classificadas sem muitas das restrições padrão que as empresas aplicam a usuários civis. As empresas lidaram com essas solicitações de forma diferente, equilibrando oportunidades contratuais e credenciais de segurança contra políticas internas e escrutínio externo.

Por que o Pentágono está pressionando e o que deseja alcançar

Mas a pressão por uma linguagem contratual abrangente e aberta — "todos os fins lícitos" — levanta questões sobre quais salvaguardas permanecem em vigor quando os modelos são usados em contextos cinéticos ou secretos. O uso lícito é um padrão legal amplo que ainda exige a implementação de controles para evitar escaladas não intencionais, danos a civis ou violações das leis nacionais e internacionais. Essas demandas operacionais são a fonte da tensão atual.

Salvaguardas técnicas em jogo e as preocupações do Pentágono

As empresas constroem salvaguardas nos modelos em dois eixos: controles no nível do modelo (ajuste fino, camadas de segurança, testes de red-team e filtros de conteúdo) e controles no nível da política (termos de serviço e restrições contratuais de uso). A pressão do Pentágono para reduzir ou contornar as restrições alteraria a forma como esses controles operam na prática. Por exemplo, colocar um modelo em uma rede classificada pode remover parte da telemetria e dos registros por razões de segurança, mas também pode prejudicar a capacidade da empresa de monitorar o uso indevido e corrigir comportamentos problemáticos.

Segundo relatos, o Pentágono está frustrado porque a Anthropic resistiu a propostas para relaxar limites em cenários que a empresa considera de alto risco — como o controle de armas totalmente autônomas e a vigilância doméstica em massa. Essas são áreas onde muitas empresas de IA, não apenas a Anthropic, defenderam proibições estritas à tomada de decisão autônoma que pudesse causar resultados letais sem supervisão humana.

Como o corte de acesso pode impactar a segurança

Se o Pentágono levar a cabo a ameaça e romper os laços com a Anthropic, o efeito imediato seria um conjunto mais restrito de fornecedores disponíveis para a comunidade de defesa dos EUA. Isso provavelmente aceleraria os esforços internos do Departamento de Defesa para construir ou contratar modelos sob medida, aumentaria a dependência de empresas que concordam com termos de uso mais amplos ou incentivaria parcerias com fornecedores estrangeiros — cada resultado trazendo suas próprias compensações em termos de segurança e supervisão. Um rompimento também poderia levar as agências a aceitar soluções com menos controles de segurança por parte do fornecedor, aumentando o risco de uso indevido ou consequências não intencionais.

Por outro lado, as empresas que mantêm restrições de segurança robustas argumentam que essas barreiras reduzem riscos futuros, evitam a expansão indevida da missão (mission creep) e preservam a confiança pública. O impasse mostra uma escolha estratégica mais profunda: se os atores da segurança nacional toleram barreiras corporativas que limitam certas aplicações militares, ou se insistem no acesso irrestrito e aceitam novos ônus de supervisão dentro dos sistemas governamentais.

Precedentes passados e o contexto político mais amplo

O Departamento de Defesa já financiou pesquisas de IA e formou parcerias com a indústria anteriormente, mas o momento atual se destaca pela escala e maturidade dos grandes modelos de linguagem disponíveis comercialmente. Colaborações anteriores incluíam subsídios condicionais e projetos-piloto que exigiam salvaguardas específicas; a disputa atual é sobre termos operacionais amplos, e não sobre financiamento de pilotos. A ameaça do Pentágono de cortar um fornecedor por desentendimentos políticos é uma escalada pública e sinaliza negociações difíceis pela frente para todos os principais fornecedores de ferramentas avançadas de IA.

Também há pressões políticas em jogo. Figuras públicas e concorrentes se manifestaram — mais notavelmente Elon Musk, que recentemente atacou os modelos da Anthropic em comentários públicos — ressaltando que os debates sobre viés, segurança e o papel adequado da IA em contextos militares agora fazem parte de uma conversa pública barulhenta, e não apenas de disputas de aquisição sigilosas.

Negociações e próximos passos

Ambos os lados têm incentivos para evitar uma ruptura total. O Pentágono precisa de capacidades de ponta; as empresas querem reter os negócios governamentais e evitar serem excluídas de contratos significativos. Esperam-se negociações intensas nos bastidores sobre a linguagem contratual, medidas de isolamento técnico (por exemplo, implantações air-gapped ou isoladas), procedimentos aprimorados de auditoria e supervisão e, possivelmente, novos constructos jurídicos que esclareçam a responsabilidade e o uso aceitável em contextos classificados.

Para o público em geral e os formuladores de políticas, essa disputa levanta questões familiares sobre controles de exportação, supervisão de tecnologias de uso duplo e se novos modelos de governança são necessários para a IA usada na segurança nacional. Qualquer que seja o resultado imediato, a negociação estabelecerá precedentes sobre como governos e desenvolvedores privados de IA compartilham capacidades sensíveis enquanto tentam manter as salvaguardas de segurança intactas.

Fontes

  • Declarações públicas e materiais de aquisição do Departamento de Defesa dos EUA (Pentágono)
  • Materiais de imprensa e declarações corporativas da Anthropic
  • Divulgações públicas da Palantir Technologies sobre implantações com parceiros
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q O que é a Anthropic e por que o Pentágono está ameaçando cortá-la devido a salvaguardas de IA?
A A Anthropic é uma empresa de IA sediada em San Francisco, conhecida por seu modelo de IA Claude, que tem sido utilizado em operações militares, como uma incursão na Venezuela. O Pentágono, sob o comando do Secretário de Defesa Pete Hegseth, está ameaçando cortar laços e rotular a Anthropic como um 'risco para a cadeia de suprimentos' devido à recusa da empresa em permitir o uso militar irrestrito do Claude para todos os fins legais, insistindo, em vez disso, em salvaguardas contra a vigilância em massa de americanos e armas autônomas. Essa disputa intensificou-se apesar de meses de negociações, com o Pentágono vendo as restrições da Anthropic como excessivamente limitantes.
Q Quais salvaguardas de IA o Pentágono afirmou que a Anthropic não cumpriu?
A O Pentágono afirmou que a Anthropic não atendeu aos requisitos de acesso irrestrito à IA Claude para todos os usos militares legais, particularmente em sistemas confidenciais. A Anthropic busca termos contratuais que proíbam a vigilância em massa de americanos e o desenvolvimento de armas que operem sem envolvimento humano, o que o Pentágono considera impraticável devido a áreas cinzentas. O Pentágono também está pressionando por acesso irrestrito semelhante da OpenAI, Google e xAI.
Q O Pentágono tomou medidas semelhantes contra outras empresas de IA?
A O Pentágono ainda não tomou medidas semelhantes, como rotular outras empresas de IA como riscos para a cadeia de suprimentos, mas está envolvido em negociações difíceis e contínuas com a OpenAI, Google e xAI sobre os mesmos problemas de acesso irrestrito. Essas empresas consentiram em relaxar as restrições para uso militar em sistemas confidenciais, embora isso não tenha sido totalmente implementado para operações sensíveis. Até o momento, nenhum relatório indica cortes reais ou designações para essas empresas.
Q Como o corte da Anthropic poderia afetar a segurança da IA e as iniciativas de segurança nacional?
A Cortar a Anthropic poderia prejudicar a segurança nacional ao interromper o acesso ao Claude, que lidera em aplicações militares especializadas, enquanto os modelos rivais estão apenas 'logo atrás', potencialmente atrasando operações críticas. Isso poderia pressionar as empresas de IA a enfraquecer as salvaguardas de segurança, arriscando violações de privacidade ampliadas por meio de vigilância em massa ou desenvolvimento de armas autônomas. Por outro lado, estabelece um precedente para priorizar as necessidades militares em detrimento das restrições corporativas de IA, possivelmente avançando iniciativas de IA de defesa, mas ao custo de salvaguardas éticas.
Q O que a CNBC relatou sobre a disputa entre o Pentágono e a Anthropic?
A A CNBC não é referenciada diretamente nos relatórios disponíveis sobre a disputa; a cobertura vem principalmente do Axios e do Hindustan Times. O Axios detalhou a quase decisão do Secretário de Defesa Pete Hegseth de romper laços com a Anthropic devido às restrições de uso do Claude, citando autoridades do Pentágono sobre rotulá-la como um risco para a cadeia de suprimentos e a frustração após meses de conversas. O Hindustan Times ecoou isso, destacando as salvaguardas da Anthropic contra vigilância e armas autônomas.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!