Pentágono dá dias à Anthropic: um ultimato ríspido
A frase "pentagon gives anthropic days" é agora mais do que uma manchete na internet: esta semana, o Pentágono pressionou a Anthropic com um prazo de três dias para remover as proteções de segurança em seu modelo Claude, ou enfrentará a rotulagem de risco na cadeia de suprimentos e o corte em trabalhos de defesa dos EUA. A demanda foi apresentada em uma reunião tensa na manhã de terça-feira no Pentágono, que incluiu o Secretário de Defesa Pete Hegseth e advogados seniores do departamento, de acordo com relatos de participantes e declarações da empresa. A escolha apresentada à Anthropic foi dura: ceder às condições do Pentágono ou ser colocada na lista negra e potencialmente compelida sob a Lei de Produção de Defesa (Defense Production Act - DPA).
Pentágono dá dias à Anthropic — o que aconteceu na reunião
Autoridades na reunião disseram a repórteres que o tom foi de confronto. Um oficial de defesa descreveu a sessão como "nada calorosa", e outro reconheceu o paradoxo de que o Pentágono é simultaneamente dependente de modelos de fronteira, embora relutante em aceitar que empresas privadas estabeleçam condições para o uso militar. O CEO da Anthropic, Dario Amodei, participou da reunião e, após a conversa, a empresa divulgou um comunicado dizendo que continua comprometida em apoiar missões legítimas de segurança nacional, preservando ao mesmo tempo o comportamento seguro e testável do modelo.
O gatilho imediato para o confronto, conforme descrito na imprensa, foi uma série de revelações de que o modelo Claude fora usado — sem aviso prévio à Anthropic — em uma operação militar em janeiro. Esse episódio, e a cobertura sobre ele, intensificaram a pressão dentro do Pentágono para insistir em um acesso irrestrito. O Departamento de Defesa tem sido explícito sobre um cronograma de curto prazo para a aceleração da IA: uma estratégia de combate "AI-first" (prioridade à IA) publicada em janeiro estabeleceu projetos demonstráveis para este verão, e oficiais seniores dizem que precisam dos modelos mais capazes agora para cumprir esses prazos.
Junto ao ultimato, o Pentágono anunciou um acordo separado para implantar o modelo Grok, da xAI, em redes militares classificadas sob a rubrica de "todos os fins legais". Diferenças relatadas nos termos contratuais entre as duas empresas — uma aceitando uma linguagem de uso abrangente enquanto a outra resistiu — enfatizaram a mensagem da administração de que o Estado não tolerará restrições de fornecedores que considere incompatíveis com as necessidades operacionais.
Pentágono dá dias à Anthropic — ferramentas legais e a ameaça de lista negra
O Pentágono enquadrou suas opções em dois âmbitos legais: inclusão na lista negra como um risco à cadeia de suprimentos e a invocação da Lei de Produção de Defesa para forçar um comportamento específico. A inclusão na lista negra significaria a anulação de futuros contratos com o Pentágono e a pressão sobre os principais contratantes para romperem vínculos. Na prática, isso excluiria a Anthropic de uma grande fatia de receita e parcerias governamentais, e sinalizaria a outros clientes que reconsiderassem as relações comerciais. O aviso é punitivo: destina-se a forçar uma empresa a escolher entre um modelo de negócios filtrado e a perda de lucrativos trabalhos governamentais.
A Lei de Produção de Defesa ocupa um lugar jurídico diferente. A DPA concede ao presidente poderes amplos para exigir que as empresas priorizem e aceitem contratos governamentais e produzam bens e serviços necessários para a defesa nacional. Para a IA, isso poderia ser usado para ordenar que um fornecedor adapte ou reconfigure modelos, remova recursos de segurança específicos ou forneça acesso técnico para tarefas classificadas. Usar a DPA contra um fornecedor de software desta forma seria algo inédito e legalmente contestado, mas oficiais do Pentágono teriam levantado essa possibilidade como um instrumento crível para impor a conformidade.
Para observadores externos e juristas, essas opções levantam questões imediatas sobre precedentes e supervisão. A inclusão na lista negra altera o cenário de fornecimento por meio de um decreto administrativo; a DPA efetuaria uma mudança técnica forçada em um produto. Ambas as medidas têm implicações para a autonomia corporativa, liberdades civis e o mercado internacional de modelos de fronteira de IA.
Salvaguardas da Anthropic e posicionamento corporativo
A Anthropic descreveu seu regime de segurança em documentos públicos e entrevistas como uma mistura de proteções técnicas e políticas. Essas salvaguardas incluem filtragem de conteúdo, modos de recusa para certas classes de solicitações e declarações de política explícitas que proíbem aplicações como "armas totalmente autônomas" e "vigilância doméstica em massa de americanos". A empresa também resistiu a assinar termos contratuais abrangentes de compromisso com o apoio a "todos os fins legais", argumentando que tal redação eliminaria limites significativos sobre como os modelos são implantados.
Essa posição, no entanto, convive com um histórico de engajamento comercial e governamental. A Anthropic buscou implantações em redes classificadas com parceiros de infraestrutura, lançou uma oferta voltada ao governo chamada Claude Gov e obteve contratos consideráveis com clientes da área de defesa. A empresa também conta com grandes investidores de nuvem e chips entre seus apoiadores, e possui relações comerciais que a interligam com o ecossistema de inteligência militar. Esses envolvimentos complicam as alegações de que a empresa se mantém inteiramente à parte das prioridades de defesa.
Quando questionados sobre o porquê de o Pentágono ter dado três dias à Anthropic para abandonar as salvaguardas de IA, observadores apontam para uma mistura de pressão estratégica e demanda operacional imediata. O departamento quer um caminho testado e explicável para integrar grandes modelos no planejamento de missões, logística e sistemas de armas com rapidez. Qualquer restrição de fornecedor que possa impedir o uso rápido e irrestrito — especialmente sob o padrão legal de "todos os fins legais" — está sendo enquadrada pelo Pentágono como um risco inaceitável à prontidão.
O que a inclusão na lista negra e a reversão das salvaguardas significariam na prática
Se a Anthropic fosse incluída na lista negra, a empresa perderia o acesso direto a muitas oportunidades de defesa; os contratantes poderiam ser ordenados a cortar laços e os canais de compras governamentais seriam fechados. Se, em vez disso, a Anthropic removesse as salvaguardas sob pressão ou coerção, a consequência técnica imediata seriam modelos que aceitariam uma gama mais ampla de comandos e instruções operacionais, incluindo aqueles relacionados a alvos, vigilância ou outras missões sensíveis.
Os efeitos secundários seriam tanto técnicos quanto sociais. A remoção de proteções aumenta o risco de os modelos serem reaproveitados para vigilância em massa, permitindo que sistemas de monitoramento automatizados ganhem escala mais rapidamente. Isso poderia acelerar a integração em sistemas de apoio a armas, onde a supervisão humana pode ser limitada. Do ponto de vista da segurança, o relaxamento das restrições pode degradar a capacidade de testar e auditar modelos quanto a vieses, alucinações e vulnerabilidades adversariais — problemas que já tornam arriscada a implantação de modelos em sistemas críticos à vida.
Para as liberdades civis e as normas internacionais, o que está em jogo é muito importante: modelos despojados de restrições poderiam ser usados para programas de vigilância doméstica em larga escala, desinformação direcionada em massa ou operações estrangeiras com limiares probatórios mais baixos. Esses são exatamente os dilemas que a empresa declarou publicamente buscar evitar, o que ajuda a explicar por que a disputa se tornou um ponto crítico.
Implicações mais amplas: mercados, política e o futuro da IA militar
Este confronto ilustra uma tensão mais ampla no ecossistema de IA. Os governos querem acesso previsível e auditável aos modelos mais capazes para acelerar aplicações em tempos de guerra. Muitas empresas, por outro lado, temem repercussões éticas e de reputação decorrentes do uso militar irrestrito. A divisão é acentuada pela política: empresas dispostas a aceitar uma linguagem contratual ampla ganham acesso rápido às redes governamentais, enquanto aquelas que tentam manter limites condicionais correm o risco de exclusão ou coerção.
Também sublinha uma realidade operacional sombria: quando uma capacidade tecnológica é julgada estrategicamente necessária, o Estado pode recorrer a pressões legais e econômicas extraordinárias para garanti-la. Essa dinâmica forçará os fornecedores privados de IA a ponderar imperativos comerciais, expectativas dos investidores, exposição legal e escrutínio público ao negociar com governos. Para os formuladores de políticas, o episódio levanta questões sobre transparência, supervisão e normas internacionais que regem a IA em contextos militares.
Para pesquisadores, engenheiros e o público, o resultado importará porque moldará como os modelos mais avançados são governados e testados. Se a indústria aceitar a remoção total de salvaguardas em nome da segurança nacional, o espaço para pesquisa de segurança independente, auditoria pública e proteções de liberdades civis diminuirá. Por outro lado, se as empresas defenderem com sucesso alguns limites, a disputa pode levar o governo a desenvolver suas próprias capacidades internas ou a criar regras de aquisição que equilibrem a necessidade operacional com os requisitos de segurança.
O cronograma imediato permanece curto: a exigência de três dias do Pentágono colocou a Anthropic sob uma pressão enorme para escolher um caminho. Qualquer que seja a decisão, o episódio será um caso de teste para saber se as empresas privadas de IA podem estabelecer limites eficazes para o uso militar de modelos de fronteira, ou se o Estado obrigará um acesso mais amplo em nome da prontidão de defesa.
Fontes
- Materiais de imprensa do Departamento de Defesa dos EUA
- Materiais de imprensa e documentos de política pública da Anthropic
- Materiais de imprensa da xAI (Grok)
- Lei de Produção de Defesa (Defense Production Act — texto e orientação jurídica)
Comments
No comments yet. Be the first!