Pentágono dá prazo de três dias à Anthropic

I.A.
Pentagon Gives Anthropic Three Days
O Pentágono enviou um ultimato de três dias à Anthropic para remover os limites de segurança de seu modelo Claude, sob pena de inclusão em uma lista negra ou coerção sob a Lei de Produção de Defesa, sinalizando uma escalada na disputa pelo acesso militar à IA de fronteira.

Pentágono dá dias à Anthropic: um ultimato ríspido

A frase "pentagon gives anthropic days" é agora mais do que uma manchete na internet: esta semana, o Pentágono pressionou a Anthropic com um prazo de três dias para remover as proteções de segurança em seu modelo Claude, ou enfrentará a rotulagem de risco na cadeia de suprimentos e o corte em trabalhos de defesa dos EUA. A demanda foi apresentada em uma reunião tensa na manhã de terça-feira no Pentágono, que incluiu o Secretário de Defesa Pete Hegseth e advogados seniores do departamento, de acordo com relatos de participantes e declarações da empresa. A escolha apresentada à Anthropic foi dura: ceder às condições do Pentágono ou ser colocada na lista negra e potencialmente compelida sob a Lei de Produção de Defesa (Defense Production Act - DPA).

Pentágono dá dias à Anthropic — o que aconteceu na reunião

Autoridades na reunião disseram a repórteres que o tom foi de confronto. Um oficial de defesa descreveu a sessão como "nada calorosa", e outro reconheceu o paradoxo de que o Pentágono é simultaneamente dependente de modelos de fronteira, embora relutante em aceitar que empresas privadas estabeleçam condições para o uso militar. O CEO da Anthropic, Dario Amodei, participou da reunião e, após a conversa, a empresa divulgou um comunicado dizendo que continua comprometida em apoiar missões legítimas de segurança nacional, preservando ao mesmo tempo o comportamento seguro e testável do modelo.

O gatilho imediato para o confronto, conforme descrito na imprensa, foi uma série de revelações de que o modelo Claude fora usado — sem aviso prévio à Anthropic — em uma operação militar em janeiro. Esse episódio, e a cobertura sobre ele, intensificaram a pressão dentro do Pentágono para insistir em um acesso irrestrito. O Departamento de Defesa tem sido explícito sobre um cronograma de curto prazo para a aceleração da IA: uma estratégia de combate "AI-first" (prioridade à IA) publicada em janeiro estabeleceu projetos demonstráveis para este verão, e oficiais seniores dizem que precisam dos modelos mais capazes agora para cumprir esses prazos.

Junto ao ultimato, o Pentágono anunciou um acordo separado para implantar o modelo Grok, da xAI, em redes militares classificadas sob a rubrica de "todos os fins legais". Diferenças relatadas nos termos contratuais entre as duas empresas — uma aceitando uma linguagem de uso abrangente enquanto a outra resistiu — enfatizaram a mensagem da administração de que o Estado não tolerará restrições de fornecedores que considere incompatíveis com as necessidades operacionais.

Pentágono dá dias à Anthropic — ferramentas legais e a ameaça de lista negra

O Pentágono enquadrou suas opções em dois âmbitos legais: inclusão na lista negra como um risco à cadeia de suprimentos e a invocação da Lei de Produção de Defesa para forçar um comportamento específico. A inclusão na lista negra significaria a anulação de futuros contratos com o Pentágono e a pressão sobre os principais contratantes para romperem vínculos. Na prática, isso excluiria a Anthropic de uma grande fatia de receita e parcerias governamentais, e sinalizaria a outros clientes que reconsiderassem as relações comerciais. O aviso é punitivo: destina-se a forçar uma empresa a escolher entre um modelo de negócios filtrado e a perda de lucrativos trabalhos governamentais.

A Lei de Produção de Defesa ocupa um lugar jurídico diferente. A DPA concede ao presidente poderes amplos para exigir que as empresas priorizem e aceitem contratos governamentais e produzam bens e serviços necessários para a defesa nacional. Para a IA, isso poderia ser usado para ordenar que um fornecedor adapte ou reconfigure modelos, remova recursos de segurança específicos ou forneça acesso técnico para tarefas classificadas. Usar a DPA contra um fornecedor de software desta forma seria algo inédito e legalmente contestado, mas oficiais do Pentágono teriam levantado essa possibilidade como um instrumento crível para impor a conformidade.

Para observadores externos e juristas, essas opções levantam questões imediatas sobre precedentes e supervisão. A inclusão na lista negra altera o cenário de fornecimento por meio de um decreto administrativo; a DPA efetuaria uma mudança técnica forçada em um produto. Ambas as medidas têm implicações para a autonomia corporativa, liberdades civis e o mercado internacional de modelos de fronteira de IA.

Salvaguardas da Anthropic e posicionamento corporativo

A Anthropic descreveu seu regime de segurança em documentos públicos e entrevistas como uma mistura de proteções técnicas e políticas. Essas salvaguardas incluem filtragem de conteúdo, modos de recusa para certas classes de solicitações e declarações de política explícitas que proíbem aplicações como "armas totalmente autônomas" e "vigilância doméstica em massa de americanos". A empresa também resistiu a assinar termos contratuais abrangentes de compromisso com o apoio a "todos os fins legais", argumentando que tal redação eliminaria limites significativos sobre como os modelos são implantados.

Essa posição, no entanto, convive com um histórico de engajamento comercial e governamental. A Anthropic buscou implantações em redes classificadas com parceiros de infraestrutura, lançou uma oferta voltada ao governo chamada Claude Gov e obteve contratos consideráveis com clientes da área de defesa. A empresa também conta com grandes investidores de nuvem e chips entre seus apoiadores, e possui relações comerciais que a interligam com o ecossistema de inteligência militar. Esses envolvimentos complicam as alegações de que a empresa se mantém inteiramente à parte das prioridades de defesa.

Quando questionados sobre o porquê de o Pentágono ter dado três dias à Anthropic para abandonar as salvaguardas de IA, observadores apontam para uma mistura de pressão estratégica e demanda operacional imediata. O departamento quer um caminho testado e explicável para integrar grandes modelos no planejamento de missões, logística e sistemas de armas com rapidez. Qualquer restrição de fornecedor que possa impedir o uso rápido e irrestrito — especialmente sob o padrão legal de "todos os fins legais" — está sendo enquadrada pelo Pentágono como um risco inaceitável à prontidão.

O que a inclusão na lista negra e a reversão das salvaguardas significariam na prática

Se a Anthropic fosse incluída na lista negra, a empresa perderia o acesso direto a muitas oportunidades de defesa; os contratantes poderiam ser ordenados a cortar laços e os canais de compras governamentais seriam fechados. Se, em vez disso, a Anthropic removesse as salvaguardas sob pressão ou coerção, a consequência técnica imediata seriam modelos que aceitariam uma gama mais ampla de comandos e instruções operacionais, incluindo aqueles relacionados a alvos, vigilância ou outras missões sensíveis.

Os efeitos secundários seriam tanto técnicos quanto sociais. A remoção de proteções aumenta o risco de os modelos serem reaproveitados para vigilância em massa, permitindo que sistemas de monitoramento automatizados ganhem escala mais rapidamente. Isso poderia acelerar a integração em sistemas de apoio a armas, onde a supervisão humana pode ser limitada. Do ponto de vista da segurança, o relaxamento das restrições pode degradar a capacidade de testar e auditar modelos quanto a vieses, alucinações e vulnerabilidades adversariais — problemas que já tornam arriscada a implantação de modelos em sistemas críticos à vida.

Para as liberdades civis e as normas internacionais, o que está em jogo é muito importante: modelos despojados de restrições poderiam ser usados para programas de vigilância doméstica em larga escala, desinformação direcionada em massa ou operações estrangeiras com limiares probatórios mais baixos. Esses são exatamente os dilemas que a empresa declarou publicamente buscar evitar, o que ajuda a explicar por que a disputa se tornou um ponto crítico.

Implicações mais amplas: mercados, política e o futuro da IA militar

Este confronto ilustra uma tensão mais ampla no ecossistema de IA. Os governos querem acesso previsível e auditável aos modelos mais capazes para acelerar aplicações em tempos de guerra. Muitas empresas, por outro lado, temem repercussões éticas e de reputação decorrentes do uso militar irrestrito. A divisão é acentuada pela política: empresas dispostas a aceitar uma linguagem contratual ampla ganham acesso rápido às redes governamentais, enquanto aquelas que tentam manter limites condicionais correm o risco de exclusão ou coerção.

Também sublinha uma realidade operacional sombria: quando uma capacidade tecnológica é julgada estrategicamente necessária, o Estado pode recorrer a pressões legais e econômicas extraordinárias para garanti-la. Essa dinâmica forçará os fornecedores privados de IA a ponderar imperativos comerciais, expectativas dos investidores, exposição legal e escrutínio público ao negociar com governos. Para os formuladores de políticas, o episódio levanta questões sobre transparência, supervisão e normas internacionais que regem a IA em contextos militares.

Para pesquisadores, engenheiros e o público, o resultado importará porque moldará como os modelos mais avançados são governados e testados. Se a indústria aceitar a remoção total de salvaguardas em nome da segurança nacional, o espaço para pesquisa de segurança independente, auditoria pública e proteções de liberdades civis diminuirá. Por outro lado, se as empresas defenderem com sucesso alguns limites, a disputa pode levar o governo a desenvolver suas próprias capacidades internas ou a criar regras de aquisição que equilibrem a necessidade operacional com os requisitos de segurança.

O cronograma imediato permanece curto: a exigência de três dias do Pentágono colocou a Anthropic sob uma pressão enorme para escolher um caminho. Qualquer que seja a decisão, o episódio será um caso de teste para saber se as empresas privadas de IA podem estabelecer limites eficazes para o uso militar de modelos de fronteira, ou se o Estado obrigará um acesso mais amplo em nome da prontidão de defesa.

Fontes

  • Materiais de imprensa do Departamento de Defesa dos EUA
  • Materiais de imprensa e documentos de política pública da Anthropic
  • Materiais de imprensa da xAI (Grok)
  • Lei de Produção de Defesa (Defense Production Act — texto e orientação jurídica)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Por que o Pentágono deu à Anthropic três dias para remover as salvaguardas de IA?
A Não há evidências nas fontes disponíveis de que o Pentágono tenha dado à Anthropic três dias para remover as salvaguardas de IA; o título do artigo fornecido parece não ter fundamento nos resultados de pesquisa. Em vez disso, a Anthropic fortaleceu sua Política de Escalonamento Responsável (RSP) com transparência aprimorada e controles de risco, incluindo Níveis de Segurança de IA (ASLs) para modelos avançados. A empresa atualizou sua RSP em resposta a lições de implementação, não a pressões externas do Pentágono.
Q O que exatamente são as salvaguardas de IA usadas pela Anthropic?
A As salvaguardas de IA da Anthropic incluem a Política de Escalonamento Responsável (RSP) com Níveis de Segurança de IA (ASLs), apresentando classificadores para bloquear conteúdos químicos e biológicos prejudiciais, controles de acesso, red-teaming, programas de recompensas por bugs e sistemas de detecção em tempo real. Isso engloba Classificadores Constitucionais, direcionamento de respostas, aplicação de políticas de conta e avaliações para prevenir o uso indevido, como o desenvolvimento de armas biológicas ou ataques de destilação. As salvaguardas são integradas ao treinamento, implantação e monitoramento dos modelos para garantir a segurança como um requisito de lançamento.
Q O que significa se uma empresa for colocada na lista negra pelo Pentágono?
A Os resultados da pesquisa não especificam o que significa para uma empresa ser incluída na lista negra pelo Pentágono. Nenhuma informação relevante sobre os procedimentos de inclusão na lista negra do Pentágono ou as implicações para empresas de IA como a Anthropic é fornecida.
Q O que poderia acontecer se a Anthropic removesse suas salvaguardas de IA?
A A remoção das salvaguardas de IA poderia aumentar os riscos catastróficos de IAs avançadas, como permitir o desenvolvimento de armas biológicas ou outros usos indevidos por agentes de ameaça, já que a RSP da Anthropic foi projetada para mitigar esses riscos por meio de proteções de ASL. Isso poderia permitir que concorrentes com salvaguardas mais fracas dominassem, levando potencialmente a um mundo menos seguro no geral, de acordo com a lógica da política da Anthropic. No entanto, a Anthropic mantém o compromisso de igualar ou superar os esforços de segurança dos concorrentes.
Q Quem é a Anthropic e qual é a posição deles sobre a segurança da IA?
A A Anthropic é uma empresa de IA focada no desenvolvimento de sistemas seguros e confiáveis como o Claude, fundada com uma forte ênfase na segurança da IA. Sua posição envolve a Política de Escalonamento Responsável (RSP), que utiliza Níveis de Segurança de IA para aplicar salvaguardas crescentes para modelos avançados, promovendo transparência, mitigação de riscos e proteções líderes do setor contra danos catastróficos. Eles realizam avaliações extensivas, red-teaming e fiscalização para equilibrar a utilidade com a segurança.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!