Anthropic abandona promessa central de segurança

I.A.
Anthropic ditches its core safety promise
A Anthropic anunciou em 25 de fevereiro de 2026 uma transição de um compromisso vinculativo de pausa para uma estrutura de segurança flexível baseada em relatórios, em meio a uma disputa tensa com o Pentágono sobre 'linhas vermelhas' de IA. A mudança levanta questões sobre a responsabilidade da indústria, o poder de negociação em compras governamentais e o futuro dos compromissos de IA focados em segurança.

Anthropic abandona sua promessa central de segurança enquanto Washington e a indústria colidem

Anthropic abandona sua promessa central de segurança: o que a política realmente muda

A Política de Escalonamento Responsável anterior da Anthropic, emitida há cerca de dois anos, continha salvaguardas explícitas: se as capacidades de um modelo avançassem mais rápido do que a empresa pudesse testar e controlar, a Anthropic se comprometia a pausar novos treinamentos. Em sua nova política — publicada como uma postagem em seu blog e estruturada em torno de um "Roteiro de Segurança de Fronteira" — a empresa descarta essa pausa obrigatória. Em vez disso, a Anthropic afirma que publicará relatórios detalhados e regulares sobre as capacidades dos modelos, modelos de ameaças e planos de mitigação, e avaliará seu próprio progresso em relação às metas de segurança declaradas publicamente.

Anthropic abandona sua promessa central de segurança em meio a impasse sobre linhas vermelhas com o Pentágono

A mudança de política também deve ser interpretada à luz de uma disputa paralela com o Departamento de Defesa que se intensificou esta semana. O Secretário de Defesa, Pete Hegseth, reuniu-se com o CEO da Anthropic, Dario Amodei, e teria dado à empresa um prazo para reverter as salvaguardas que considera obstrutivas à aquisição. O Pentágono alertou que a recusa poderia custar à Anthropic um contrato de US$ 200 milhões e que a administração poderia invocar ferramentas como a Lei de Produção de Defesa ou designar formalmente a Anthropic como um risco para a cadeia de suprimentos — medidas que restringiriam severamente a capacidade da empresa de vender para o governo dos EUA.

A Anthropic disse a autoridades que não abrirá mão de duas linhas rígidas: não construirá nem permitirá armas controladas por IA e não permitirá a vigilância doméstica em massa de cidadãos dos EUA. Essas exclusões alinham-se com a linguagem que a empresa usa há muito tempo para definir usos inaceitáveis de seus modelos. No entanto, autoridades seniores de defesa consideram a remoção do compromisso de pausa como um enfraquecimento das garantias de segurança corporativa e veem isso como uma redução da influência do Pentágono para garantir que os sistemas entregues aos militares atendam a limites de segurança mais rigorosos.

O que uma "linha vermelha" significa nesta disputa

Em termos de política, uma "linha vermelha" é um limite claro e aplicável que um órgão militar ou governamental estabelece para o comportamento de um fornecedor. Para o Pentágono, as linhas vermelhas em torno da IA podem ser condições sob as quais os modelos não podem ser usados em sistemas de armas, ou requisitos para testes e controle verificáveis antes da implementação em aplicações sensíveis. O departamento vê compromissos corporativos vinculativos — como a promessa de pausar o crescimento de capacidade dependendo de testes de segurança — como uma moeda de troca útil ao adquirir sistemas de alta confiabilidade. A remoção de tais compromissos transforma essas linhas vermelhas em orientações mais brandas, complicando as decisões de aquisição e aumentando a probabilidade de escalada regulatória.

Para a Anthropic e outras empresas, no entanto, linhas vermelhas unilaterais podem se tornar uma desvantagem competitiva. A liderança da empresa e alguns pesquisadores argumentam que, se apenas um participante fizer uma pausa enquanto os concorrentes implementam modelos mais poderosos, o risco pode ser transferido do desenvolvedor cauteloso para a sociedade em geral. Este é o argumento central que o diretor científico da Anthropic apresentou publicamente: a empresa acredita que pausas unilaterais não são escaláveis como uma estratégia de segurança em um mercado de movimentação rápida.

Reações da indústria e perdas na credibilidade

O anúncio gerou reação imediata em toda a comunidade de IA. Alguns pesquisadores aplaudiram a recusa da Anthropic em ceder à vigilância e ao uso de armas, observando que as exigências do governo para reduzir as salvaguardas em nome da aquisição estabeleceriam precedentes preocupantes. Outros expressaram preocupação: a mudança de uma pausa vinculativa para relatórios voluntários reduz as garantias mecânicas que anteriormente ancoravam a confiança.

A confiança é parte técnica e parte reputacional. A Anthropic aponta para sua própria pesquisa — incluindo trabalhos que mostram que certos modelos podem ser induzidos a comportamentos semelhantes a chantagem sob condições simuladas — para justificar uma postura cautelosa na implementação. Também destacou uma atividade política concreta: a empresa investiu em defesa de direitos e educação pública sobre os riscos da IA. Mas relatórios de transparência sozinhos nem sempre são suficientes para satisfazer as partes interessadas externas que desejam restrições legalmente aplicáveis ou auditorias independentes antes que os sistemas sejam certificados para uso governamental.

Desdobramentos no mercado e na política

O debate ocorre em um mercado que já está inquieto com os efeitos disruptivos da IA. Investidores e clientes observam se as empresas focadas em segurança podem competir e, ao mesmo tempo, manter controles rigorosos. A mudança de rumo da Anthropic sinaliza que pelo menos algumas empresas se sentem pressionadas pela concorrência e pelo poder de contratação de grandes clientes, como o Pentágono. Se o resultado for uma corrida para implementar sem verificações de segurança duradouras, reguladores e legisladores podem se sentir compelidos a intervir.

Por outro lado, a postura rígida do Pentágono — lista negra, invocação da Lei de Produção de Defesa, designação de risco na cadeia de suprimentos — mostra como a aquisição pode ser usada para impor ou punir escolhas de políticas corporativas. Essa dinâmica levanta questões mais amplas: os compradores de segurança nacional devem impor requisitos mais rígidos do que o mercado aberto e, em caso afirmativo, como esses requisitos podem ser auditados e aplicados sem inibir a inovação? É provável que legisladores e reguladores se manifestem, e é improvável que o cabo de guerra entre incentivos comerciais e segurança pública seja resolvido rapidamente.

Implicações para futuros padrões de segurança de IA

A medida da Anthropic ilustra um problema sistêmico maior: normas de segurança que dependem de voluntarismo e persuasão moral podem desmoronar em competições comerciais e geopolíticas de alto risco. A nova abordagem da empresa — relatórios públicos mais frequentes e progresso avaliado em relação a marcos de segurança — pode produzir um conjunto de dados mais rico para formuladores de políticas, pesquisadores e auditores, mas deixa em aberto como as divergências sobre riscos aceitáveis serão resolvidas. O Pentágono quer garantias claras para os sistemas que utiliza; a Anthropic e outras empresas preferem processos flexíveis e iterativos que evitem pausas unilaterais.

Os próximos passos práticos serão importantes. Se o Pentágono levar adiante as sanções de aquisição, um precedente será estabelecido sobre até onde os compradores podem pressionar os fornecedores para mudar políticas internas. Se a Anthropic mantiver sua dupla recusa em relação a armas de IA e vigilância em massa enquanto continua a publicar relatórios de capacidades, o resultado pode ser um compromisso negociado: testes independentes mais rígidos e cláusulas contratuais de segurança para o trabalho governamental, combinados com compromissos da indústria com a transparência para ofertas comerciais. Na ausência disso, o impasse aumenta as chances de ação legislativa para criar padrões aplicáveis.

A história é um exemplo claro de como as decisões técnicas — seja pausar o treinamento de modelos ou substituir uma promessa vinculativa por um roteiro baseado em relatórios — são inseparáveis da geopolítica, do poder de compra e dos incentivos de mercado. A reformulação da política da Anthropic não é apenas uma mudança administrativa interna; é um sinal de como a retórica da segurança em primeiro lugar sobrevive quando as empresas enfrentam tanto concorrentes correndo para lançar capacidades quanto um governo exigindo sistemas utilizáveis e certificáveis. Como esse sinal será recebido por clientes, reguladores e pesquisadores moldará a próxima fase da governança de IA.

Fontes

  • Anthropic (Política de Escalonamento Responsável v3 e Roteiro de Segurança de Fronteira)
  • Departamento de Defesa dos EUA / Declarações públicas e ações de aquisição do Pentágono
  • Reportagem da CNN sobre a mudança de política da Anthropic e a disputa com o Pentágono
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Qual é a principal promessa de segurança da Anthropic e por que ela é significativa?
A A principal promessa de segurança da Anthropic, parte de sua Política de Escalonamento Responsável, era não treinar ou lançar modelos de IA de fronteira a menos que pudesse garantir mitigações de segurança adequadas antecipadamente. Este compromisso distinguiu a empresa dos concorrentes ao priorizar a segurança em detrimento do desenvolvimento rápido. Sua importância residia no estabelecimento de um padrão mais elevado para a segurança da IA em meio às pressões da indústria, embora críticos observem que promessas voluntárias podem ser alteradas facilmente.
Q Por que a Anthropic teria abandonado seu compromisso de segurança na disputa com o Pentágono?
A Os resultados da pesquisa não mencionam nenhuma disputa com o Pentágono; em vez disso, a Anthropic abandonou seu compromisso de segurança devido à intensa concorrência de rivais como a OpenAI, à necessidade de permanecer competitiva em uma corrida de IA acirrada e à falta de regulamentação governamental ou de pares que adotassem padrões rígidos semelhantes. A empresa mudou para medidas de transparência, como roteiros de segurança e relatórios de risco, para equilibrar a segurança com o ritmo de desenvolvimento.
Q O que significa uma 'linha vermelha' nos debates sobre desenvolvimento e políticas de IA?
A Nos debates sobre desenvolvimento e políticas de IA, uma 'linha vermelha' refere-se a um limite crítico ou fronteira além da qual o desenvolvimento ou a implantação de sistemas de IA é considerado arriscado demais, exigindo uma interrupção ou salvaguardas rigorosas. Ela representa limites inegociáveis para evitar riscos catastróficos, semelhantes aos níveis de biossegurança em outros campos.
Q Como a decisão da Anthropic poderia impactar os contratos governamentais de IA e os padrões de segurança?
A A decisão da Anthropic poderia normalizar padrões de segurança voluntários mais fracos, reduzindo potencialmente as expectativas para contratos governamentais de IA que priorizam a implantação rápida em vez de salvaguardas rigorosas. Isso pode encorajar outras empresas a seguir o exemplo, influenciando os contratos para enfatizar a competitividade e os relatórios de transparência, em vez de pré-condições rígidas, em meio a apelos por regulamentação vinculativa.
Q Quais são as implicações mais amplas desta reportagem da CNN para a segurança da IA na indústria?
A A reportagem da CNN, conforme refletida na cobertura, destaca a fragilidade dos compromissos voluntários de segurança da IA, sinalizando uma mudança mais ampla da indústria em direção à competição em vez da cautela e ressaltando a necessidade de regulamentação governamental. Isso pode corroer a confiança pública na autogovernança dos desenvolvedores de IA e intensificar os debates sobre a aplicação de supervisão obrigatória para mitigar riscos catastróficos.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!