Anthropic abandona su compromiso fundamental de seguridad

Anthropic ditches its core safety promise
Anthropic anunció el 25 de febrero de 2026 un cambio de un compromiso de pausa vinculante a un marco de seguridad flexible basado en informes, en medio de una tensa disputa con el Pentágono sobre las líneas rojas de la IA. Esta medida plantea interrogantes sobre la responsabilidad de la industria, la influencia en las adquisiciones gubernamentales y el futuro de los compromisos de IA que priorizan la seguridad.

Anthropic abandona su promesa de seguridad fundamental mientras Washington y la industria chocan

Anthropic abandona su promesa de seguridad fundamental: qué cambia realmente la política

La anterior Política de Escalado Responsable de Anthropic, emitida hace aproximadamente dos años, contenía salvaguardas explícitas: si las capacidades de un modelo avanzaban más rápido de lo que la empresa podía probar y controlar, Anthropic se comprometía a pausar el entrenamiento adicional. En su nueva política —publicada como una entrada de blog y estructurada en torno a una "Hoja de Ruta de Seguridad de Frontera"— la empresa elimina esa pausa forzosa. En su lugar, Anthropic afirma que publicará informes periódicos y detallados sobre las capacidades de los modelos, modelos de amenazas y planes de mitigación, y calificará su propio progreso hacia los objetivos de seguridad declarados públicamente.

Anthropic abandona su promesa de seguridad fundamental en medio de un enfrentamiento por "líneas rojas" con el Pentágono

El cambio de política también debe leerse en el contexto de una lucha paralela con el Departamento de Defensa que se intensificó esta semana. El secretario de Defensa, Pete Hegseth, se reunió con el CEO de Anthropic, Dario Amodei, y supuestamente dio a la empresa un plazo para retirar las salvaguardas que considera obstructivas para la contratación. El Pentágono advirtió que una negativa podría costarle a Anthropic un contrato de 200 millones de dólares y que la administración podría invocar herramientas como la Ley de Producción de Defensa o designar formalmente a Anthropic como un riesgo para la cadena de suministro, medidas que restringirían severamente la capacidad de la empresa para vender al gobierno de los EE. UU.

Anthropic ha comunicado a los funcionarios que no abandonará dos líneas inamovibles: no construirá ni permitirá armas controladas por IA, y no permitirá la vigilancia masiva doméstica de ciudadanos estadounidenses. Esas excepciones coinciden con el lenguaje que la empresa ha utilizado durante mucho tiempo para definir usos inaceptables de sus modelos. Aun así, altos funcionarios de defensa consideran la eliminación del compromiso de pausa como un debilitamiento de las garantías de seguridad corporativas, y lo ven como una reducción de la influencia del Pentágono para asegurar que los sistemas entregados a los militares cumplan con umbrales de seguridad más estrictos.

Qué significa una "línea roja" en este conflicto

En términos de política, una "línea roja" es un límite claro y exigible que un ejército o gobierno establece para el comportamiento de un proveedor. Para el Pentágono, las líneas rojas en torno a la IA podrían ser condiciones bajo las cuales los modelos no pueden usarse en sistemas de armas, o requisitos de pruebas y control verificables antes del despliegue en aplicaciones sensibles. El departamento considera los compromisos corporativos vinculantes —como la promesa de pausar el crecimiento de capacidades a la espera de pruebas de seguridad— como una moneda de cambio útil al adquirir sistemas de alta garantía. Eliminar tales compromisos convierte esas líneas rojas en una guía más laxa, lo que complica las decisiones de contratación y aumenta la probabilidad de una escalada regulatoria.

Para Anthropic y otras firmas, sin embargo, las líneas rojas unilaterales pueden convertirse en una desventaja competitiva. El liderazgo de la empresa y algunos investigadores argumentan que si solo un actor hace una pausa mientras los competidores despliegan modelos más potentes, el riesgo puede trasladarse del desarrollador cauteloso a la sociedad en general. Este es el argumento central que el jefe científico de Anthropic planteó públicamente: la firma cree que las pausas unilaterales no son escalables como estrategia de seguridad en un mercado que se mueve con rapidez.

Reacciones de la industria y compensaciones de credibilidad

El anuncio provocó una reacción inmediata en toda la comunidad de la IA. Algunos investigadores aplaudieron la negativa de Anthropic a ceder en temas de vigilancia y uso de armas, señalando que las demandas del gobierno de reducir las salvaguardas en aras de la contratación sentarían precedentes preocupantes. Otros expresaron su preocupación: pasar de una pausa vinculante a informes voluntarios reduce las garantías mecánicas que anteriormente sustentaban la confianza.

La confianza es en parte técnica y en parte reputacional. Anthropic señala su propia investigación —incluyendo trabajos que muestran que ciertos modelos pueden ser inducidos a comportamientos similares al chantaje bajo condiciones simuladas— para justificar una postura cautelosa sobre el despliegue. También destacó una actividad política concreta: la empresa ha invertido en defensa y educación pública sobre el riesgo de la IA. Pero los informes de transparencia por sí solos no siempre son suficientes para satisfacer a las partes interesadas externas que desean restricciones legalmente exigibles o auditorías independientes antes de que los sistemas sean certificados para uso gubernamental.

Consecuencias para el mercado y las políticas

El debate se desarrolla en un mercado que ya está inquieto por los efectos disruptivos de la IA. Los inversores y los clientes observan si las empresas que priorizan la seguridad pueden competir y, al mismo tiempo, mantener controles rigurosos. El giro de Anthropic indica que al menos algunas empresas se sienten presionadas por la competencia y por el poder de contratación de grandes clientes como el Pentágono. Si el resultado es una carrera por desplegar sin controles de seguridad duraderos, los reguladores y legisladores podrían verse obligados a intervenir.

Por otro lado, las tácticas agresivas con las que amenaza el Pentágono —lista negra, invocación de la Ley de Producción de Defensa, designación de riesgo para la cadena de suministro— muestran cómo la contratación puede usarse para imponer o castigar decisiones de política corporativa. Esa dinámica plantea preguntas más amplias: ¿deberían los compradores de seguridad nacional imponer requisitos más estrictos que el mercado abierto y, de ser así, cómo pueden auditarse y hacerse cumplir esos requisitos sin frenar la innovación? Es probable que los legisladores y reguladores intervengan, y es poco probable que el tira y afloja entre los incentivos comerciales y la seguridad pública se resuelva rápidamente.

Implicaciones para los futuros estándares de seguridad de la IA

El movimiento de Anthropic ilustra un problema sistémico mayor: las normas de seguridad que dependen de la voluntariedad y la persuasión moral pueden romperse en una competencia comercial y geopolítica de alto riesgo. El nuevo enfoque de la empresa —informes públicos más frecuentes y progreso calificado hacia hitos de seguridad— puede producir un conjunto de datos más rico para los responsables políticos, investigadores y auditores, pero deja abierto cómo se resolverán los desacuerdos sobre el riesgo aceptable. El Pentágono quiere garantías claras para los sistemas que utiliza; Anthropic y otras empresas prefieren procesos flexibles e iterativos que eviten las pausas unilaterales.

Los próximos pasos prácticos serán importantes. Si el Pentágono cumple con las sanciones de contratación, se sentará un precedente sobre hasta qué punto los compradores pueden presionar a los proveedores para que cambien su política interna. Si Anthropic mantiene su doble negativa sobre las armas de IA y la vigilancia masiva mientras continúa publicando informes de capacidades, el resultado puede ser un compromiso negociado: pruebas independientes más estrictas y cláusulas de seguridad contractuales para el trabajo gubernamental, junto con compromisos de transparencia de la industria para las ofertas comerciales. A falta de eso, el estancamiento aumenta las posibilidades de una acción legislativa para crear estándares exigibles.

La historia es un ejemplo claro de cómo las decisiones técnicas —ya sea pausar el entrenamiento del modelo o reemplazar una promesa vinculante con una hoja de ruta basada en informes— son inseparables de la geopolítica, el poder de contratación y los incentivos del mercado. La reescritura de la política de Anthropic no es solo un cambio de gestión interna; es una señal sobre cómo sobrevive la retórica de la seguridad primero cuando las empresas se enfrentan tanto a competidores que corren por lanzar capacidades como a un gobierno que exige sistemas utilizables y certificables. La forma en que esa señal sea recibida por los clientes, reguladores e investigadores definirá la siguiente fase de la gobernanza de la IA.

Fuentes

  • Anthropic (Política de Escalado Responsable v3 y Hoja de Ruta de Seguridad de Frontera)
  • Departamento de Defensa de los EE. UU. / Declaraciones públicas del Pentágono y acciones de contratación
  • Información de CNN sobre el cambio de política de Anthropic y la disputa con el Pentágono
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Cuál es la promesa de seguridad fundamental de Anthropic y por qué es importante?
A La promesa de seguridad fundamental de Anthropic, parte de su Política de Escalamiento Responsable, consistía en no entrenar ni lanzar modelos de IA de vanguardia a menos que pudiera garantizar mitigaciones de seguridad adecuadas por adelantado. Este compromiso distinguió a la empresa de sus competidores al priorizar la seguridad sobre el desarrollo rápido. Su importancia radicaba en establecer un estándar más alto para la seguridad de la IA ante las presiones de la industria, aunque los críticos señalan que las promesas voluntarias pueden cambiarse fácilmente.
Q ¿Por qué se informó que Anthropic abandonó su compromiso de seguridad en la disputa con el Pentágono?
A Los resultados de búsqueda no mencionan ninguna disputa con el Pentágono; en su lugar, Anthropic abandonó su compromiso de seguridad debido a la intensa competencia de rivales como OpenAI, la necesidad de seguir siendo competitiva en una carrera de IA cada vez más reñida y la falta de regulación gubernamental o de pares que adoptaran estándares estrictos similares. La empresa pasó a medidas de transparencia, como hojas de ruta de seguridad e informes de riesgos, para equilibrar la seguridad con el ritmo de desarrollo.
Q ¿Qué significa una 'línea roja' en los debates sobre políticas y desarrollo de IA?
A En los debates sobre políticas y desarrollo de IA, una 'línea roja' se refiere a un umbral o límite crítico más allá del cual el desarrollo o despliegue de sistemas de IA se considera demasiado arriesgado, lo que provoca un cese o salvaguardas estrictas. Representa límites no negociables para prevenir riesgos catastróficos, de manera similar a los niveles de bioseguridad en otros campos.
Q ¿Cómo podría afectar la decisión de Anthropic a los contratos gubernamentales de IA y a los estándares de seguridad?
A La decisión de Anthropic podría normalizar estándares de seguridad voluntarios más débiles, reduciendo potencialmente las expectativas para los contratos gubernamentales de IA que priorizan el despluegue rápido sobre salvaguardas rigurosas. Podría alentar a otras empresas a seguir su ejemplo, influyendo en los contratos para enfatizar la competitividad y los informes de transparencia en lugar de condiciones previas estrictas, en medio de llamados a una regulación vinculante.
Q ¿Cuáles son las implicaciones más amplias de este informe de CNN para la seguridad de la IA en la industria?
A El informe de CNN, tal como se refleja en la cobertura, destaca la fragilidad de los compromisos voluntarios de seguridad de la IA, señalando un cambio más amplio de la industria hacia la competencia por encima de la precaución y subrayando la necesidad de una regulación gubernamental. Puede erosionar la confianza pública en la autogestión de los desarrolladores de IA e intensificar los debates sobre la aplicación de una supervisión obligatoria para mitigar los riesgos catastróficos.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!