El Pentágono da tres días a Anthropic

I.A.
Pentagon Gives Anthropic Three Days
El Pentágono entregó un ultimátum de tres días a Anthropic para eliminar los límites de seguridad de su modelo Claude o enfrentarse a la inclusión en una lista negra o a la obligatoriedad bajo la Ley de Producción de Defensa, señalando una escalada en la batalla por el acceso militar a la IA de frontera.

El Pentágono da días a Anthropic: un ultimátum escueto

La frase "el Pentágono da días a Anthropic" es ahora más que un titular de internet: esta semana el Pentágono presionó a Anthropic con un plazo de tres días para eliminar las salvaguardas de seguridad de su modelo Claude o enfrentarse a ser etiquetada como un riesgo para la cadena de suministro y ser excluida de los trabajos de defensa de EE. UU. La exigencia se entregó en una tensa reunión el martes por la mañana en el Pentágono que incluyó al Secretario de Defensa Pete Hegseth y a abogados sénior del departamento, según informes de los participantes y declaraciones de la empresa. La opción presentada a Anthropic fue tajante: acceder a las condiciones del Pentágono o ser incluida en la lista negra y potencialmente ser obligada bajo la Ley de Producción de Defensa (DPA).

El Pentágono da días a Anthropic — qué ocurrió en la reunión

Los funcionarios presentes en la reunión dijeron a los periodistas que el tono fue de confrontación. Un funcionario de defensa describió la sesión como "nada cálida ni amigable", y otro reconoció la paradoja de que el Pentágono dependiera simultáneamente de modelos de frontera mientras no estaba dispuesto a aceptar que empresas privadas establecieran condiciones sobre el uso militar. El CEO de Anthropic, Dario Amodei, asistió a la reunión y, tras la conversación, la empresa emitió un comunicado diciendo que mantenía su compromiso de apoyar misiones legítimas de seguridad nacional y, al mismo tiempo, preservar un comportamiento del modelo seguro y verificable.

El detonante inmediato de la confrontación, según se describe en los informes de prensa, fue una serie de revelaciones de que el modelo Claude había sido utilizado —sin previo aviso a Anthropic— en una operación militar en enero. Ese episodio, y las informaciones al respecto, intensificaron la presión dentro del Pentágono para insistir en un acceso sin restricciones. El Departamento de Defensa ha sido explícito sobre un cronograma a corto plazo para la aceleración de la IA: una estrategia de combate "prioridad IA" publicada en enero planteaba proyectos demostrables para este verano, y los altos cargos afirman que necesitan los modelos más capaces ahora para cumplir con esos plazos.

Junto al ultimátum, el Pentágono anunció un acuerdo independiente para desplegar el modelo Grok de xAI en redes militares clasificadas bajo la rúbrica de "todos los fines lícitos". Las diferencias reportadas en los términos contractuales entre las dos empresas —una aceptando un lenguaje de uso amplio mientras la otra se resistía— subrayaron el mensaje de la administración de que el Estado no tolerará restricciones de proveedores que considere incompatibles con las necesidades operativas.

El Pentágono da días a Anthropic — herramientas legales y la amenaza de la lista negra

El Pentágono enmarcó sus opciones en dos categorías legales: la inclusión en listas negras como riesgo para la cadena de suministro y la invocación de la Ley de Producción de Defensa para obligar a comportamientos específicos. La inclusión en la lista negra significaría la anulación de futuros contratos con el Pentágono y la presión a los contratistas principales para que corten vínculos. En la práctica, eso excluiría a Anthropic de una gran parte de los ingresos y asociaciones gubernamentales, y enviaría una señal a otros clientes para que reconsideren sus relaciones comerciales. La advertencia es punitiva: pretende obligar a una empresa a elegir entre un modelo de negocio filtrado y la pérdida de lucrativos contratos gubernamentales.

La Ley de Producción de Defensa ocupa un lugar legal diferente. La DPA otorga al presidente amplios poderes para exigir que las empresas prioricen y acepten contratos gubernamentales y produzcan bienes y servicios necesarios para la defensa nacional. En el caso de la IA, esto podría utilizarse para ordenar a un proveedor que adapte o reconfigure modelos, elimine funciones de seguridad particulares o proporcione acceso técnico para tareas clasificadas. El uso de la DPA contra un proveedor de software de esta manera sería novedoso y legalmente cuestionado, pero, según se informa, los funcionarios del Pentágono lo plantearon como un instrumento creíble para hacer cumplir la conformidad.

Para los observadores externos y los juristas, estas opciones plantean dudas inmediatas sobre los precedentes y la supervisión. La lista negra cambia el panorama de suministro mediante un decreto administrativo; la DPA efectuaría un cambio técnico forzado en un producto. Ambas medidas tienen implicaciones para la autonomía corporativa, las libertades civiles y el mercado internacional de la IA de frontera.

Salvaguardas de Anthropic y posicionamiento corporativo

Anthropic ha descrito su régimen de seguridad en documentos públicos y entrevistas como una mezcla de salvaguardas técnicas y políticas. Esas salvaguardas incluyen el filtrado de contenidos, modos de rechazo para ciertas clases de solicitudes y declaraciones de política explícitas que prohíben aplicaciones como "armas totalmente autónomas" y "vigilancia doméstica masiva de estadounidenses". La empresa también se ha resistido a firmar un lenguaje contractual amplio comprometiéndose a apoyar "todos los fines lícitos", argumentando que tal redacción eliminaría límites significativos sobre cómo se despliegan los modelos.

Esa posición, sin embargo, convive con un historial de compromiso comercial y gubernamental. Anthropic ha buscado despliegues en redes clasificadas con socios de infraestructura, ha lanzado una oferta orientada al gobierno llamada Claude Gov y ha obtenido contratos considerables con clientes de defensa. La empresa también cuenta con importantes inversores en la nube y chips entre sus patrocinadores, y mantiene relaciones comerciales que la entrelazan con el ecosistema de inteligencia militar. Estos vínculos complican las afirmaciones de que la empresa se mantiene totalmente al margen de las prioridades de defensa.

Cuando se pregunta por qué el Pentágono dio tres días a Anthropic para abandonar las salvaguardas de la IA, los observadores apuntan a una mezcla de presión estratégica y demanda operativa inmediata. El departamento quiere una vía probada y explicable para integrar grandes modelos en la planificación de misiones, la logística y los sistemas de armamento con rapidez. Cualquier restricción del proveedor que pueda impedir un uso rápido y sin restricciones —especialmente bajo el estándar legal de "todos los fines lícitos"— está siendo presentada por el Pentágono como un riesgo inaceptable para la preparación militar.

Lo que significarían en la práctica el veto y la eliminación de las salvaguardas

Si Anthropic fuera incluida en la lista negra, la empresa perdería el acceso directo a muchas oportunidades de defensa; se podría ordenar a los contratistas que cortaran lazos y los canales de contratación gubernamental se cerrarían. Si, por el contrario, Anthropic eliminara las salvaguardas bajo presión u obligación, la consecuencia técnica inmediata serían modelos que aceptarían una gama más amplia de prompts e instrucciones operativas, incluidas aquellas relacionadas con la fijación de objetivos, la vigilancia u otras misiones sensibles.

Los efectos derivados serían tanto técnicos como sociales. La eliminación de las salvaguardas aumenta el riesgo de que los modelos se reutilicen para la vigilancia masiva, permitiendo que los sistemas de monitoreo automatizados escalen más rápido. Podría acelerar la integración en sistemas de apoyo a armamento donde la supervisión humana puede ser limitada. Desde una perspectiva de seguridad, relajar las restricciones puede degradar la capacidad de probar y auditar los modelos en busca de sesgos, alucinaciones y vulnerabilidad ante ataques adversarios, problemas que ya de por sí hacen que el despliegue de modelos en sistemas críticos sea arriesgado.

Para las libertades civiles y las normas internacionales, lo que está en juego es mucho: los modelos despojados de restricciones podrían utilizarse para programas de vigilancia doméstica a gran escala, desinformación dirigida de forma masiva u operaciones en el extranjero con umbrales probatorios más bajos. Estos son exactamente los dilemas que la empresa ha dicho públicamente que busca evitar, lo que ayuda a explicar por qué la disputa se ha convertido en un punto crítico.

Implicaciones más amplias: mercados, política y el futuro de la IA militar

Esta confrontación ilustra una tensión más amplia en el ecosistema de la IA. Los gobiernos quieren un acceso predecible y auditable a los modelos más capaces para acelerar las aplicaciones en tiempo de guerra. Muchas empresas, por otro lado, temen las repercusiones éticas y de reputación de un uso militar sin restricciones. La división se agudiza por la política: las firmas dispuestas a aceptar un lenguaje contractual amplio obtienen acceso rápido a las redes gubernamentales, mientras que aquellas que intentan mantener límites condicionales se arriesgan a la exclusión o la coacción.

También subraya una realidad operativa inquietante: cuando una capacidad tecnológica se juzga estratégicamente necesaria, el Estado puede recurrir a una presión legal y económica extraordinaria para asegurarla. Esa dinámica obligará a los proveedores privados de IA a sopesar los imperativos comerciales, las expectativas de los inversores, la exposición legal y el escrutinio público al negociar con los gobiernos. Para los responsables políticos, el episodio plantea dudas sobre la transparencia, la supervisión y las normas internacionales que rigen la IA en contextos militares.

Para los investigadores, ingenieros y el público, el resultado será importante porque define cómo se gobiernan y prueban los modelos más avanzados. Si la industria acepta la eliminación total de las salvaguardas en nombre de la seguridad nacional, el espacio para la investigación de seguridad independiente, la auditoría pública y la protección de las libertades civiles se reducirá. Por el contrario, si las empresas defienden con éxito algunos límites, la disputa puede empujar al gobierno a desarrollar sus propias capacidades internas o a crear reglas de contratación que equilibren la necesidad operativa con los requisitos de seguridad.

El cronograma inmediato sigue siendo corto: la exigencia de tres días del Pentágono ha puesto a Anthropic bajo una presión enorme para elegir un camino. Sea cual sea la decisión, el episodio será un caso de prueba para determinar si las empresas privadas de IA pueden establecer límites efectivos al uso militar de los modelos de frontera, o si el Estado obligará a un acceso más amplio en nombre de la preparación para la defensa.

Fuentes

  • Materiales de prensa del Departamento de Defensa de EE. UU.
  • Materiales de prensa y documentos de política pública de Anthropic
  • Materiales de prensa de xAI (Grok)
  • Ley de Producción de Defensa (texto y guía legal)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Por qué el Pentágono le dio a Anthropic tres días para eliminar las salvaguardias de la IA?
A No hay evidencia en las fuentes disponibles de que el Pentágono le haya dado a Anthropic tres días para eliminar las salvaguardias de la IA; el título del artículo proporcionado parece no estar fundamentado por los resultados de búsqueda. Anthropic, por el contrario, ha fortalecido su Política de Escalamiento Responsable (RSP) con una mayor transparencia y controles de riesgo, incluyendo Niveles de Seguridad de la IA (ASL) para modelos avanzados. La empresa actualizó su RSP en respuesta a las lecciones de implementación, no por presiones externas del Pentágono.
Q ¿Qué son exactamente las salvaguardias de IA utilizadas por Anthropic?
A Las salvaguardias de IA de Anthropic incluyen la Política de Escalamiento Responsable (RSP) con Niveles de Seguridad de la IA (ASL), que cuentan con clasificadores para bloquear contenido químico y biológico dañino, controles de acceso, red-teaming, recompensas por errores (bug bounties) y sistemas de detección en tiempo real. Estos abarcan Clasificadores Constitucionales, dirección de respuestas, aplicación de políticas de cuenta y evaluaciones para prevenir el uso indebido, como el desarrollo de armas biológicas o ataques de destilación. Las salvaguardias se integran en el entrenamiento, despliegue y monitoreo del modelo para garantizar la seguridad como un requisito de lanzamiento.
Q ¿Qué significa que una empresa sea incluida en la lista negra del Pentágono?
A Los resultados de búsqueda no especifican qué significa que una empresa sea incluida en la lista negra por el Pentágono. No se proporciona información relevante sobre los procedimientos de inclusión en listas negras del Pentágono ni sobre las implicaciones para empresas de IA como Anthropic.
Q ¿Qué podría pasar si Anthropic elimina sus salvaguardias de IA?
A Eliminar las salvaguardias de IA podría aumentar los riesgos catastróficos de la IA avanzada, como permitir el desarrollo de armas biológicas u otros usos indebidos por parte de actores de amenazas, ya que la RSP de Anthropic está diseñada para mitigar estos riesgos a través de las protecciones de los ASL. Esto podría permitir que competidores con salvaguardias más débiles dominen, lo que potencialmente llevaría a un mundo menos seguro en general, según la lógica de la política de Anthropic. No obstante, Anthropic mantiene su compromiso de igualar o superar los esfuerzos de seguridad de sus competidores.
Q ¿Quién es Anthropic y cuál es su postura sobre la seguridad de la IA?
A Anthropic es una empresa de IA enfocada en el desarrollo de sistemas seguros y confiables como Claude, fundada con un fuerte énfasis en la seguridad de la IA. Su postura se basa en la Política de Escalamiento Responsable (RSP), que utiliza Niveles de Seguridad de la IA para aplicar salvaguardias progresivas en modelos avanzados, promoviendo la transparencia, la mitigación de riesgos y protecciones líderes en la industria contra daños catastróficos. Realizan evaluaciones exhaustivas, red-teaming y medidas de cumplimiento para equilibrar la utilidad con la seguridad.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!