Pentágono vs. Anthropic: Amenaza de suspensión de acceso

Pentagon vs Anthropic: Cut-off Threat
El Pentágono amenaza con suspender el acceso a Anthropic debido a las restricciones impuestas al uso militar de su IA, presionando a las empresas para que permitan sus herramientas en redes clasificadas. Este enfrentamiento subraya las tensiones entre las demandas de defensa, las salvaguardas corporativas de seguridad y los riesgos para la seguridad nacional.

El Pentágono amenaza con una ruptura ante el estancamiento de las conversaciones con Anthropic

Esta semana, el Pentágono amenaza con romper relaciones con Anthropic, según informes surgidos el 16 de febrero de 2026, mientras el Departamento de Defensa de EE. UU. presiona a la empresa para que flexibilice los límites que impone al uso de sus modelos de lenguaje de gran tamaño por parte de los militares. La disputa —informada por CNBC junto con coberturas previas de Reuters y Axios— se centra en si las firmas comerciales de IA permitirán que sus sistemas se utilicen para lo que el Pentágono describe como «todos los fines lícitos», incluyendo el desarrollo de armas, la recopilación de inteligencia y las operaciones en el campo de batalla. Anthropic afirma que se ha mantenido firme en restricciones de seguridad específicas, como límites estrictos a las armas autónomas totalmente independientes y la vigilancia doméstica masiva, y el desacuerdo ha escalado hasta amenazas de que la relación podría cortarse.

El Pentágono amenaza con la ruptura: los puntos de fricción legales y contractuales

El núcleo del conflicto reside en el lenguaje legal y contractual. El Pentágono desea acceder a los modelos en redes clasificadas y un redactado más amplio que permita su uso en una variedad de misiones militares; las empresas, por lo general, han facilitado el acceso sujeto a salvaguardas a nivel de modelo y restricciones basadas en políticas. Para el Pentágono, la frase «todos los fines lícitos» es un término contractual único que reduciría la ambigüedad sobre el uso militar permitido. Para empresas como Anthropic, OpenAI, Google y xAI, aceptar ese redactado conlleva el riesgo de erosionar las barreras de seguridad internas, tanto los controles técnicos integrados en los modelos como los compromisos de política corporativa destinados a limitar el uso indebido.

Las negociaciones también abordan detalles técnicos: cómo se despliegan los modelos en redes clasificadas, si los filtros de contenido y el registro de uso permanecen activos, y quién es responsable si un sistema impulsado por IA genera resultados perjudiciales. El Pentágono ha mostrado su frustración tras meses de conversaciones; la presión para eliminar o suavizar las restricciones refleja un deseo operativo de utilizar los sistemas más capaces disponibles en entornos en disputa, mientras que las firmas se preocupan por la responsabilidad legal, el riesgo reputacional y la ética más amplia de las aplicaciones militares.

Cómo han respondido Anthropic y los otros proveedores

Anthropic ha declarado públicamente que las primeras conversaciones con el gobierno de EE. UU. se centraron en cuestiones de política de uso y límites explícitos —especialmente las prohibiciones sobre armas autónomas letales y los límites a la vigilancia doméstica masiva— en lugar de dar luz verde a operaciones específicas. Un portavoz de la empresa dijo a los periodistas que no se había discutido con el Pentágono el uso de su modelo Claude para operaciones tácticas específicas. Esa declaración contrasta con informes que indican que Claude fue utilizado en al menos una operación de alto perfil a través de un socio: el Wall Street Journal informó que Claude se desplegó mediante Palantir en una operación para capturar al expresidente de Venezuela, lo que demuestra cómo las integraciones con socios complican las descripciones simples de la moderación corporativa.

Otras importantes firmas de IA mencionadas en los informes —OpenAI, Google y xAI— también son objeto de la presión del Pentágono para ampliar el acceso. Reuters y CNBC describieron peticiones generales del Departamento de Defensa para que los modelos estén disponibles en redes clasificadas sin muchas de las restricciones estándar que las empresas aplican a los usuarios civiles. Las firmas han gestionado estas peticiones de forma distinta, equilibrando las oportunidades contractuales y las acreditaciones de seguridad frente a sus políticas internas y el escrutinio externo.

Por qué el Pentágono está presionando y qué espera lograr

Sin embargo, presionar por un lenguaje contractual genérico y abierto —«todos los fines lícitos»— plantea interrogantes sobre qué salvaguardas permanecen vigentes cuando los modelos se utilizan en contextos cinéticos o encubiertos. El uso lícito es un estándar legal amplio que aún requiere la implementación de controles para evitar una escalada no deseada, daños a civiles o violaciones del derecho nacional e internacional. Esas exigencias operativas son el origen de la tensión actual.

Salvaguardas técnicas en juego y las preocupaciones del Pentágono

Las empresas integran salvaguardas en los modelos siguiendo dos ejes: controles a nivel de modelo (ajuste fino, capas de seguridad, pruebas de equipo rojo y filtros de contenido) y controles a nivel de política (términos de servicio y restricciones de uso contractuales). La presión del Pentágono para reducir o eludir las restricciones cambiaría la forma en que esos controles funcionan en la práctica. Por ejemplo, ubicar un modelo en una red clasificada puede eliminar parte de la telemetría y los registros por razones de seguridad, pero también puede socavar la capacidad de la empresa para supervisar el uso indebido y corregir comportamientos problemáticos.

Según se informa, el Pentágono está frustrado porque Anthropic se ha resistido a las propuestas para relajar los límites en escenarios que la empresa considera de alto riesgo, como el control de armas totalmente autónomas y la vigilancia doméstica masiva. Estas son áreas donde muchas firmas de IA, no solo Anthropic, han defendido prohibiciones estrictas sobre la toma de decisiones autónoma que podría causar resultados letales sin supervisión humana.

Cómo la interrupción del acceso podría repercutir en la seguridad

Si el Pentágono cumple su amenaza y rompe lazos con Anthropic, el efecto inmediato sería una reducción de los proveedores disponibles para la comunidad de defensa de EE. UU. Probablemente, esto aceleraría los esfuerzos internos del Departamento de Defensa para construir o contratar modelos a medida, aumentaría la dependencia de firmas que acepten términos de uso más amplios o fomentaría asociaciones con proveedores extranjeros; cada uno de estos resultados conlleva sus propias compensaciones en términos de seguridad y supervisión. Una ruptura también podría empujar a las agencias a aceptar soluciones con menos controles de seguridad por parte del proveedor, aumentando el riesgo de uso indebido o consecuencias imprevistas.

Por el contrario, las empresas que mantienen restricciones de seguridad sólidas argumentan que estas salvaguardas reducen los riesgos derivados, previenen la expansión de funciones no deseadas y preservan la confianza pública. El estancamiento muestra una elección estratégica más profunda: si los actores de la seguridad nacional toleran las salvaguardas corporativas que limitan ciertas aplicaciones militares, o si insisten en un acceso sin restricciones y aceptan nuevas cargas de supervisión dentro de los sistemas gubernamentales.

Precedentes pasados y el contexto político más amplio

El Departamento de Defensa ha financiado anteriormente la investigación en IA y ha formado asociaciones con la industria, pero el momento actual destaca por la escala y madurez de los modelos de lenguaje de gran tamaño disponibles comercialmente. Las colaboraciones anteriores incluían subvenciones condicionales y proyectos piloto que requerían salvaguardas específicas; la disputa actual trata sobre términos operativos amplios en lugar de financiación para proyectos piloto. La amenaza del Pentágono de cortar la relación con un proveedor por desacuerdos políticos es una escalada a la vista del público y señala una dura negociación por delante para todos los principales proveedores de herramientas de IA avanzada.

También hay presiones políticas en juego. Figuras públicas y competidores han intervenido —especialmente Elon Musk, quien recientemente atacó los modelos de Anthropic en comentarios públicos—, lo que subraya que los debates sobre el sesgo, la seguridad y el papel adecuado de la IA en contextos militares son ahora parte de una ruidosa conversación pública, y no solo de disputas de adquisición a puerta cerrada.

Negociaciones y próximos pasos

Ambas partes tienen incentivos para evitar una ruptura total. El Pentágono necesita capacidades de vanguardia; las firmas desean conservar los contratos gubernamentales y evitar ser excluidas de acuerdos significativos. Cabe esperar negociaciones intensas entre bastidores sobre el lenguaje de los contratos, medidas de aislamiento técnico (por ejemplo, despliegues desconectados de la red o «air-gapped»), procedimientos mejorados de auditoría y supervisión, y posiblemente nuevos constructos legales que aclaren la responsabilidad y el uso aceptable en contextos clasificados.

Para el público en general y los responsables políticos, esta disputa plantea interrogantes familiares sobre los controles de exportación, la supervisión de tecnologías de doble uso y si se requieren nuevos modelos de gobernanza para la IA utilizada en seguridad nacional. Sea cual sea el resultado inmediato, la negociación sentará precedentes sobre cómo los gobiernos y los desarrolladores privados de IA comparten capacidades sensibles mientras intentan mantener intactas las salvaguardas de seguridad.

Fuentes

  • Declaraciones públicas y materiales de adquisición del Departamento de Defensa de EE. UU. (Pentágono)
  • Materiales de prensa de Anthropic y declaraciones de la empresa
  • Divulgaciones públicas de Palantir Technologies sobre despliegues con socios
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Qué es Anthropic y por qué el Pentágono amenaza con desvincularse de ellos debido a las salvaguardias de la IA?
A Anthropic es una empresa de IA con sede en San Francisco conocida por su modelo de IA Claude, que se ha utilizado en operaciones militares como una redada en Venezuela. El Pentágono, bajo el mando del Secretario de Defensa Pete Hegseth, amenaza con romper vínculos y calificar a Anthropic como un 'riesgo para la cadena de suministro' debido a la negativa de la empresa a permitir el uso militar sin restricciones de Claude para todos los fines legales, insistiendo en cambio en salvaguardias contra la vigilancia masiva de estadounidenses y las armas autónomas. Esta disputa se ha intensificado a pesar de meses de negociaciones, ya que el Pentágono considera que las restricciones de Anthropic son excesivamente limitantes.
Q ¿Qué salvaguardias de IA dijo el Pentágono que Anthropic no cumplió?
A El Pentágono declaró que Anthropic no cumplió con los requisitos de acceso sin restricciones a la IA Claude para todos los usos militares legales, particularmente en sistemas clasificados. Anthropic busca términos contractuales que prohíban la vigilancia masiva de estadounidenses y el desarrollo de armas que operen sin intervención humana, lo cual el Pentágono considera poco práctico debido a las zonas grises. El Pentágono también está presionando para obtener un acceso sin restricciones similar de OpenAI, Google y xAI.
Q ¿Ha tomado el Pentágono medidas similares contra otras empresas de IA?
A El Pentágono aún no ha tomado medidas similares, como calificar a otras empresas de IA como riesgos para la cadena de suministro, pero mantiene duras negociaciones con OpenAI, Google y xAI sobre los mismos problemas de acceso sin restricciones. Estas empresas han aceptado relajar las restricciones para el uso militar en sistemas clasificados, aunque esto no se ha implementado por completo para operaciones sensibles. Hasta el momento, ningún informe indica cortes reales o designaciones para estas firmas.
Q ¿Cómo podría afectar la desvinculación de Anthropic a la seguridad de la IA y a las iniciativas de seguridad nacional?
A Desvincularse de Anthropic podría obstaculizar la seguridad nacional al interrumpir el acceso a Claude, que lidera en aplicaciones militares especializadas, mientras que los modelos rivales están solo 'un paso por detrás', lo que podría retrasar operaciones críticas. Podría presionar a las empresas de IA para que debiliten las salvaguardias de seguridad, con el riesgo de aumentar las violaciones de la privacidad mediante la vigilancia masiva o el desarrollo de armas autónomas. Por el contrario, sienta un precedente para priorizar las necesidades militares sobre las restricciones corporativas de IA, avanzando posiblemente en las iniciativas de IA de defensa pero a costa de las salvaguardias éticas.
Q ¿Qué informó CNBC sobre la disputa entre el Pentágono y Anthropic?
A CNBC no aparece referenciada directamente en los informes disponibles sobre la disputa; la cobertura proviene principalmente de Axios y Hindustan Times. Axios detalló la casi decisión del Secretario de Defensa Pete Hegseth de romper vínculos con Anthropic debido a las restricciones de uso de Claude, citando a funcionarios del Pentágono sobre calificarlo como un riesgo para la cadena de suministro y la frustración tras meses de conversaciones. Hindustan Times se hizo eco de esto, destacando las salvaguardias de Anthropic contra la vigilancia y las armas autónomas.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!