OpenAI logra contrato con el Pentágono

OpenAI Wins Pentagon Deal
OpenAI anunció un acuerdo con el Departamento de Defensa de EE. UU. para implementar sus modelos en redes clasificadas, pocas horas después de que la administración Trump incluyera a su rival Anthropic en una lista negra. El acuerdo plantea interrogantes inmediatos sobre las líneas rojas de seguridad, la influencia de los proveedores y la futura configuración de las asociaciones entre el sector militar y el tecnológico.

El viernes 27 de febrero de 2026, el CEO de OpenAI, Sam Altman, anunció en X que "esta noche hemos llegado a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada", un acontecimiento que se produjo horas después de que el presidente Donald Trump ordenara a las agencias estadounidenses dejar de utilizar la tecnología de Anthropic y el Pentágono procediera a calificar a Anthropic como un riesgo para la cadena de suministro. La frase "openai strikes deal pentagon" se difundió rápidamente a través de los canales de la industria y la política; las breves y escuetas declaraciones públicas dejan muchos detalles técnicos y legales abiertos, pero los contornos inmediatos son claros: OpenAI afirma que el Departamento de Defensa aceptó sus líneas rojas de seguridad y ejecutará sus modelos en sistemas clasificados, mientras que Anthropic ha sido formalmente excluida de algunos canales gubernamentales. La secuencia —una lista negra para una empresa y una concesión para otra— cristaliza una nueva y tensa relación entre los laboratorios de IA de vanguardia y las instituciones de seguridad nacional.

openai strikes deal pentagon — qué cubre el acuerdo

Según la publicación de OpenAI y los mensajes posteriores de la empresa, el acuerdo permite al Departamento de Defensa desplegar modelos de OpenAI dentro de redes clasificadas, preservando al mismo tiempo las líneas rojas de la compañía que prohíben la vigilancia masiva nacional y el uso totalmente autónomo de la fuerza letal. Sam Altman afirmó que el Departamento de Defensa "mostró un profundo respeto por la seguridad" y aceptó un lenguaje que refleja dichas prohibiciones; OpenAI también se comprometió a desarrollar salvaguardas técnicas e integrar personal para ayudar a operar y supervisar los modelos. Los informes públicos describen el acuerdo como explícitamente limitado al entorno clasificado del departamento, en lugar de ser una licencia general para cada socio comercial, pero las condiciones técnicas exactas del Departamento de Defensa, el acceso a auditorías y los mecanismos de supervisión no se han revelado por completo.

Desde una perspectiva técnica, los puntos principales son familiares pero difíciles de operativizar: la no utilización para la vigilancia masiva nacional, la responsabilidad humana en el uso de la fuerza y herramientas que impongan restricciones de comportamiento. Esos estándares pueden implementarse como obligaciones contractuales, límites de seguridad de software y equipos de asesoramiento en el lugar, pero dependen de mecanismos de verificación que el público no puede inspeccionar. Históricamente, el Departamento de Defensa ha exigido una inspección profunda, a veces invasiva, de las herramientas y la cadena de suministro de los proveedores; está por verse si el apetito de control del Pentágono coincidirá con las promesas de OpenAI, y si las salvaguardas técnicas escalarán a entornos operativos sigue siendo una cuestión abierta.

openai strikes deal pentagon y las repercusiones para Anthropic

El anuncio de OpenAI se produjo a la sombra de un enfrentamiento de alto perfil entre Anthropic y el Departamento de Defensa que terminó con una respuesta severa de la Casa Blanca y el Pentágono. El secretario de Defensa, Pete Hegseth, dio a Anthropic un ultimátum para permitir el uso militar de sus modelos "para todos los fines lícitos" y, tras el fracaso de las conversaciones, el departamento designó a Anthropic como un "riesgo para la cadena de suministro para la seguridad nacional". Acto seguido, el presidente Trump ordenó a las agencias federales que dejaran de utilizar la tecnología de Anthropic. Anthropic declaró que impugnará legalmente la designación y que había insistido en políticas que prohibieran el uso de sus modelos para armas autónomas y vigilancia masiva nacional.

Salvaguardas técnicas y límites operativos

Tanto el Pentágono como las empresas de IA hablan de líneas rojas y salvaguardas, pero traducir esos principios en restricciones duraderas y verificables es difícil. Prohibir la vigilancia masiva nacional o el uso autónomo de la fuerza tiene un significado legal, pero depende de controles de ingeniería cotidianos, políticas de acceso, telemetría, registros (logging) y la capacidad de demostrar el cumplimiento bajo auditoría. OpenAI ha dicho que desplegará personal para apoyar las operaciones seguras y construir protecciones técnicas; en la práctica, esas medidas requieren una verificación independiente, un seguimiento continuo y rutas de escalada claras cuando un modelo se comporta de forma impredecible.

Además, muchos de los mecanismos defensivos comunes —pruebas exhaustivas de los modelos, procedencia robusta de los datos de entrenamiento y software que imponga políticas de uso— se vuelven más complejos en las redes clasificadas. La propia estrategia de IA del Departamento de Defensa de enero enfatiza la rápida adopción de capacidades comerciales al tiempo que exige visibilidad sobre las dependencias y los riesgos. Esa tensión —despliegue rápido frente a garantía exhaustiva— es la razón principal por la cual las salvaguardas técnicas serán escrutadas de cerca tanto por los gestores de programas como por los actores de supervisión externa.

Influencia de la industria, adquisiciones y riesgos políticos

El episodio expone un cambio en el equilibrio de poder: los laboratorios comerciales de IA poseen ahora capacidades que el ejército desea, y los gobiernos deben decidir cómo asociarse sin renunciar al control estratégico. Los expertos afirman que la ventaja a corto plazo reside en las empresas propietarias de los modelos líderes y el talento escaso, pero los gobiernos soberanos conservan herramientas de contratación, palancas regulatorias y autoridad legal. El Departamento de Defensa puede obligar al cumplimiento mediante normas de contratación, denegación de acceso clasificado u otras herramientas; las empresas pueden retirar su cooperación para proteger su reputación o sus valores corporativos. Ambas partes pueden imponer costes a la otra, lo que crea un pacto público-privado frágil.

Políticamente, los críticos advirtieron que la lista negra de Anthropic y la adopción simultánea de OpenAI podrían utilizarse para dirigir contratos hacia proveedores preferidos o para castigar a las empresas que insisten en las restricciones de seguridad. Políticos prominentes y funcionarios de seguridad ya se han pronunciado: algunos demócratas acusan a la administración de politizar las decisiones de seguridad nacional y algunos líderes de defensa argumentan que el ejército no puede permitir que los proveedores limiten unilateralmente los usos lícitos. El contexto más amplio del mercado —grandes rondas de financiación, asociaciones en la nube y consolidación comercial— significa que las decisiones de adquisición repercuten en todo un ecosistema de proveedores, fabricantes de chips y proveedores de servicios en la nube.

Qué significa esto para la seguridad nacional y la industria de la IA

Para el Pentágono, la integración de modelos comerciales de primer nivel promete mejoras de capacidad más rápidas, pero introduce dependencias y riesgos potenciales de proveedor único. Los analistas advierten que la excesiva dependencia de un solo proveedor podría crear fragilidad si se interrumpe el acceso, y la dependencia del proveedor (vendor lock-in) podría convertirse en un lastre estratégico a largo plazo. El Departamento de Defensa también está equilibrando la preparación a corto plazo con el mantenimiento de las normas democráticas y las restricciones legales; la forma en que resuelva ese dilema marcará la futura colaboración con las empresas tecnológicas y los incentivos a los que se enfrentan las compañías cuando eligen priorizar la seguridad sobre el acceso al mercado.

Para la industria de la IA, el incidente supone una prueba práctica de si los compromisos de seguridad son sostenibles cuando los fondos de seguridad nacional son cuantiosos y la presión política es intensa. La impugnación legal de Anthropic y las garantías públicas de OpenAI se dirimirán en los tribunales, las agencias y las oficinas de contratos. Mientras tanto, las inversiones privadas y las asociaciones en la nube —incluidos los recientes y grandes compromisos entre OpenAI y los principales proveedores de servicios en la nube— influirán en qué arquitecturas y modelos de despliegue acepta el gobierno. La lucha es, por tanto, tanto legal como técnica, y sentará precedentes sobre cuánto control pueden preservar las empresas cuando sus tecnologías son tratadas como infraestructura estratégica.

Fuentes

  • Departamento de Defensa de EE. UU. (Memorando de la Estrategia de Inteligencia Artificial, 9 de enero de 2026)
  • Universidad de Georgetown, Center for Security and Emerging Technology (comentario de analistas)
  • Aspen Policy Academy (análisis de políticas y comentarios)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿En qué consiste el acuerdo entre OpenAI y el Pentágono y qué conlleva?
A El acuerdo entre OpenAI y el Pentágono es un convenio anunciado el 28 de febrero de 2026, que permite al Departamento de Defensa desplegar los modelos de IA de OpenAI en sus redes clasificadas. Incluye salvaguardas éticas como la prohibición de la vigilancia masiva doméstica y requisitos de responsabilidad humana en el uso de la fuerza, incluyendo armas autónomas, con soluciones técnicas integradas en los modelos para hacerlas cumplir. El CEO de OpenAI, Sam Altman, declaró que el Pentágono respeta estos principios de seguridad, reflejados en las leyes y políticas de EE. UU.
Q ¿Por qué Anthropic fue incluida en la lista negra por Trump, según CNBC?
A Según los informes, Anthropic fue incluida en la lista negra por la administración Trump tras negarse a eliminar sus restricciones sobre el uso de la IA para la vigilancia masiva doméstica y las armas totalmente autónomas, lo que provocó un enfrentamiento con el Pentágono. El presidente Trump ordenó a las agencias federales retirar gradualmente la tecnología de Anthropic, y el Secretario de Guerra, Pete Hegseth, la designó como un 'riesgo para la seguridad nacional en la cadena de suministro', prohibiendo a los contratistas hacer negocios con ella. Esta acción sin precedentes se produjo horas antes del anuncio del acuerdo de OpenAI.
Q ¿Cómo podría afectar el contrato de OpenAI con el Pentágono a la industria de la IA y a las consideraciones de seguridad nacional?
A El contrato de OpenAI con el Pentágono podría impulsar su posición en la industria de la IA al asegurar el acceso al gobierno y su financiación, al tiempo que perjudica gravemente el crecimiento de Anthropic debido a su inclusión en la lista negra y la exclusión de los sistemas federales. Para la seguridad nacional, permite el despliegue de IA en redes clasificadas con salvaguardas, acelerando potencialmente las capacidades militares de IA en medio de tensiones geopolíticas como las acciones de EE. UU. e Israel contra Irán. Los expertos señalan que esto plantea interrogantes sobre las relaciones entre el gobierno y las empresas y sienta un precedente para los proveedores de IA 'patrióticos'.
Q ¿Qué dice el informe de CNBC sobre el acuerdo de OpenAI con el Pentágono y la situación de Anthropic?
A Informes relacionados con CNBC, a través de Fortune, afirman que OpenAI llegó a un acuerdo para que el Pentágono utilice sus modelos de IA en sistemas clasificados, incorporando limitaciones de seguridad sobre la vigilancia masiva y las armas autónomas de manera diferente a Anthropic, al alinearse con la ley de EE. UU. y desarrollar salvaguardas técnicas. Horas antes, el gobierno de EE. UU. designó a Anthropic como un 'riesgo para la cadena de suministro', amenazando su negocio después de que insistiera en límites contractuales explícitos que el Pentágono rechazó. El enfoque de OpenAI permitió 'cualquier propósito legal' al tiempo que integraba protecciones.
Q ¿Qué términos o alcance cubre el contrato del Pentágono con OpenAI?
A El contrato del Pentágono con OpenAI cubre el despliegue de sus modelos de IA en redes clasificadas para cualquier propósito legal, con salvaguardas técnicas integradas que impiden su uso en vigilancia masiva doméstica o armas autónomas letales. Consagra las prohibiciones de vigilancia masiva y la responsabilidad humana en el uso de la fuerza, alineándose con las leyes y políticas de EE. UU., e incluye a ingenieros de OpenAI para garantizar la seguridad. OpenAI busca que estos términos se extiendan a todas las empresas de IA.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!