El Pentágono amenaza con una ruptura ante el estancamiento de las conversaciones con Anthropic
Esta semana, el Pentágono amenaza con romper relaciones con Anthropic, según informes surgidos el 16 de febrero de 2026, mientras el Departamento de Defensa de EE. UU. presiona a la empresa para que flexibilice los límites que impone al uso de sus modelos de lenguaje de gran tamaño por parte de los militares. La disputa —informada por CNBC junto con coberturas previas de Reuters y Axios— se centra en si las firmas comerciales de IA permitirán que sus sistemas se utilicen para lo que el Pentágono describe como «todos los fines lícitos», incluyendo el desarrollo de armas, la recopilación de inteligencia y las operaciones en el campo de batalla. Anthropic afirma que se ha mantenido firme en restricciones de seguridad específicas, como límites estrictos a las armas autónomas totalmente independientes y la vigilancia doméstica masiva, y el desacuerdo ha escalado hasta amenazas de que la relación podría cortarse.
El Pentágono amenaza con la ruptura: los puntos de fricción legales y contractuales
El núcleo del conflicto reside en el lenguaje legal y contractual. El Pentágono desea acceder a los modelos en redes clasificadas y un redactado más amplio que permita su uso en una variedad de misiones militares; las empresas, por lo general, han facilitado el acceso sujeto a salvaguardas a nivel de modelo y restricciones basadas en políticas. Para el Pentágono, la frase «todos los fines lícitos» es un término contractual único que reduciría la ambigüedad sobre el uso militar permitido. Para empresas como Anthropic, OpenAI, Google y xAI, aceptar ese redactado conlleva el riesgo de erosionar las barreras de seguridad internas, tanto los controles técnicos integrados en los modelos como los compromisos de política corporativa destinados a limitar el uso indebido.
Las negociaciones también abordan detalles técnicos: cómo se despliegan los modelos en redes clasificadas, si los filtros de contenido y el registro de uso permanecen activos, y quién es responsable si un sistema impulsado por IA genera resultados perjudiciales. El Pentágono ha mostrado su frustración tras meses de conversaciones; la presión para eliminar o suavizar las restricciones refleja un deseo operativo de utilizar los sistemas más capaces disponibles en entornos en disputa, mientras que las firmas se preocupan por la responsabilidad legal, el riesgo reputacional y la ética más amplia de las aplicaciones militares.
Cómo han respondido Anthropic y los otros proveedores
Anthropic ha declarado públicamente que las primeras conversaciones con el gobierno de EE. UU. se centraron en cuestiones de política de uso y límites explícitos —especialmente las prohibiciones sobre armas autónomas letales y los límites a la vigilancia doméstica masiva— en lugar de dar luz verde a operaciones específicas. Un portavoz de la empresa dijo a los periodistas que no se había discutido con el Pentágono el uso de su modelo Claude para operaciones tácticas específicas. Esa declaración contrasta con informes que indican que Claude fue utilizado en al menos una operación de alto perfil a través de un socio: el Wall Street Journal informó que Claude se desplegó mediante Palantir en una operación para capturar al expresidente de Venezuela, lo que demuestra cómo las integraciones con socios complican las descripciones simples de la moderación corporativa.
Otras importantes firmas de IA mencionadas en los informes —OpenAI, Google y xAI— también son objeto de la presión del Pentágono para ampliar el acceso. Reuters y CNBC describieron peticiones generales del Departamento de Defensa para que los modelos estén disponibles en redes clasificadas sin muchas de las restricciones estándar que las empresas aplican a los usuarios civiles. Las firmas han gestionado estas peticiones de forma distinta, equilibrando las oportunidades contractuales y las acreditaciones de seguridad frente a sus políticas internas y el escrutinio externo.
Por qué el Pentágono está presionando y qué espera lograr
Sin embargo, presionar por un lenguaje contractual genérico y abierto —«todos los fines lícitos»— plantea interrogantes sobre qué salvaguardas permanecen vigentes cuando los modelos se utilizan en contextos cinéticos o encubiertos. El uso lícito es un estándar legal amplio que aún requiere la implementación de controles para evitar una escalada no deseada, daños a civiles o violaciones del derecho nacional e internacional. Esas exigencias operativas son el origen de la tensión actual.
Salvaguardas técnicas en juego y las preocupaciones del Pentágono
Las empresas integran salvaguardas en los modelos siguiendo dos ejes: controles a nivel de modelo (ajuste fino, capas de seguridad, pruebas de equipo rojo y filtros de contenido) y controles a nivel de política (términos de servicio y restricciones de uso contractuales). La presión del Pentágono para reducir o eludir las restricciones cambiaría la forma en que esos controles funcionan en la práctica. Por ejemplo, ubicar un modelo en una red clasificada puede eliminar parte de la telemetría y los registros por razones de seguridad, pero también puede socavar la capacidad de la empresa para supervisar el uso indebido y corregir comportamientos problemáticos.
Según se informa, el Pentágono está frustrado porque Anthropic se ha resistido a las propuestas para relajar los límites en escenarios que la empresa considera de alto riesgo, como el control de armas totalmente autónomas y la vigilancia doméstica masiva. Estas son áreas donde muchas firmas de IA, no solo Anthropic, han defendido prohibiciones estrictas sobre la toma de decisiones autónoma que podría causar resultados letales sin supervisión humana.
Cómo la interrupción del acceso podría repercutir en la seguridad
Si el Pentágono cumple su amenaza y rompe lazos con Anthropic, el efecto inmediato sería una reducción de los proveedores disponibles para la comunidad de defensa de EE. UU. Probablemente, esto aceleraría los esfuerzos internos del Departamento de Defensa para construir o contratar modelos a medida, aumentaría la dependencia de firmas que acepten términos de uso más amplios o fomentaría asociaciones con proveedores extranjeros; cada uno de estos resultados conlleva sus propias compensaciones en términos de seguridad y supervisión. Una ruptura también podría empujar a las agencias a aceptar soluciones con menos controles de seguridad por parte del proveedor, aumentando el riesgo de uso indebido o consecuencias imprevistas.
Por el contrario, las empresas que mantienen restricciones de seguridad sólidas argumentan que estas salvaguardas reducen los riesgos derivados, previenen la expansión de funciones no deseadas y preservan la confianza pública. El estancamiento muestra una elección estratégica más profunda: si los actores de la seguridad nacional toleran las salvaguardas corporativas que limitan ciertas aplicaciones militares, o si insisten en un acceso sin restricciones y aceptan nuevas cargas de supervisión dentro de los sistemas gubernamentales.
Precedentes pasados y el contexto político más amplio
El Departamento de Defensa ha financiado anteriormente la investigación en IA y ha formado asociaciones con la industria, pero el momento actual destaca por la escala y madurez de los modelos de lenguaje de gran tamaño disponibles comercialmente. Las colaboraciones anteriores incluían subvenciones condicionales y proyectos piloto que requerían salvaguardas específicas; la disputa actual trata sobre términos operativos amplios en lugar de financiación para proyectos piloto. La amenaza del Pentágono de cortar la relación con un proveedor por desacuerdos políticos es una escalada a la vista del público y señala una dura negociación por delante para todos los principales proveedores de herramientas de IA avanzada.
También hay presiones políticas en juego. Figuras públicas y competidores han intervenido —especialmente Elon Musk, quien recientemente atacó los modelos de Anthropic en comentarios públicos—, lo que subraya que los debates sobre el sesgo, la seguridad y el papel adecuado de la IA en contextos militares son ahora parte de una ruidosa conversación pública, y no solo de disputas de adquisición a puerta cerrada.
Negociaciones y próximos pasos
Ambas partes tienen incentivos para evitar una ruptura total. El Pentágono necesita capacidades de vanguardia; las firmas desean conservar los contratos gubernamentales y evitar ser excluidas de acuerdos significativos. Cabe esperar negociaciones intensas entre bastidores sobre el lenguaje de los contratos, medidas de aislamiento técnico (por ejemplo, despliegues desconectados de la red o «air-gapped»), procedimientos mejorados de auditoría y supervisión, y posiblemente nuevos constructos legales que aclaren la responsabilidad y el uso aceptable en contextos clasificados.
Para el público en general y los responsables políticos, esta disputa plantea interrogantes familiares sobre los controles de exportación, la supervisión de tecnologías de doble uso y si se requieren nuevos modelos de gobernanza para la IA utilizada en seguridad nacional. Sea cual sea el resultado inmediato, la negociación sentará precedentes sobre cómo los gobiernos y los desarrolladores privados de IA comparten capacidades sensibles mientras intentan mantener intactas las salvaguardas de seguridad.
Fuentes
- Declaraciones públicas y materiales de adquisición del Departamento de Defensa de EE. UU. (Pentágono)
- Materiales de prensa de Anthropic y declaraciones de la empresa
- Divulgaciones públicas de Palantir Technologies sobre despliegues con socios
Comments
No comments yet. Be the first!