Washington levanta su propia prohibición de IA para proteger la red eléctrica

Tecnología
Washington Breaks Its Own AI Ban to Secure the Grid
A pesar de la prohibición del Pentágono sobre el software de Anthropic, la Casa Blanca está acelerando una versión modificada del modelo 'Mythos' para proteger la infraestructura crítica frente a amenazas de día cero.

La factura llegó en marzo: 130.000 dólares por los servicios de Brian Ballard. En el gran esquema del cabildeo en Washington, se trata de un error de redondeo, pero el cliente era Anthropic y el objetivo era el círculo íntimo de la administración Trump. Para una empresa a la que el Pentágono había calificado recientemente como un “riesgo para la cadena de suministro”, la inversión fue más que una simple partida presupuestaria; fue una apuesta por la supervivencia. En pocas semanas, comenzaron las reuniones secretas. El 18 de abril, el director ejecutivo de Anthropic, Dario Amodei, fue convocado a la Casa Blanca no para discutir una prohibición, sino para negociar un despliegue. El producto en cuestión, un modelo de vanguardia conocido como Claude Mythos, se ha vuelto demasiado peligroso para lanzarlo al público y demasiado poderoso para que el gobierno federal lo ignore.

La situación revela un cisma cada vez más profundo en la política tecnológica estadounidense. Por un lado, el Departamento de Defensa mantiene una exclusión formal del software de Anthropic de sus flujos de trabajo, citando preocupaciones sobre los límites de uso y la negativa de la empresa a dar luz verde al desarrollo de armas totalmente autónomas. Por otro, la Casa Blanca está eludiendo actualmente su propia retórica belicista para integrar una “versión modificada” de Mythos en el Departamento de Energía, el Tesoro y el Departamento de Seguridad Nacional. Es una paradoja clásica de Washington: una tecnología considerada un riesgo para el ejército se ha convertido en el principal escudo del Estado civil.

La paradoja de Glasswing

Para entender por qué la Casa Blanca está dispuesta a desdecirse, hay que fijarse en el Proyecto Glasswing. Cuando Anthropic lanzó esta iniciativa a principios de abril, no estaba promocionando un mejor chatbot para redactar correos electrónicos. Estaba presentando un sistema capaz de identificar miles de vulnerabilidades de día cero en el código de infraestructuras críticas. En pruebas internas, Mythos demostró una capacidad asombrosa para navegar por complejos repositorios de software y encontrar el tipo de fallos arquitectónicos que quitan el sueño a los responsables de la seguridad nacional. Por primera vez, la velocidad de descubrimiento de vulnerabilidades ha superado la capacidad humana para corregirlas.

Esto es lo que los ingenieros llaman una crisis de doble uso. La misma lógica que permite a una IA identificar un fallo en el software de control de una red eléctrica también proporciona la hoja de ruta para un ataque catastrófico. Anthropic ha mantenido a Mythos bajo una “Vista previa de investigación restringida”, limitando el acceso a un puñado de socios como Amazon AWS, Microsoft y Palo Alto Networks. Pero la Casa Blanca se dio cuenta de que, si estas capacidades existen en el sector privado, el Estado no puede permitirse ser el último en utilizarlas. La demanda de Mythos dentro de las agencias federales no proviene de los gerentes de oficina; proviene de las personas responsables de la integridad física de la red eléctrica y del sistema financiero.

Un riesgo sistémico para el libro mayor

La ansiedad en torno a Mythos alcanzó su punto álgido a principios de abril, cuando el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron a los directores ejecutivos de los bancos más grandes de Wall Street en Washington. No fue una reunión informativa rutinaria. La discusión se centró en la posibilidad de que Mythos, o el equivalente de un competidor, provocara perturbaciones financieras sistémicas. La Asociación de la Industria de Valores y Mercados Financieros (SIFMA) advirtió en una carta abierta que el uso malintencionado de tales modelos podría conducir al robo de identidad a gran escala o, lo que es más crítico, a la explotación de vulnerabilidades en el comercio de alta frecuencia que podrían hacer colapsar los mercados en milisegundos.

Desde una perspectiva técnica, el riesgo no es que la IA “decida” atacar a un banco. El riesgo es la erosión del margen de tiempo que actualmente protege a los sistemas modernos. Tradicionalmente, la ciberseguridad es un juego del gato y el ratón donde el defensor tiene una ligera ventaja de campo. Mythos cambia esa dinámica al automatizar la fase de “búsqueda” de un ataque. Cuando un modelo puede escanear millones de líneas de código e identificar una cadena de explotación en segundos, la línea de defensa, que depende de una ventana de descubrimiento y divulgación, desaparece efectivamente. Es por eso que Powell y Bessent no tratan al modelo como una herramienta de software, sino como una variable macroeconómica.

La camisa de fuerza "modificada"

La solución de la Casa Blanca a la prohibición del Pentágono es la creación de una “versión modificada” de Mythos. En el lenguaje de Bruselas o Berlín, esto se vería como un intento desesperado de soberanía tecnológica mediante retoques administrativos. En Washington, es una forma de eludir las listas negras de adquisiciones. Esta modificación es doble. Técnicamente, implica restricciones integradas en la capacidad del modelo para generar código de explotación procesable, convirtiéndolo efectivamente en un consultor de seguridad de “solo lectura”. Institucionalmente, bloquea el modelo dentro de un circuito federal cerrado, gestionado por la Oficina de Administración y Presupuesto (OMB).

El director de información federal, Gregory Barbaccia, ya ha comenzado el proceso de establecer los límites. Un memorando interno indica que agencias como el Departamento de Justicia y el Departamento de Estado recibirán acceso, pero solo bajo un marco que requiere un registro exhaustivo de cada consulta. Esto está muy lejos de los asistentes de IA de uso general comercializados al público. El gobierno está esencialmente construyendo una jaula digital alrededor del modelo, con la esperanza de aprovechar su brillantez diagnóstica mientras neutraliza su potencial ofensivo. Si dicha jaula puede realmente contener un modelo con capacidades emergentes sigue siendo objeto de un intenso debate entre los pocos investigadores que han visto los pesos completos de Mythos.

La lente europea: Soberanía frente a seguridad

Para los observadores de la Unión Europea, la saga de Mythos es una advertencia sobre la realidad de la Ley de IA frente a las exigencias del poder en el mundo real. Mientras la UE se centra en la clasificación de sistemas de “alto riesgo” y requisitos de transparencia, Estados Unidos se dirige hacia un modelo de desarrollo de IA capturado por el Estado. Al “modificar” y nacionalizar el despliegue de modelos del sector privado, Washington está creando un precedente en el que las tecnologías más poderosas eluden el escrutinio regulatorio estándar bajo el paraguas de la seguridad nacional.

Esto genera un importante dolor de cabeza para la política industrial alemana y francesa. Si el gobierno estadounidense está integrando estas capacidades en sus departamentos del Tesoro y Energía, sus homólogos europeos se encontrarán en una desventaja estructural a menos que puedan desarrollar modelos equivalentes y soberanos. El problema es que el panorama europeo de semiconductores e IA sigue fragmentado. Si bien empresas como Mistral en Francia o Aleph Alpha en Alemania buscan la transparencia y la seguridad, están compitiendo con entidades estadounidenses que se han convertido esencialmente en una extensión del aparato de seguridad del Estado. La “versión modificada” de Mythos es una señal de que la era de la IA como producto SaaS de uso general está terminando para los sectores críticos. Se está convirtiendo en una sustancia controlada.

La adquisición como arma

La fricción entre el Pentágono y la Casa Blanca también pone de relieve un fallo en la forma en que el complejo militar-industrial maneja el software moderno. La negativa del Pentágono a utilizar Anthropic surge del deseo de un control total, específicamente, el derecho a utilizar modelos para armamento autónomo. La negativa de Anthropic a cumplir a menudo se presenta como una postura ética, pero también es una decisión comercial pragmática: ser etiquetada como una empresa de “tecnología de la muerte” alienaría a los socios comerciales como Amazon y Google que proporcionan la capacidad de cómputo masiva necesaria para entrenar modelos como Mythos.

A medida que la OMB se prepara para implementar el acceso a Mythos en las “próximas semanas”, el enfoque cambiará del drama de la prohibición a la realidad del despliegue. El gobierno está apostando a que puede domesticar una tecnología que fue diseñada para ser disruptiva. La historia sugiere que la burocracia rara vez es más rápida que el código que intenta regular. La Casa Blanca ha decidido que el riesgo de usar Mythos es alto, pero el riesgo de no usarlo es mayor. Es el tipo de progreso que no cabe en una presentación, y es una realidad a la que Bruselas tendrá que enfrentarse eventualmente, probablemente después de que el primer día cero sea descubierto por una IA que el Pentágono técnicamente no posee.

Washington ha aceptado la realidad de que estas capacidades permearán inevitablemente en la infraestructura global. La competencia ha pasado de la prevención a la domesticación. El gobierno de EE. UU. tiene el modelo; ahora solo tiene que averiguar qué departamento se queda con las llaves.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Por qué el Pentágono prohibió inicialmente el software de Anthropic en los flujos de trabajo militares?
A El Departamento de Defensa incluyó a Anthropic en una lista negra citando riesgos en la cadena de suministro y preocupaciones sobre los límites del uso del software. Un factor importante en la exclusión fue la negativa de la empresa a autorizar el desarrollo de armas totalmente autónomas. Esta prohibición formal creó una brecha entre la adquisición militar y las necesidades de las agencias civiles, ya que el Pentágono priorizó los límites éticos y de seguridad sobre las capacidades de diagnóstico avanzadas del modelo.
Q ¿Qué hace que el modelo Claude Mythos sea peligrosamente único para la infraestructura crítica?
A Claude Mythos es una tecnología de doble uso capaz de identificar miles de vulnerabilidades de día cero en el código de software a velocidades que superan la capacidad humana de parcheo. Si bien puede utilizarse para asegurar redes eléctricas y sistemas financieros, esa misma lógica proporciona una hoja de ruta para ataques catastróficos. Al automatizar la fase de búsqueda de una cadena de explotación, el modelo elimina eficazmente el amortiguador temporal tradicional que permite a los defensores de la ciberseguridad responder a las amenazas.
Q ¿Cómo está modificando la Casa Blanca a Mythos para su uso dentro de las agencias federales?
A El gobierno federal está implementando una versión restringida del modelo que funciona como un consultor de seguridad de solo lectura. Esta modificación implica barreras técnicas integradas que impiden que la IA genere código de explotación procesable. Además, el sistema está aislado dentro de un circuito federal cerrado gestionado por la Oficina de Gestión y Presupuesto, lo que requiere un registro exhaustivo de cada consulta para mantener un control institucional estricto sobre sus capacidades emergentes.
Q ¿Qué vulnerabilidades del sistema financiero fueron destacadas por los funcionarios federales con respecto a la IA de alta potencia?
A Funcionarios del Tesoro y de la Reserva Federal advirtieron que modelos como Mythos podrían provocar inestabilidad sistémica al aprovechar vulnerabilidades en el trading de alta frecuencia para colapsar los mercados en milisegundos. También existen preocupaciones importantes respecto al robo de identidad a gran escala y la automatización de fraudes financieros sofisticados. Debido a que la IA puede escanear millones de líneas de código en busca de fallas en segundos, se está tratando como una variable macroeconómica que amenaza la integridad física del registro contable global.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!