China endurece el control sobre la IA

IA
China Tightens the Reins on AI
Pekín ha implementado normativas y medidas de cumplimiento estrictas destinadas a garantizar que los modelos de lenguaje de gran tamaño sean políticamente seguros, intentando al mismo tiempo no asfixiar la innovación. Este enfoque combina el filtrado de datos, pruebas ideológicas, registros de actividad y eliminaciones rápidas de contenido.

Pekín actúa con rapidez para que la IA sea políticamente manejable

Arquitectura regulatoria

Las autoridades chinas han reunido una amplia coalición regulatoria: reguladores del ciberespacio, la policía de ciberseguridad, laboratorios estatales y grandes empresas tecnológicas participaron en la redacción de las normas. El documento establece una combinación de requisitos técnicos y de gobernanza: muestreo humano de los conjuntos de datos de entrenamiento, cuestionarios ideológicos mensuales para los modelos, etiquetado explícito del contenido generado por IA y registro obligatorio de las interacciones de los usuarios. Los funcionarios han enmarcado este esfuerzo como una medida para proteger la estabilidad social, llegando incluso a incluir la IA en un marco nacional de planificación de emergencias junto con los terremotos y las epidemias.

Los funcionarios también enfatizan una línea roja estrecha pero absoluta: está prohibido cualquier cosa que se juzgue como "incitación a subvertir el poder del Estado y derrocar el sistema socialista". El reglamento enumera 31 riesgos distintos —desde la promoción de la violencia hasta el uso ilícito de la imagen de una persona— que las empresas deben filtrar cuando compilan material de entrenamiento y cuando despliegan sus servicios.

Dieta de datos e inspección previa al lanzamiento

Una de las metáforas centrales que utilizan los funcionarios es la de una "dieta de datos". Los sistemas de IA son tan influyentes como el material con el que se alimentan, por lo que las normas obligan a las empresas a tratar sus conjuntos de entrenamiento como ingredientes controlados en una cocina. Para cada formato de contenido —texto, imágenes, vídeo—, los desarrolladores deben realizar muestreos aleatorios y revisiones humanas de miles de elementos de entrenamiento. Un umbral propuesto en la guía exige que se utilice una fuente solo si al menos el 96 % del material de dicha fuente se considera seguro según los 31 criterios de riesgo.

Antes de que un servicio pueda hacerse público, debe superar un examen ideológico. Se espera que las empresas ejecuten 2.000 instrucciones de prueba (prompts) diseñadas para provocar respuestas subversivas o separatistas y ajusten sus sistemas para que el modelo rechace al menos el 95 % de dichas instrucciones. La preparación para ese examen ha generado un pequeño mercado privado de consultores y agencias de pruebas que ayudan a los proveedores de IA a elaborar y reforzar las respuestas, un proceso que los conocedores del sector comparan con la preparación del SAT para el lanzamiento de un producto.

Aplicación, trazabilidad y vigilancia

La aplicación de la normativa ha sido intensa. Las autoridades informaron de la eliminación de cientos de miles de piezas de lo que llamaron contenido generado por IA ilegal o dañino durante una campaña reciente, y han retirado miles de productos de IA por incumplimiento. Las normas exigen que las plataformas etiqueten los textos, imágenes y vídeos creados por IA, que mantengan registros de las interacciones de los usuarios y, lo que es crucial, que vinculen a los usuarios con números de teléfono o identidades nacionales para que se pueda frenar la difusión viral anónima.

Esa arquitectura está diseñada para facilitar el rastreo de la procedencia del contenido y la identidad del generador. Si un usuario intenta generar material prohibido, se espera que las plataformas registren la conversación, suspendan la cuenta e informen del incidente. Los reguladores locales realizarán comprobaciones aleatorias tras el lanzamiento, y las empresas se arriesgan al cierre rápido de los servicios que no superen las pruebas.

Límites técnicos y elusión

Investigadores que han probado modelos chinos en Occidente informan de un detalle técnico importante: gran parte de la censura política parece ocurrir después del entrenamiento, en los filtros y capas de respuesta que se sitúan sobre una red neuronal. Cuando los investigadores descargan y ejecutan algunos modelos chinos localmente, a veces descubren que la censura se suaviza o desaparece, lo que sugiere que los "cerebros" de los modelos no están uniformemente limpios de conocimientos sensibles; la censura se implementa frecuentemente como un control en tiempo de ejecución, no como una escisión completa de los datos de entrenamiento.

Esa distinción es importante porque crea dos vulnerabilidades. Primero, hace que el sistema dependa de controles operativos que deben seguir el ritmo de usuarios altamente motivados que intentan realizar un "jailbreak" a los modelos con instrucciones adversarias. Segundo, la arquitectura dividida —un modelo central potente con una envoltura de filtrado— plantea la cuestión de si el modelo subyacente podría ser reutilizado en entornos sin las mismas salvaguardas en tiempo de ejecución.

Compromisos de seguridad y la carrera global

El enfoque de China es un compromiso deliberado entre el control político y la competitividad tecnológica. Los reguladores temen explícitamente que las restricciones excesivamente estrictas puedan asfixiar la innovación y dejar a China rezagada en una competencia global de IA dominada por empresas estadounidenses que se enfrentan a incentivos regulatorios diferentes. Al mismo tiempo, las autoridades chinas han sido abiertas sobre los riesgos sociales de una IA no regulada: los altos líderes advirtieron que la tecnología plantea "riesgos sin precedentes", y el programa estatal de adopción de IA —denominado "AI Plus"— pretende integrar la IA en la mayoría de los sectores clave para 2027 manteniendo estrictas salvaguardas.

Las presiones gemelas —ser de clase mundial en las pruebas de rendimiento y seguir siendo ideológicamente seguros— han producido modelos que obtienen buenos resultados en muchas categorías técnicas al tiempo que ofrecen respuestas depuradas sobre temas políticamente sensibles. Analistas independientes señalan que esto puede hacer que los chatbots chinos sean objetivamente más seguros en algunas métricas, como la reducción de contenido violento o pornográfico. Pero esos mismos sistemas pueden ser más fáciles de sortear en inglés o en temas técnicos, lo que significa que un usuario motivado aún podría extraer instrucciones operativas peligrosas o explotar las debilidades del modelo.

Cómo se están adaptando las empresas

Las principales empresas nacionales han optado mayoritariamente por cooperar. Grupos industriales y empresas líderes participaron en la redacción de las normas de noviembre, y varios actores destacados están alineando públicamente el desarrollo de sus productos con los requisitos de muestreo, prueba y trazabilidad del reglamento. El Estado también ha combinado medidas coercitivas con incentivos: la hoja de ruta nacional de la IA y la iniciativa "AI Plus" crean incentivos para desarrollar modelos que sean útiles para las prioridades gubernamentales, la defensa, la salud y la fabricación.

Ese modelo de asociación puede acelerar el despliegue dentro de un mercado nacional regulado, pero corre el riesgo de producir modelos que funcionen mejor en un entorno con amplios controles de contenido y un acceso restringido a conjuntos de datos extranjeros. A medida que los modelos se vuelven más capaces, mantener esa brecha de rendimiento entre los despliegues nacionales restringidos y los sistemas globales sin restricciones será más difícil y requerirá más recursos.

Implicaciones más amplias

Las regulaciones de China articulan una visión clara: la IA es un activo tanto económico como de seguridad nacional que debe ser moldeado para apoyar la estabilidad política. El conjunto de políticas —un riguroso filtrado de conjuntos de datos, pruebas ideológicas obligatorias, trazabilidad, registro y eliminaciones activas— es una respuesta al problema de mantener los modelos de lenguaje, que evolucionan rápidamente, alineados con las prioridades del Estado. También es un experimento en vivo sobre si un sector tecnológico grande y dinámico puede ser dirigido sin perder la ventaja frente a sus rivales en el extranjero.

El resultado tendrá importancia más allá de las fronteras de China. Si el filtrado en tiempo de ejecución y los controles de acceso resultan robustos, el resultado puede ser un conjunto de modelos ajustados nacionalmente que sean seguros para el internet chino pero menos abiertos para el uso internacional. Si esos controles resultan frágiles o si investigadores con talento se marchan a entornos menos restringidos, el país podría enfrentarse a la brecha de competitividad que sus reguladores tanto temen.

Por ahora, Pekín parece decidido a encontrar un equilibrio delicado: impulsar la IA en la economía y el ejército, mientras construye un régimen de aplicación que limite la capacidad de la tecnología para espolear el descontento político. Si ese equilibrio puede sostenerse a medida que los modelos se vuelven más inteligentes —y a medida que la competencia global se intensifica— es una de las preguntas tecnológicas definitorias de cara a 2026.

Fuentes

  • Cyberspace Administration of China (normas regulatorias y directrices sobre contenido de IA)
  • Carnegie Endowment for International Peace (análisis de la política china de IA)
  • Laboratorios estatales chinos y grupos nacionales de investigación en IA (prácticas de modelos y conjuntos de datos)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Cuál es el método principal que utiliza Pekín para mantener la IA políticamente segura?
A Pekín emplea una combinación de filtrado de datos, pruebas ideológicas, registro de actividad y eliminaciones rápidas para mantener la IA políticamente segura. Los reguladores, desde las autoridades del ciberespacio hasta las principales empresas tecnológicas, redactaron normas que exigen el muestreo humano de los conjuntos de datos de entrenamiento, cuestionarios ideológicos mensuales para los modelos, el etiquetado explícito del contenido generado por IA y el registro obligatorio de las interacciones de los usuarios, todo ello enmarcado en la protección de la estabilidad social con una línea roja infranqueable contra la subversión.
Q ¿Qué requisitos previos al lanzamiento debe cumplir un servicio?
A Antes de hacerse públicos, los servicios deben superar un examen ideológico que incluye la ejecución de 2000 indicadores de prueba (prompts) diseñados para revelar respuestas subversivas o separatistas, y ajustar el modelo para que rechace al menos el 95 % de dichos indicadores. Además, las fuentes utilizadas para el entrenamiento deben cumplir un umbral de seguridad del 96 % bajo 31 criterios de riesgo, con revisiones humanas aleatorias del contenido.
Q ¿Cómo se implementan la aplicación de la ley y la trazabilidad?
A Las plataformas deben etiquetar los textos, imágenes y vídeos creados por IA, mantener registros de las interacciones de los usuarios y vincular a estos con números de teléfono o identidad nacional para frenar la difusión anónima. Los reguladores locales realizarán controles aleatorios después del lanzamiento y, si se genera material prohibido, la plataforma debe registrar la conversación, suspender la cuenta y denunciar el incidente. Las autoridades han eliminado cientos de miles de piezas y miles de productos de IA por incumplimiento.
Q ¿Qué vulnerabilidades señalan los investigadores sobre la censura en los modelos de IA chinos?
A La censura a menudo opera después del entrenamiento, en filtros y capas de respuesta, en lugar de ser eliminada por completo de los datos de entrenamiento. Cuando los modelos se ejecutan localmente, la censura puede suavizarse o desaparecer, lo que indica una arquitectura dividida con un núcleo potente y una capa de filtrado. Esto genera riesgos de intentos de 'jailbreak' (evasión de restricciones) y una posible reutilización sin salvaguardias.
Q ¿Cuál es el equilibrio de políticas más amplio entre el control y la innovación?
A China plantea la política como un equilibrio entre el control político y la competitividad tecnológica: las restricciones excesivamente estrictas podrían ahogar la innovación y dejar al país rezagado en una carrera mundial de IA liderada por empresas estadounidenses. Al mismo tiempo, las autoridades promueven el programa AI Plus y una hoja de ruta nacional para integrar la IA en sectores prioritarios para 2027, manteniendo al mismo tiempo las medidas de protección.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!