Китай ужесточает контроль над ИИ

China Tightens the Reins on AI
Пекин ввел строгие правила и механизмы контроля, призванные обеспечить политическую лояльность больших языковых моделей, не подавляя при этом инновации. Этот подход сочетает фильтрацию данных, идеологические тесты, ведение журналов активности и оперативное удаление контента.

Пекин оперативно делает ИИ политически управляемым

Регуляторная архитектура

Китайские власти сформировали широкую регуляторную коалицию: в разработке стандартов приняли участие регуляторы киберпространства, полиция кибербезопасности, государственные лаборатории и крупнейшие технологические компании. Документ устанавливает сочетание технических требований и правил управления: ручную выборку тренировочных наборов данных, ежемесячные идеологические проверки моделей, явную маркировку контента, созданного ИИ, и обязательную регистрацию взаимодействий с пользователями. Официальные лица охарактеризовали эти усилия как защиту социальной стабильности, даже включив ИИ в национальную систему планирования действий в чрезвычайных ситуациях наряду с землетрясениями и эпидемиями.

Чиновники также подчеркивают узкую, но абсолютную «красную линию»: запрещено все, что будет расценено как «подстрекательство к подрыву государственной власти и свержению социалистического строя». В правилах перечислен 31 конкретный риск — от пропаганды насилия до незаконного использования чужого образа, — которые компании должны отсеивать при составлении тренировочных материалов и при развертывании сервисов.

Информационная диета и предпусковая инспекция

Одна из центральных метафор, используемых чиновниками, — информационная диета. Системы ИИ влиятельны ровно настолько, насколько влиятелен материал, которым их «кормят», поэтому правила заставляют компании относиться к своим тренировочным наборам как к ингредиентам на кухне, подлежащим строгому контролю. Для каждого формата контента — текста, изображений, видео — разработчики должны проводить случайную выборку и проверку вручную тысяч элементов обучения. Предложенный в руководстве порог требует использовать источник только в том случае, если не менее 96% материалов этого источника признаны безопасными согласно критериям 31 риска.

Прежде чем сервис станет общедоступным, он должен пройти идеологический экзамен. От компаний ожидается запуск 2000 тестовых промптов, разработанных для провоцирования подрывных или сепаратистских ответов, и такая настройка систем, чтобы модель отклоняла не менее 95% этих запросов. Подготовка к этому экзамену породила небольшой частный рынок консультантов и агентств по тестированию, которые помогают поставщикам ИИ составлять и ужесточать ответы — процесс, который инсайдеры сравнивают с подготовкой к SAT перед запуском продукта.

Контроль, прослеживаемость и надзор

Контроль за соблюдением правил ведется активно. В ходе недавней кампании власти сообщили об удалении сотен тысяч единиц того, что они назвали незаконным или вредным контентом, созданным ИИ, и закрыли тысячи ИИ-продуктов за несоблюдение требований. Правила обязывают платформы маркировать тексты, изображения и видео, созданные ИИ, вести логи взаимодействий пользователей и — что критически важно — привязывать учетные записи к номерам телефонов или национальным удостоверениям личности, чтобы ограничить анонимное вирусное распространение.

Эта архитектура призвана облегчить отслеживание происхождения контента и личности его создателя. Если пользователь пытается создать запрещенный материал, платформы обязаны зафиксировать диалог, приостановить действие учетной записи и сообщить об инциденте. Местные регуляторы будут проводить выборочные проверки после запуска, а компаниям грозит быстрая остановка сервисов, не прошедших тесты.

Технические ограничения и обход

Исследователи, тестировавшие китайские модели на Западе, сообщают о важной технической детали: большая часть политической цензуры, по-видимому, происходит уже после обучения — в фильтрах и слоях ответов, которые находятся поверх нейронной сети. Когда исследователи скачивают и запускают некоторые китайские модели локально, они иногда обнаруживают, что цензура смягчается или исчезает. Это позволяет предположить, что «мозги» моделей не очищены единообразно от чувствительных знаний — цензура часто реализуется как контроль во время выполнения (runtime control), а не как полное исключение из тренировочных данных.

Это различие важно, поскольку оно создает две уязвимости. Во-первых, система становится зависимой от операционных средств контроля, которые должны успевать за высокомотивированными пользователями, пытающимися совершить «джейлбрейк» моделей с помощью состязательных промптов. Во-вторых, разделенная архитектура — мощная базовая модель с фильтрующей оболочкой — поднимает вопрос о том, может ли лежащая в основе модель быть перепрофилирована в средах без аналогичных защитных механизмов рантайма.

Компромиссы в области безопасности и глобальная гонка

Подход Китая — это сознательный компромисс между политическим контролем и технологической конкурентоспособностью. Регуляторы открыто выражают опасения, что чрезмерно жесткие ограничения могут задушить инновации и оставить Китай позади в глобальной гонке ИИ, где доминируют американские фирмы, сталкивающиеся с иными регуляторными стимулами. В то же время китайские власти во всеуслышание заявляют о социальных рисках нерегулируемого ИИ: высшее руководство предупредило, что технология несет в себе «беспрецедентные риски», а государственная программа внедрения ИИ под названием «AI Plus» нацелена на интеграцию ИИ в большинство ключевых секторов к 2027 году при сохранении строгих защитных барьеров.

Двойное давление — стремление соответствовать мировому уровню в бенчмарках и оставаться идеологически безопасным — привело к созданию моделей, которые показывают хорошие результаты во многих технических категориях, предлагая при этом «очищенные» ответы на политически чувствительные темы. Независимые аналитики отмечают, что это может сделать китайские чат-боты объективно более безопасными по некоторым показателям, таким как снижение количества насильственного или порнографического контента. Однако теми же системами может быть проще манипулировать на английском языке или в технических вопросах, а значит, мотивированный пользователь все еще может извлечь опасные операционные инструкции или воспользоваться слабостями модели.

Как адаптируются компании

Крупные отечественные компании в основном предпочли сотрудничество. Отраслевые группы и ведущие игроки участвовали в разработке ноябрьских стандартов, и несколько известных участников рынка сейчас публично приводят разработку своих продуктов в соответствие с требованиями правил по выборке, тестированию и прослеживаемости. Государство также сочетает меры принуждения с «пряниками»: национальная дорожная карта развития ИИ и инициатива «AI Plus» создают стимулы для разработки моделей, полезных для государственных приоритетов, обороны, здравоохранения и производства.

Такая партнерская модель может ускорить развертывание в рамках регулируемого национального рынка, но она рискует привести к созданию моделей, которые лучше всего работают в среде с экстенсивным контролем контента и ограниченным доступом к иностранным наборам данных. По мере того как возможности моделей растут, поддерживать этот разрыв в производительности между ограниченными внутренними разработками и свободными глобальными системами будет все труднее и ресурсозатратнее.

Более широкие последствия

Китайские правила формулируют четкую позицию: ИИ является активом как экономики, так и национальной безопасности, который должен быть сформирован для поддержки политической стабильности. Политический микс — тщательный отсев наборов данных, обязательное идеологическое тестирование, прослеживаемость, регистрация и активное удаление контента — это один из вариантов решения проблемы удержания быстроразвивающихся языковых моделей в русле государственных приоритетов. Это также живой эксперимент по выяснению того, можно ли управлять крупным динамичным технологическим сектором, не теряя при этом преимущества перед зарубежными конкурентами.

Результат этого эксперимента будет иметь значение далеко за пределами Китая. Если фильтрация во время выполнения и контроль доступа окажутся надежными, итогом может стать набор настроенных под внутренний рынок моделей, безопасных для китайского интернета, но менее открытых для международного использования. Если же эти меры контроля окажутся хрупкими или талантливые исследователи уедут в менее ограниченные среды, страна может столкнуться именно с тем разрывом в конкурентоспособности, которого опасаются ее регуляторы.

На данный момент Пекин, похоже, полон решимости пройти по тонкой грани: внедрить ИИ в экономику и армию, одновременно выстраивая режим контроля, ограничивающий способность технологии стимулировать политическое инакомыслие. Сохранится ли этот баланс по мере того, как модели будут становиться умнее, а глобальная конкуренция обостряться, — один из определяющих технологических вопросов на пути к 2026 году.

Источники

  • Cyberspace Administration of China (регуляторные стандарты и руководство по ИИ-контенту)
  • Carnegie Endowment for International Peace (анализ политики Китая в области ИИ)
  • Китайские государственные лаборатории и отечественные исследовательские группы по ИИ (практики работы с моделями и наборами данных)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q В чем заключается основной метод Пекина по обеспечению политической безопасности ИИ?
A Пекин использует сочетание фильтрации данных, идеологического тестирования, ведения логов и быстрого удаления контента для обеспечения политической безопасности ИИ. Регуляторы — от ведомств по киберпространству до крупных технологических компаний — разработали стандарты, требующие ручной проверки обучающих выборок, ежемесячных идеологических тестов для моделей, обязательной маркировки контента, созданного ИИ, и обязательного логирования взаимодействий с пользователями. Все эти меры направлены на защиту социальной стабильности с жестким запретом на подрывную деятельность.
Q Каким требованиям должен соответствовать сервис перед запуском?
A Перед выходом в открытый доступ сервисы должны пройти идеологический экзамен, включающий запуск 2000 тестовых промптов, предназначенных для выявления подрывных или сепаратистских ответов, и настройку модели таким образом, чтобы она отклоняла не менее 95% таких запросов. Кроме того, источники, используемые для обучения, должны соответствовать порогу безопасности в 96% по 31 критерию риска, при этом контент подлежит выборочной проверке людьми.
Q Как реализуются меры контроля и отслеживаемости?
A Платформы обязаны маркировать тексты, изображения и видео, созданные ИИ, вести логи взаимодействий с пользователями и привязывать аккаунты к номерам телефонов или национальным удостоверениям личности для предотвращения анонимного распространения информации. Местные регуляторы проводят выборочные проверки после запуска, и в случае генерации запрещенных материалов платформа должна зафиксировать диалог, заблокировать аккаунт и сообщить об инциденте. Власти уже удалили сотни тысяч единиц контента и тысячи ИИ-продуктов за несоблюдение этих правил.
Q Какие уязвимости отмечают исследователи в цензуре китайских моделей ИИ?
A Цензура часто накладывается уже после обучения, на уровне фильтров и слоев генерации ответов, а не вычищается полностью из обучающих данных. При локальном запуске моделей цензура может ослабевать или исчезать вовсе, что указывает на разделенную архитектуру с мощным ядром и фильтрующей оболочкой. Это создает риски попыток «взлома» (джейлбрейка) и потенциального перепрофилирования модели без защитных механизмов.
Q В чем заключается более широкий политический компромисс между контролем и инновациями?
A Китай формулирует эту политику как баланс между политическим контролем и технологической конкурентоспособностью: чрезмерно жесткие ограничения могут задушить инновации и привести к отставанию страны в глобальной гонке ИИ, возглавляемой американскими фирмами. В то же время власти продвигают программу «AI Plus» и национальную дорожную карту по внедрению ИИ в приоритетные отрасли к 2027 году при сохранении защитных барьеров.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!