Anthropic отказывается от своего главного обещания в области безопасности

Anthropic ditches its core safety promise
25 февраля 2026 года компания Anthropic объявила о переходе от обязательства по принудительной приостановке разработки к гибкой структуре безопасности, основанной на отчетности. Это решение было принято на фоне напряженного спора с Пентагоном о «красных линиях» в сфере ИИ. Данный шаг ставит под вопрос ответственность отрасли, рычаги влияния при государственных закупках и будущее обязательств по приоритетному обеспечению безопасности ИИ.

Anthropic отказывается от своего главного обещания в области безопасности на фоне столкновения интересов Вашингтона и индустрии

Anthropic отказывается от своего главного обещания в области безопасности: что на самом деле меняет новая политика

Предыдущая Политика ответственного масштабирования (Responsible Scaling Policy) Anthropic, выпущенная примерно два года назад, содержала четкие барьеры: если возможности модели росли быстрее, чем компания могла их протестировать и контролировать, Anthropic обещала приостановить дальнейшее обучение. В своей новой политике, опубликованной в блоге в виде «Дорожной карты безопасности передовых моделей» (Frontier Safety Roadmap), компания отказывается от этой жесткой паузы. Вместо этого Anthropic заявляет, что будет публиковать регулярные подробные отчеты о возможностях моделей, моделях угроз и планах по их смягчению, а также будет оценивать собственный прогресс в достижении публично заявленных целей безопасности.

Anthropic отказывается от своего главного обещания в области безопасности на фоне противостояния с Пентагоном из-за «красных линий»

Смену политики необходимо рассматривать в контексте параллельного конфликта с Министерством обороны, который обострился на этой неделе. Министр обороны Пит Хегсет встретился с генеральным директором Anthropic Дарио Амодеи и, по имеющимся данным, установил компании крайний срок для отмены защитных мер, которые ведомство считает препятствием для закупок. Пентагон предупредил, что отказ может стоить Anthropic контракта на 200 миллионов долларов и что администрация может задействовать такие инструменты, как Закон о оборонном производстве (Defense Production Act), или официально признать Anthropic угрозой для цепочки поставок — шаги, которые серьезно ограничат возможности компании продавать свои решения правительству США.

Anthropic сообщила официальным лицам, что не отступит от двух принципиальных позиций: она не будет создавать или поддерживать оружие под управлением ИИ и не допустит массовой внутренней слежки за гражданами США. Эти исключения соответствуют формулировкам, которые компания давно использует для определения неприемлемых способов использования своих моделей. Тем не менее, высокопоставленные чиновники министерства обороны расценивают отказ от обязательства по приостановке обучения как ослабление корпоративных гарантий безопасности и считают, что это лишает Пентагон рычагов влияния для обеспечения соответствия поставляемых военным систем более строгим порогам безопасности.

Что означает «красная линия» в этом споре

В политическом контексте «красная линия» — это четкая, подлежащая соблюдению граница, которую военные или правительство устанавливают для поведения поставщика. Для Пентагона «красными линиями» в области ИИ могут быть условия, при которых модели не могут использоваться в системах вооружения, или требования к проверяемому тестированию и контролю перед развертыванием в критически важных приложениях. Ведомство рассматривает юридически обязывающие корпоративные обещания — такие как обязательство приостановить рост возможностей до проведения тестов на безопасность — как полезный актив при закупке высоконадежных систем. Устранение таких обязательств превращает эти «красные линии» в мягкие рекомендации, что усложняет решения о закупках и повышает вероятность регуляторной эскалации.

Однако для Anthropic и других фирм односторонние «красные линии» могут стать конкурентным недостатком. Руководство компании и некоторые исследователи утверждают, что если только один игрок сделает паузу, пока конкуренты внедряют более мощные модели, риск может переместиться с осторожного разработчика на общество в целом. Это основной аргумент, который публично озвучил главный научный сотрудник Anthropic: компания считает, что односторонние паузы не масштабируются как стратегия безопасности на быстроменяющемся рынке.

Реакция индустрии и компромиссы в вопросах доверия

Объявление вызвало немедленную реакцию в сообществе ИИ. Некоторые исследователи приветствовали отказ Anthropic идти на уступки в вопросах слежки и использования оружия, отметив, что требования правительства снизить уровень защиты ради контрактов создадут тревожные прецеденты. Другие выразили обеспокоенность: переход от обязательной паузы к добровольной отчетности снижает механические гарантии, которые ранее служили основой доверия.

Доверие имеет как техническую, так и репутационную составляющую. Anthropic ссылается на собственные исследования — в том числе работу, показывающую, что в искусственных условиях определенные модели можно склонить к поведению, напоминающему шантаж, — чтобы обосновать осторожную позицию при развертывании. Компания также подчеркнула конкретную политическую активность: она инвестировала в адвокацию и просвещение общественности по вопросам рисков ИИ. Однако одних лишь отчетов о прозрачности не всегда достаточно, чтобы удовлетворить внешних стейкхолдеров, которые требуют юридически закрепленных ограничений или независимых аудитов перед сертификацией систем для использования правительством.

Последствия для рынка и политики

Дебаты разворачиваются на фоне рынка, уже обеспокоенного деструктивным воздействием ИИ. Инвесторы и клиенты следят за тем, смогут ли компании, ставящие безопасность во главу угла, одновременно конкурировать и поддерживать строгий контроль. Разворот Anthropic сигнализирует о том, что по крайней мере некоторые компании ощущают давление со стороны конкурентов и контрактную мощь крупных заказчиков, таких как Пентагон. Если результатом станет гонка внедрений без надежных проверок безопасности, регуляторы и законодатели могут счесть необходимым вмешаться.

С другой стороны, жесткая позиция Пентагона — угроза внесения в черные списки, применение Закона о оборонном производстве, признание риском для цепочки поставок — показывает, как закупки могут использоваться для принуждения к изменению корпоративной политики или наказания за нее. Эта динамика поднимает более широкие вопросы: должны ли покупатели из сферы национальной безопасности устанавливать более строгие требования, чем открытый рынок, и если да, то как эти требования могут проверяться и соблюдаться, не подавляя инновации? Вероятно, законодатели и регуляторы выскажут свое мнение, и перетягивание каната между коммерческими стимулами и общественной безопасностью вряд ли разрешится быстро.

Последствия для будущих стандартов безопасности ИИ

Действия Anthropic иллюстрируют более масштабную системную проблему: нормы безопасности, основанные на добровольности и моральном убеждении, могут разрушаться в условиях острой коммерческой и геополитической конкуренции. Новый подход компании — более частая публичная отчетность и поэтапная оценка прогресса в достижении целей безопасности — может дать больше данных политикам, исследователям и аудиторам, но оставляет открытым вопрос о том, как будут разрешаться разногласия по поводу приемлемого риска. Пентагон хочет четких гарантий для систем, которые он использует; Anthropic и другие компании предпочитают гибкие, итеративные процессы, исключающие односторонние паузы.

Важную роль будут играть практические шаги. Если Пентагон приведет в действие санкции в сфере закупок, это создаст прецедент того, насколько сильно покупатели могут давить на поставщиков с целью изменения их внутренней политики. Если Anthropic сохранит двойной отказ от оружия с ИИ и массовой слежки, продолжая публиковать отчеты о возможностях моделей, результатом может стать переговорный компромисс: ужесточение независимого тестирования и договорные условия безопасности для государственных нужд в сочетании с обязательствами отрасли по обеспечению прозрачности коммерческих предложений. В противном случае тупик повышает вероятность законодательных мер по созданию обязательных стандартов.

Эта история — яркий пример того, как технические решения — будь то приостановка обучения модели или замена обязательного обещания дорожной картой на основе отчетов — неотделимы от геополитики, влияния заказчиков и рыночных стимулов. Пересмотр политики Anthropic — это не просто внутренние изменения; это сигнал о том, как риторика «безопасность превыше всего» выживает в условиях, когда фирмы сталкиваются одновременно с конкурентами, стремящимися нарастить мощности, и правительством, требующим работоспособных, сертифицируемых систем. То, как этот сигнал будет воспринят клиентами, регуляторами и исследователями, определит следующий этап управления ИИ.

Источники

  • Anthropic (Responsible Scaling Policy v3 и Frontier Safety Roadmap)
  • Публичные заявления и закупочные действия Министерства обороны США / Пентагона
  • CNN: репортаж об изменении политики Anthropic и споре с Пентагоном
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q В чем заключается основное обещание Anthropic в области безопасности и почему оно важно?
A Основное обещание Anthropic в области безопасности, являющееся частью ее Политики ответственного масштабирования (Responsible Scaling Policy), заключалось в том, чтобы не обучать и не выпускать передовые модели ИИ до тех пор, пока компания не сможет заранее гарантировать адекватные меры безопасности. Это обязательство выделило компанию среди конкурентов, поставив безопасность выше темпов разработки. Его значимость заключалась в установлении более высоких стандартов безопасности ИИ в условиях отраслевого давления, хотя критики отмечают, что добровольные обещания могут быть легко изменены.
Q Почему Anthropic, по сообщениям, отказалась от своих обязательств по безопасности в ходе спора с Пентагоном?
A В результатах поиска не упоминается какой-либо спор с Пентагоном; вместо этого Anthropic отказалась от своих обязательств по безопасности из-за острой конкуренции со стороны соперников, таких как OpenAI, необходимости сохранять конкурентоспособность в нарастающей гонке ИИ, а также отсутствия государственного регулирования или принятия аналогичных строгих стандартов другими участниками рынка. Компания перешла к мерам прозрачности, таким как дорожные карты безопасности и отчеты о рисках, чтобы сбалансировать безопасность с темпами разработки.
Q Что означает понятие «красная линия» в контексте разработки ИИ и политических дебатов?
A В дебатах о разработке и политике в области ИИ «красная линия» означает критический порог или границу, за которой разработка или развертывание систем ИИ считается слишком рискованным, что требует остановки процесса или введения строгих мер защиты. Это представляет собой не подлежащие обсуждению ограничения для предотвращения катастрофических рисков, аналогично уровням биобезопасности в других областях.
Q Как решение Anthropic может повлиять на государственные контракты в сфере ИИ и стандарты безопасности?
A Решение Anthropic может нормализовать более слабые добровольные стандарты безопасности, потенциально снижая требования к государственным контрактам на ИИ, в которых приоритет отдается быстрому развертыванию, а не строгим мерам защиты. Это может побудить другие фирмы последовать их примеру, влияя на контракты так, чтобы акцент смещался на конкурентоспособность и отчеты о прозрачности, а не на строгие предварительные условия, на фоне призывов к обязательному регулированию.
Q Каковы более широкие последствия этого репортажа CNN для безопасности ИИ в индустрии?
A Репортаж CNN, как отражено в материалах, подчеркивает хрупкость добровольных обязательств по безопасности ИИ, сигнализируя о более широком сдвиге отрасли в сторону конкуренции, а не осторожности, и подчеркивая необходимость государственного регулирования. Это может подорвать доверие общественности к саморегулированию разработчиков ИИ и усилить дебаты о введении обязательного надзора для смягчения катастрофических рисков.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!