Пентагон против Anthropic: угроза прекращения сотрудничества

A.I
Pentagon vs Anthropic: Cut-off Threat
Пентагон угрожает прекратить сотрудничество с Anthropic из-за ограничений на военное использование ИИ, требуя доступа к технологиям в закрытых сетях. Это противостояние подчеркивает конфликт между оборонными нуждами, корпоративными барьерами безопасности и рисками национальной безопасности.

Пентагон угрожает прекратить сотрудничество, поскольку переговоры с Anthropic зашли в тупик

На этой неделе Пентагон пригрозил прекратить сотрудничество с Anthropic, согласно сообщениям, появившимся 16 февраля 2026 года. Министерство обороны США требует от компании смягчить ограничения на использование ее больших языковых моделей военными. Спор — о котором сообщает CNBC наряду с предыдущими публикациями Reuters и Axios — сосредоточен на том, позволят ли коммерческие ИИ-компании использовать свои системы для того, что Пентагон называет «любыми законными целями», включая разработку оружия, сбор разведданных и боевые операции. Anthropic заявляет, что твердо придерживается определенных ограничений безопасности, таких как строгий запрет на полностью автономное оружие и массовую внутреннюю слежку, и разногласия переросли в угрозы разрыва отношений.

Пентагон угрожает прекращением сотрудничества: юридические и контрактные точки трения

Суть конфликта заключается в юридических и контрактных формулировках. Пентагон хочет получить доступ к моделям в секретных сетях и более широкие формулировки, которые позволили бы использовать их в различных военных миссиях; компании обычно предоставляют доступ при условии соблюдения мер безопасности на уровне моделей и ограничений, основанных на политике компании. Для Пентагона фраза «любые законные цели» является единым контрактным термином, который уменьшит двусмысленность в отношении разрешенного использования военными. Для таких компаний, как Anthropic, OpenAI, Google и xAI, принятие этой формулировки сопряжено с риском подрыва внутренних барьеров безопасности — как технических средств контроля, встроенных в модели, так и корпоративных обязательств, направленных на ограничение злоупотреблений.

Переговоры также касаются технических деталей: того, как модели развертываются в секретных сетях, сохраняются ли контент-фильтры и логирование использования, и кто несет ответственность, если система на базе ИИ выдает вредоносный результат. Пентагон выразил разочарование после нескольких месяцев переговоров; стремление снять или ослабить ограничения отражает оперативное желание использовать самые мощные доступные системы в условиях конфликтов, в то время как компании беспокоятся об ответственности, репутационных рисках и более широкой этике военного применения.

Как ответили Anthropic и другие поставщики

Anthropic публично заявила, что ранние переговоры с правительством США были сосредоточены на вопросах политики использования и четких границах — прежде всего, на запрете полностью автономного оружия и ограничениях на массовую внутреннюю слежку — а не на одобрении конкретных операций. Представитель компании сообщил журналистам, что она не обсуждала с Пентагоном использование своей модели Claude для конкретных тактических операций. Это заявление соседствует с сообщениями о том, что Claude использовался как минимум в одной громкой операции через партнера: Wall Street Journal сообщил, что Claude был задействован через Palantir в операции по поимке бывшего президента Венесуэлы, что демонстрирует, как интеграция с партнерами усложняет простые характеристики корпоративной сдержанности.

Другие крупные ИИ-компании, упомянутые в отчетах — OpenAI, Google и xAI — также подвергаются давлению со стороны Пентагона с целью расширения доступа. Reuters и CNBC описали широкие запросы Министерства обороны США о предоставлении моделей в секретных сетях без многих стандартных ограничений, которые компании применяют к гражданским пользователям. Фирмы по-разному отреагировали на эти запросы, балансируя возможности получения контрактов и допусков к секретной информации с внутренней политикой и внешним контролем.

Почему Пентагон настаивает и чего он хочет добиться

Однако стремление к общим, открытым контрактным формулировкам — «любые законные цели» — ставит вопросы о том, какие гарантии безопасности сохраняются, когда модели используются в кинетическом или скрытом контексте. Законное использование — это широкий юридический стандарт, который все равно требует внедрения мер контроля во избежание непреднамеренной эскалации, причинения вреда гражданскому населению или нарушений внутреннего и международного права. Эти оперативные требования и являются источником текущей напряженности.

Технические гарантии на кону и опасения Пентагона

Компании встраивают средства защиты в модели по двум направлениям: контроль на уровне модели (тонкая настройка, уровни безопасности, тестирование «красными командами» и контент-фильтры) и контроль на уровне политики (условия обслуживания и контрактные ограничения на использование). Стремление Пентагона сократить или обойти ограничения изменит то, как эти средства контроля работают на практике. Например, размещение модели в секретной сети может привести к удалению части телеметрии и логирования по соображениям безопасности, но это также может подорвать способность компании отслеживать неправомерное использование и исправлять проблемное поведение.

Сообщается, что Пентагон разочарован тем, что Anthropic сопротивляется предложениям ослабить ограничения в сценариях, которые компания считает высокорискованными — таких как управление полностью автономным оружием и массовая внутренняя слежка. Это области, в которых многие ИИ-компании, а не только Anthropic, отстаивают строгие запреты на принятие автономных решений, которые могут привести к летальным исходам без контроля со стороны человека.

Как прекращение доступа может отразиться на безопасности и защите

Если Пентагон доведет дело до конца и разорвет отношения с Anthropic, немедленным эффектом станет сокращение круга поставщиков, доступных оборонному сообществу США. Это, вероятно, ускорит внутренние усилия Министерства обороны по созданию или заказу специализированных моделей, увеличит зависимость от компаний, которые соглашаются на более широкие условия использования, или подтолкнет к партнерству с иностранными поставщиками — каждый из этих результатов несет в себе свои компромиссы в области безопасности и надзора. Прекращение доступа также может заставить ведомства принимать решения с меньшим количеством средств контроля безопасности со стороны вендора, что повышает риск нецелевого использования или непредвиденных последствий.

Напротив, компании, сохраняющие строгие ограничения безопасности, утверждают, что эти барьеры снижают последующие риски, предотвращают расширение миссии сверх поставленных задач и сохраняют доверие общественности. Противостояние демонстрирует более глубокий стратегический выбор: согласятся ли субъекты национальной безопасности на корпоративные барьеры, ограничивающие определенные виды военного применения, или же они будут настаивать на беспрепятственном доступе и возьмут на себя новое бремя надзора внутри государственных систем.

Прошлые прецеденты и более широкий политический контекст

Министерство обороны США ранее финансировало исследования в области ИИ и формировало партнерства с промышленностью, но нынешний момент выделяется из-за масштаба и зрелости коммерчески доступных больших языковых моделей. Предыдущие совместные работы включали условные гранты и пилотные проекты, требовавшие определенных гарантий безопасности; нынешний спор касается широких операционных условий, а не финансирования пилотных проектов. Угроза Пентагона прекратить сотрудничество с поставщиком из-за политических разногласий является эскалацией в глазах общественности и сигнализирует о жестких переговорах в будущем для всех крупных поставщиков передовых инструментов ИИ.

В игру также вступают политические факторы. Свое мнение высказали общественные деятели и конкуренты — в частности, Илон Маск, который недавно публично раскритиковал модели Anthropic — подчеркивая, что дебаты о предвзятости, безопасности и надлежащей роли ИИ в военном контексте стали частью шумной общественной дискуссии, а не просто закрытыми спорами о закупках.

Переговоры и следующие шаги

Обе стороны заинтересованы в том, чтобы избежать полного разрыва. Пентагону нужны передовые возможности; компании хотят сохранить государственный бизнес и избежать отстранения от значимых контрактов. Следует ожидать интенсивных закулисных переговоров по поводу формулировок контрактов, мер технической изоляции (например, развертывание в изолированных сетях), усиленных процедур аудита и надзора и, возможно, новых юридических конструкций, проясняющих ответственность и допустимое использование в секретных контекстах.

Для широкой общественности и политиков этот спор поднимает знакомые вопросы об экспортном контроле, надзоре за технологиями двойного назначения и о том, требуются ли новые модели управления для ИИ, используемого в целях национальной безопасности. Каким бы ни был немедленный результат, эти переговоры создадут прецеденты того, как правительства и частные разработчики ИИ делятся чувствительными возможностями, пытаясь при этом сохранить барьеры безопасности.

Источники

  • Министерство обороны США (Пентагон), публичные заявления и материалы по закупкам
  • Пресс-материалы и заявления компании Anthropic
  • Публичные раскрытия информации Palantir Technologies о партнерских развертываниях
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Что такое Anthropic и почему Пентагон угрожает прекратить с ними сотрудничество из-за мер безопасности ИИ?
A Anthropic — это компания по разработке искусственного интеллекта из Сан-Франциско, известная своей моделью Claude, которая использовалась в военных операциях, таких как рейд в Венесуэле. Пентагон под руководством министра обороны Пита Хегсета угрожает разорвать связи и признать Anthropic «риском для цепочки поставок» из-за отказа компании разрешить неограниченное использование Claude в военных целях для любых законных задач. Anthropic настаивает на защитных мерах против массовой слежки за американцами и создания автономного оружия. Этот спор обострился, несмотря на месяцы переговоров, поскольку Пентагон считает ограничения Anthropic чрезмерными.
Q Какие меры безопасности ИИ, по заявлению Пентагона, Anthropic не удалось обеспечить?
A Пентагон заявил, что Anthropic не выполнила требования по предоставлению неограниченного доступа к ИИ Claude для всех законных военных целей, особенно в секретных системах. Anthropic добивается включения в контракт условий, запрещающих массовую слежку за американцами и разработку оружия, функционирующего без участия человека, что Пентагон считает непрактичным из-за наличия «серых зон». Пентагон также требует аналогичного неограниченного доступа от OpenAI, Google и xAI.
Q Предпринимал ли Пентагон подобные действия против других ИИ-компаний?
A Пентагон пока не предпринимал аналогичных действий, таких как признание других ИИ-компаний рисками для цепочки поставок, но ведет затяжные и сложные переговоры с OpenAI, Google и xAI по тем же вопросам неограниченного доступа. Эти компании согласились смягчить ограничения для военного использования в секретных системах, хотя это еще не реализовано полностью для конфиденциальных операций. На данный момент сообщений о фактическом прекращении сотрудничества или присвоении подобных статусов этим фирмам нет.
Q Как прекращение сотрудничества с Anthropic может повлиять на безопасность ИИ и инициативы в области национальной безопасности?
A Отказ от услуг Anthropic может нанести ущерб национальной безопасности, ограничив доступ к Claude, который лидирует в специализированных военных приложениях, в то время как модели-конкуренты лишь «немного отстают», что потенциально может задержать критически важные операции. Это также может вынудить ИИ-компании ослабить протоколы безопасности, создавая риски массовых нарушений конфиденциальности через слежку или разработку автономного оружия. С другой стороны, это создает прецедент приоритета военных нужд над корпоративными ограничениями ИИ, что может ускорить оборонные инициативы, но ценой этических гарантий.
Q Что сообщило издание CNBC о споре между Пентагоном и Anthropic?
A Издание CNBC напрямую не упоминается в доступных отчетах о споре; основная информация исходит от Axios и Hindustan Times. Axios подробно описал готовность министра обороны Пита Хегсета разорвать связи с Anthropic из-за ограничений на использование Claude, цитируя официальных лиц Пентагона о возможности признания компании риском для цепочки поставок и разочаровании после месяцев переговоров. Hindustan Times подтвердила эту информацию, сделав акцент на защитных механизмах Anthropic против слежки и автономного оружия.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!