Пентагон угрожает прекратить сотрудничество, поскольку переговоры с Anthropic зашли в тупик
На этой неделе Пентагон пригрозил прекратить сотрудничество с Anthropic, согласно сообщениям, появившимся 16 февраля 2026 года. Министерство обороны США требует от компании смягчить ограничения на использование ее больших языковых моделей военными. Спор — о котором сообщает CNBC наряду с предыдущими публикациями Reuters и Axios — сосредоточен на том, позволят ли коммерческие ИИ-компании использовать свои системы для того, что Пентагон называет «любыми законными целями», включая разработку оружия, сбор разведданных и боевые операции. Anthropic заявляет, что твердо придерживается определенных ограничений безопасности, таких как строгий запрет на полностью автономное оружие и массовую внутреннюю слежку, и разногласия переросли в угрозы разрыва отношений.
Пентагон угрожает прекращением сотрудничества: юридические и контрактные точки трения
Суть конфликта заключается в юридических и контрактных формулировках. Пентагон хочет получить доступ к моделям в секретных сетях и более широкие формулировки, которые позволили бы использовать их в различных военных миссиях; компании обычно предоставляют доступ при условии соблюдения мер безопасности на уровне моделей и ограничений, основанных на политике компании. Для Пентагона фраза «любые законные цели» является единым контрактным термином, который уменьшит двусмысленность в отношении разрешенного использования военными. Для таких компаний, как Anthropic, OpenAI, Google и xAI, принятие этой формулировки сопряжено с риском подрыва внутренних барьеров безопасности — как технических средств контроля, встроенных в модели, так и корпоративных обязательств, направленных на ограничение злоупотреблений.
Переговоры также касаются технических деталей: того, как модели развертываются в секретных сетях, сохраняются ли контент-фильтры и логирование использования, и кто несет ответственность, если система на базе ИИ выдает вредоносный результат. Пентагон выразил разочарование после нескольких месяцев переговоров; стремление снять или ослабить ограничения отражает оперативное желание использовать самые мощные доступные системы в условиях конфликтов, в то время как компании беспокоятся об ответственности, репутационных рисках и более широкой этике военного применения.
Как ответили Anthropic и другие поставщики
Anthropic публично заявила, что ранние переговоры с правительством США были сосредоточены на вопросах политики использования и четких границах — прежде всего, на запрете полностью автономного оружия и ограничениях на массовую внутреннюю слежку — а не на одобрении конкретных операций. Представитель компании сообщил журналистам, что она не обсуждала с Пентагоном использование своей модели Claude для конкретных тактических операций. Это заявление соседствует с сообщениями о том, что Claude использовался как минимум в одной громкой операции через партнера: Wall Street Journal сообщил, что Claude был задействован через Palantir в операции по поимке бывшего президента Венесуэлы, что демонстрирует, как интеграция с партнерами усложняет простые характеристики корпоративной сдержанности.
Другие крупные ИИ-компании, упомянутые в отчетах — OpenAI, Google и xAI — также подвергаются давлению со стороны Пентагона с целью расширения доступа. Reuters и CNBC описали широкие запросы Министерства обороны США о предоставлении моделей в секретных сетях без многих стандартных ограничений, которые компании применяют к гражданским пользователям. Фирмы по-разному отреагировали на эти запросы, балансируя возможности получения контрактов и допусков к секретной информации с внутренней политикой и внешним контролем.
Почему Пентагон настаивает и чего он хочет добиться
Однако стремление к общим, открытым контрактным формулировкам — «любые законные цели» — ставит вопросы о том, какие гарантии безопасности сохраняются, когда модели используются в кинетическом или скрытом контексте. Законное использование — это широкий юридический стандарт, который все равно требует внедрения мер контроля во избежание непреднамеренной эскалации, причинения вреда гражданскому населению или нарушений внутреннего и международного права. Эти оперативные требования и являются источником текущей напряженности.
Технические гарантии на кону и опасения Пентагона
Компании встраивают средства защиты в модели по двум направлениям: контроль на уровне модели (тонкая настройка, уровни безопасности, тестирование «красными командами» и контент-фильтры) и контроль на уровне политики (условия обслуживания и контрактные ограничения на использование). Стремление Пентагона сократить или обойти ограничения изменит то, как эти средства контроля работают на практике. Например, размещение модели в секретной сети может привести к удалению части телеметрии и логирования по соображениям безопасности, но это также может подорвать способность компании отслеживать неправомерное использование и исправлять проблемное поведение.
Сообщается, что Пентагон разочарован тем, что Anthropic сопротивляется предложениям ослабить ограничения в сценариях, которые компания считает высокорискованными — таких как управление полностью автономным оружием и массовая внутренняя слежка. Это области, в которых многие ИИ-компании, а не только Anthropic, отстаивают строгие запреты на принятие автономных решений, которые могут привести к летальным исходам без контроля со стороны человека.
Как прекращение доступа может отразиться на безопасности и защите
Если Пентагон доведет дело до конца и разорвет отношения с Anthropic, немедленным эффектом станет сокращение круга поставщиков, доступных оборонному сообществу США. Это, вероятно, ускорит внутренние усилия Министерства обороны по созданию или заказу специализированных моделей, увеличит зависимость от компаний, которые соглашаются на более широкие условия использования, или подтолкнет к партнерству с иностранными поставщиками — каждый из этих результатов несет в себе свои компромиссы в области безопасности и надзора. Прекращение доступа также может заставить ведомства принимать решения с меньшим количеством средств контроля безопасности со стороны вендора, что повышает риск нецелевого использования или непредвиденных последствий.
Напротив, компании, сохраняющие строгие ограничения безопасности, утверждают, что эти барьеры снижают последующие риски, предотвращают расширение миссии сверх поставленных задач и сохраняют доверие общественности. Противостояние демонстрирует более глубокий стратегический выбор: согласятся ли субъекты национальной безопасности на корпоративные барьеры, ограничивающие определенные виды военного применения, или же они будут настаивать на беспрепятственном доступе и возьмут на себя новое бремя надзора внутри государственных систем.
Прошлые прецеденты и более широкий политический контекст
Министерство обороны США ранее финансировало исследования в области ИИ и формировало партнерства с промышленностью, но нынешний момент выделяется из-за масштаба и зрелости коммерчески доступных больших языковых моделей. Предыдущие совместные работы включали условные гранты и пилотные проекты, требовавшие определенных гарантий безопасности; нынешний спор касается широких операционных условий, а не финансирования пилотных проектов. Угроза Пентагона прекратить сотрудничество с поставщиком из-за политических разногласий является эскалацией в глазах общественности и сигнализирует о жестких переговорах в будущем для всех крупных поставщиков передовых инструментов ИИ.
В игру также вступают политические факторы. Свое мнение высказали общественные деятели и конкуренты — в частности, Илон Маск, который недавно публично раскритиковал модели Anthropic — подчеркивая, что дебаты о предвзятости, безопасности и надлежащей роли ИИ в военном контексте стали частью шумной общественной дискуссии, а не просто закрытыми спорами о закупках.
Переговоры и следующие шаги
Обе стороны заинтересованы в том, чтобы избежать полного разрыва. Пентагону нужны передовые возможности; компании хотят сохранить государственный бизнес и избежать отстранения от значимых контрактов. Следует ожидать интенсивных закулисных переговоров по поводу формулировок контрактов, мер технической изоляции (например, развертывание в изолированных сетях), усиленных процедур аудита и надзора и, возможно, новых юридических конструкций, проясняющих ответственность и допустимое использование в секретных контекстах.
Для широкой общественности и политиков этот спор поднимает знакомые вопросы об экспортном контроле, надзоре за технологиями двойного назначения и о том, требуются ли новые модели управления для ИИ, используемого в целях национальной безопасности. Каким бы ни был немедленный результат, эти переговоры создадут прецеденты того, как правительства и частные разработчики ИИ делятся чувствительными возможностями, пытаясь при этом сохранить барьеры безопасности.
Источники
- Министерство обороны США (Пентагон), публичные заявления и материалы по закупкам
- Пресс-материалы и заявления компании Anthropic
- Публичные раскрытия информации Palantir Technologies о партнерских развертываниях
Comments
No comments yet. Be the first!