В пятницу, 27 февраля 2026 года, генеральный директор OpenAI Сэм Альтман объявил в X, что «сегодня вечером мы достигли соглашения с Военным министерством о развертывании наших моделей в их засекреченной сети». Это событие произошло спустя всего несколько часов после того, как президент Дональд Трамп распорядился, чтобы правительственные учреждения США прекратили использование технологий Anthropic, а Пентагон признал Anthropic риском для цепочки поставок. Фраза «OpenAI заключает сделку с Пентагоном» быстро разлетелась по отраслевым и политическим лентам новостей. Краткие и сухие публичные заявления оставляют открытыми многие технические и юридические детали, однако основные контуры соглашения ясны: OpenAI заявляет, что Министерство обороны приняло ее «красные линии» в вопросах безопасности и будет запускать модели в засекреченных системах, в то время как Anthropic была официально вытеснена из некоторых государственных каналов. Эта последовательность событий — черный список для одной компании и аренда для другой — кристаллизует новые, напряженные отношения между передовыми лабораториями ИИ и институтами национальной безопасности.
OpenAI заключает сделку с Пентагоном — что охватывает соглашение
Согласно сообщению OpenAI и последующим заявлениям компании, сделка разрешает Министерству обороны развертывать модели OpenAI внутри засекреченных сетей при соблюдении «красных линий» компании, которые запрещают массовую слежку внутри страны и полностью автономное применение смертоносной силы. Сэм Альтман отметил, что Министерство обороны «проявило глубокое уважение к безопасности» и согласилось на формулировки, отражающие эти запреты. OpenAI также обязалась разработать технические меры защиты и направить персонал для помощи в эксплуатации и мониторинге моделей. В открытых отчетах соглашение описывается как имеющее четкие рамки, ограниченные засекреченной средой министерства, а не как общая лицензия для каждого коммерческого партнера, однако точные технические условия, права на аудит и механизмы надзора со стороны Министерства обороны не были раскрыты в полной мере.
С технической точки зрения основные пункты соглашения звучат знакомо, но их сложно реализовать на практике: неиспользование для внутренней массовой слежки, ответственность человека за применение силы и инструменты, обеспечивающие соблюдение поведенческих ограничений. Эти стандарты могут быть закреплены как контрактные обязательства, программные ограничения (guardrails) и работа консультационных групп на местах, но их эффективность зависит от механизмов проверки, которые общественность не может проконтролировать. Исторически Министерство обороны требовало глубокой, а иногда и инвазивной проверки инструментов и цепочек поставок поставщиков; пока неясно, совпадет ли стремление Пентагона к контролю с обещаниями OpenAI и смогут ли технические меры защиты масштабироваться в операционных условиях.
OpenAI заключает сделку с Пентагоном и последствия для Anthropic
Объявление OpenAI прозвучало на фоне громкого противостояния между Anthropic и Министерством обороны, которое закончилось жесткой реакцией Белого дома и Пентагона. Министр обороны Пит Хегсет предъявил Anthropic ультиматум, потребовав разрешить использование ее моделей военными «для всех законных целей», и после провала переговоров ведомство признало Anthropic «риском для цепочки поставок в сфере национальной безопасности». Вслед за этим президент Трамп поручил федеральным агентствам прекратить использование технологий Anthropic. В Anthropic заявили, что будут оспаривать это решение в судебном порядке и что компания настаивала на политике, запрещающей использование ее моделей для создания полностью автономного оружия и ведения массовой слежки внутри страны.
Технические меры защиты и операционные ограничения
И Пентагон, и компании, занимающиеся ИИ, говорят о «красных линиях» и мерах защиты, однако перевод этих принципов в долговечные и проверяемые ограничения — задача сложная. Запрет на массовую слежку внутри страны или автономное применение силы имеет юридическое значение, но на практике он зависит от повседневного инженерного контроля, политики доступа, телеметрии, логирования и возможности продемонстрировать соблюдение требований в ходе аудита. В OpenAI заявили, что выделят персонал для поддержки безопасных операций и создания технических ограничений; на деле эти меры требуют независимой проверки, непрерывного мониторинга и четких путей эскалации в случаях, когда модель ведет себя непредсказуемо.
Более того, многие из общепринятых защитных механизмов — тщательное тестирование моделей, надежное подтверждение происхождения обучающих данных и программное обеспечение, обеспечивающее соблюдение политик использования — значительно усложняются в засекреченных сетях. Собственная стратегия Министерства обороны в области ИИ, принятая в январе, подчеркивает необходимость быстрого внедрения коммерческих возможностей, одновременно требуя прозрачности в отношении зависимостей и рисков. Это противоречие между быстрым развертыванием и углубленной проверкой безопасности является основной причиной, по которой технические меры защиты будут находиться под пристальным вниманием как руководителей программ, так и внешних надзорных органов.
Рычаги влияния отрасли, закупки и политические риски
Этот эпизод обнажает меняющийся баланс сил: коммерческие лаборатории ИИ теперь обладают возможностями, которые необходимы военным, и правительствам приходится решать, как вступать в партнерство, не теряя при этом стратегического контроля. Эксперты полагают, что в краткосрочной перспективе рычаги влияния находятся у фирм, владеющих передовыми моделями и дефицитными талантами, однако суверенные правительства сохраняют инструменты закупок, регуляторные рычаги и юридические полномочия. Министерство обороны может принуждать к соблюдению требований через правила заключения контрактов, отказ в доступе к секретной информации или другие инструменты; компании же могут отказываться от сотрудничества ради защиты своей репутации или корпоративных ценностей. Обе стороны могут создавать издержки друг для друга, что формирует хрупкий государственно-частный союз.
С политической точки зрения критики предупреждают, что внесение Anthropic в черный список при одновременной поддержке OpenAI может быть использовано для направления контрактов предпочтительным поставщикам или для наказания компаний, настаивающих на ограничениях в области безопасности. Видные политики и чиновники по безопасности уже высказали свое мнение: некоторые представители Демократической партии обвиняют администрацию в политизации решений в сфере национальной безопасности, в то время как ряд руководителей оборонных ведомств утверждают, что военные не могут позволить поставщикам в одностороннем порядке ограничивать законные способы использования технологий. Широкий рыночный контекст — крупные раунды финансирования, облачные партнерства и консолидация коммерческого сектора — означает, что решения о закупках отражаются на всей экосистеме поставщиков, производителей чипов и облачных провайдеров.
Что это значит для национальной безопасности и индустрии ИИ
Для Пентагона интеграция топовых коммерческих моделей обещает более быстрое совершенствование возможностей, но одновременно создает зависимости и потенциальные риски, связанные с единым поставщиком. Аналитики предупреждают, что чрезмерная зависимость от одного провайдера может привести к уязвимости в случае нарушения доступа, а «привязка к поставщику» (vendor lock-in) может стать долгосрочной стратегической проблемой. Министерство обороны также пытается найти баланс между оперативной готовностью в ближайшей перспективе и сохранением демократических норм и правовых ограничений; то, как оно справится с этой задачей, определит будущее сотрудничество с технологическими фирмами и стимулы, с которыми столкнутся компании, выбирая приоритет безопасности над доступом к рынку.
Для индустрии ИИ этот инцидент станет практическим тестом на жизнеспособность обязательств по безопасности в условиях огромных бюджетов на национальную оборону и интенсивного политического давления. Судебный иск Anthropic и публичные заверения OpenAI будут рассматриваться в судах, ведомствах и контрактных отделах. Между тем, частные инвестиции и облачные партнерства — включая недавние масштабные обязательства между OpenAI и крупнейшими облачными провайдерами — будут влиять на то, какие архитектуры и модели развертывания примет правительство. Таким образом, эта борьба носит как юридический, так и технический характер, и она создаст прецеденты относительно того, какой объем контроля компании смогут сохранить, когда их технологии начнут рассматриваться как стратегическая инфраструктура.
Источники
- Министерство обороны США (Меморандум о стратегии в области искусственного интеллекта, 9 января 2026 г.)
- Джорджтаунский университет, Центр безопасности и новых технологий (комментарии аналитиков)
- Институт политики Аспена (анализ политики и комментарии)
Comments
No comments yet. Be the first!