OpenAI заключила контракт с Пентагоном

OpenAI Wins Pentagon Deal
OpenAI объявила о соглашении с Министерством обороны США по развертыванию своих моделей в секретных сетях спустя всего несколько часов после того, как администрация Трампа внесла конкурента Anthropic в черный список. Сделка поднимает острые вопросы о «красных линиях» безопасности, влиянии поставщиков и будущем формате военно-технического партнерства.

В пятницу, 27 февраля 2026 года, генеральный директор OpenAI Сэм Альтман объявил в X, что «сегодня вечером мы достигли соглашения с Военным министерством о развертывании наших моделей в их засекреченной сети». Это событие произошло спустя всего несколько часов после того, как президент Дональд Трамп распорядился, чтобы правительственные учреждения США прекратили использование технологий Anthropic, а Пентагон признал Anthropic риском для цепочки поставок. Фраза «OpenAI заключает сделку с Пентагоном» быстро разлетелась по отраслевым и политическим лентам новостей. Краткие и сухие публичные заявления оставляют открытыми многие технические и юридические детали, однако основные контуры соглашения ясны: OpenAI заявляет, что Министерство обороны приняло ее «красные линии» в вопросах безопасности и будет запускать модели в засекреченных системах, в то время как Anthropic была официально вытеснена из некоторых государственных каналов. Эта последовательность событий — черный список для одной компании и аренда для другой — кристаллизует новые, напряженные отношения между передовыми лабораториями ИИ и институтами национальной безопасности.

OpenAI заключает сделку с Пентагоном — что охватывает соглашение

Согласно сообщению OpenAI и последующим заявлениям компании, сделка разрешает Министерству обороны развертывать модели OpenAI внутри засекреченных сетей при соблюдении «красных линий» компании, которые запрещают массовую слежку внутри страны и полностью автономное применение смертоносной силы. Сэм Альтман отметил, что Министерство обороны «проявило глубокое уважение к безопасности» и согласилось на формулировки, отражающие эти запреты. OpenAI также обязалась разработать технические меры защиты и направить персонал для помощи в эксплуатации и мониторинге моделей. В открытых отчетах соглашение описывается как имеющее четкие рамки, ограниченные засекреченной средой министерства, а не как общая лицензия для каждого коммерческого партнера, однако точные технические условия, права на аудит и механизмы надзора со стороны Министерства обороны не были раскрыты в полной мере.

С технической точки зрения основные пункты соглашения звучат знакомо, но их сложно реализовать на практике: неиспользование для внутренней массовой слежки, ответственность человека за применение силы и инструменты, обеспечивающие соблюдение поведенческих ограничений. Эти стандарты могут быть закреплены как контрактные обязательства, программные ограничения (guardrails) и работа консультационных групп на местах, но их эффективность зависит от механизмов проверки, которые общественность не может проконтролировать. Исторически Министерство обороны требовало глубокой, а иногда и инвазивной проверки инструментов и цепочек поставок поставщиков; пока неясно, совпадет ли стремление Пентагона к контролю с обещаниями OpenAI и смогут ли технические меры защиты масштабироваться в операционных условиях.

OpenAI заключает сделку с Пентагоном и последствия для Anthropic

Объявление OpenAI прозвучало на фоне громкого противостояния между Anthropic и Министерством обороны, которое закончилось жесткой реакцией Белого дома и Пентагона. Министр обороны Пит Хегсет предъявил Anthropic ультиматум, потребовав разрешить использование ее моделей военными «для всех законных целей», и после провала переговоров ведомство признало Anthropic «риском для цепочки поставок в сфере национальной безопасности». Вслед за этим президент Трамп поручил федеральным агентствам прекратить использование технологий Anthropic. В Anthropic заявили, что будут оспаривать это решение в судебном порядке и что компания настаивала на политике, запрещающей использование ее моделей для создания полностью автономного оружия и ведения массовой слежки внутри страны.

Технические меры защиты и операционные ограничения

И Пентагон, и компании, занимающиеся ИИ, говорят о «красных линиях» и мерах защиты, однако перевод этих принципов в долговечные и проверяемые ограничения — задача сложная. Запрет на массовую слежку внутри страны или автономное применение силы имеет юридическое значение, но на практике он зависит от повседневного инженерного контроля, политики доступа, телеметрии, логирования и возможности продемонстрировать соблюдение требований в ходе аудита. В OpenAI заявили, что выделят персонал для поддержки безопасных операций и создания технических ограничений; на деле эти меры требуют независимой проверки, непрерывного мониторинга и четких путей эскалации в случаях, когда модель ведет себя непредсказуемо.

Более того, многие из общепринятых защитных механизмов — тщательное тестирование моделей, надежное подтверждение происхождения обучающих данных и программное обеспечение, обеспечивающее соблюдение политик использования — значительно усложняются в засекреченных сетях. Собственная стратегия Министерства обороны в области ИИ, принятая в январе, подчеркивает необходимость быстрого внедрения коммерческих возможностей, одновременно требуя прозрачности в отношении зависимостей и рисков. Это противоречие между быстрым развертыванием и углубленной проверкой безопасности является основной причиной, по которой технические меры защиты будут находиться под пристальным вниманием как руководителей программ, так и внешних надзорных органов.

Рычаги влияния отрасли, закупки и политические риски

Этот эпизод обнажает меняющийся баланс сил: коммерческие лаборатории ИИ теперь обладают возможностями, которые необходимы военным, и правительствам приходится решать, как вступать в партнерство, не теряя при этом стратегического контроля. Эксперты полагают, что в краткосрочной перспективе рычаги влияния находятся у фирм, владеющих передовыми моделями и дефицитными талантами, однако суверенные правительства сохраняют инструменты закупок, регуляторные рычаги и юридические полномочия. Министерство обороны может принуждать к соблюдению требований через правила заключения контрактов, отказ в доступе к секретной информации или другие инструменты; компании же могут отказываться от сотрудничества ради защиты своей репутации или корпоративных ценностей. Обе стороны могут создавать издержки друг для друга, что формирует хрупкий государственно-частный союз.

С политической точки зрения критики предупреждают, что внесение Anthropic в черный список при одновременной поддержке OpenAI может быть использовано для направления контрактов предпочтительным поставщикам или для наказания компаний, настаивающих на ограничениях в области безопасности. Видные политики и чиновники по безопасности уже высказали свое мнение: некоторые представители Демократической партии обвиняют администрацию в политизации решений в сфере национальной безопасности, в то время как ряд руководителей оборонных ведомств утверждают, что военные не могут позволить поставщикам в одностороннем порядке ограничивать законные способы использования технологий. Широкий рыночный контекст — крупные раунды финансирования, облачные партнерства и консолидация коммерческого сектора — означает, что решения о закупках отражаются на всей экосистеме поставщиков, производителей чипов и облачных провайдеров.

Что это значит для национальной безопасности и индустрии ИИ

Для Пентагона интеграция топовых коммерческих моделей обещает более быстрое совершенствование возможностей, но одновременно создает зависимости и потенциальные риски, связанные с единым поставщиком. Аналитики предупреждают, что чрезмерная зависимость от одного провайдера может привести к уязвимости в случае нарушения доступа, а «привязка к поставщику» (vendor lock-in) может стать долгосрочной стратегической проблемой. Министерство обороны также пытается найти баланс между оперативной готовностью в ближайшей перспективе и сохранением демократических норм и правовых ограничений; то, как оно справится с этой задачей, определит будущее сотрудничество с технологическими фирмами и стимулы, с которыми столкнутся компании, выбирая приоритет безопасности над доступом к рынку.

Для индустрии ИИ этот инцидент станет практическим тестом на жизнеспособность обязательств по безопасности в условиях огромных бюджетов на национальную оборону и интенсивного политического давления. Судебный иск Anthropic и публичные заверения OpenAI будут рассматриваться в судах, ведомствах и контрактных отделах. Между тем, частные инвестиции и облачные партнерства — включая недавние масштабные обязательства между OpenAI и крупнейшими облачными провайдерами — будут влиять на то, какие архитектуры и модели развертывания примет правительство. Таким образом, эта борьба носит как юридический, так и технический характер, и она создаст прецеденты относительно того, какой объем контроля компании смогут сохранить, когда их технологии начнут рассматриваться как стратегическая инфраструктура.

Источники

  • Министерство обороны США (Меморандум о стратегии в области искусственного интеллекта, 9 января 2026 г.)
  • Джорджтаунский университет, Центр безопасности и новых технологий (комментарии аналитиков)
  • Институт политики Аспена (анализ политики и комментарии)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q В чем заключается сделка OpenAI с Пентагоном и что она в себя включает?
A Сделка OpenAI с Пентагоном — это соглашение, объявленное 28 февраля 2026 года, которое позволяет Министерству обороны США развертывать модели ИИ от OpenAI в своих секретных сетях. Она включает этические гарантии, такие как запрет на массовую внутреннюю слежку и требования к ответственности человека за применение силы, включая автономное оружие, причем для обеспечения соблюдения этих правил в модели встроены технические решения. Генеральный директор OpenAI Сэм Альтман заявил, что Пентагон уважает эти принципы безопасности, отраженные в законодательстве и политике США.
Q Почему Anthropic попала в «черный список» Трампа, согласно сообщениям CNBC?
A Согласно сообщениям, Anthropic была внесена в черный список администрацией Трампа после отказа снять ограничения на использование ИИ для массовой внутренней слежки и полностью автономного оружия, что привело к противостоянию с Пентагоном. Президент Трамп приказал федеральным ведомствам постепенно отказаться от технологий Anthropic, а военный министр Пит Хегсет назвал компанию «риском для национальной безопасности в цепочке поставок», запретив подрядчикам вести с ней дела. Это беспрецедентное действие произошло за несколько часов до объявления о сделке с OpenAI.
Q Как контракт OpenAI с Пентагоном может повлиять на индустрию ИИ и вопросы национальной безопасности?
A Контракт OpenAI с Пентагоном может укрепить позиции компании в индустрии ИИ за счет обеспечения доступа к государственным заказам и финансированию, в то время как внесение в черный список и исключение из федеральных систем нанесет серьезный ущерб росту Anthropic. С точки зрения национальной безопасности, это позволяет развертывать ИИ в секретных сетях с мерами предосторожности, что потенциально ускорит развитие военных возможностей ИИ на фоне геополитической напряженности, такой как действия США и Израиля против Ирана. Эксперты отмечают, что это поднимает вопросы об отношениях между правительством и бизнесом и создает прецедент для «патриотических» поставщиков ИИ.
Q Что говорится в отчете CNBC о сделке OpenAI с Пентагоном и статусе Anthropic?
A В отчетах, связанных с CNBC (через Fortune), говорится, что OpenAI достигла соглашения об использовании своих моделей ИИ Пентагоном в секретных системах. В отличие от Anthropic, компания реализовала ограничения безопасности в отношении массовой слежки и автономного оружия иначе — путем согласования с законодательством США и создания технических средств защиты. За несколько часов до этого правительство США назвало Anthropic «риском для цепочки поставок», что поставило под угрозу ее бизнес после того, как компания настояла на явных контрактных ограничениях, которые Пентагон отклонил. Подход OpenAI позволил использовать ИИ для «любых законных целей» при одновременном встраивании защитных механизмов.
Q Какие условия и сферы охватывает контракт Пентагона с OpenAI?
A Контракт Пентагона с OpenAI охватывает развертывание моделей ИИ в секретных сетях для любых законных целей со встроенными техническими средствами защиты, предотвращающими использование в целях массовой внутренней слежки или создании летального автономного оружия. Он закрепляет запреты на массовую слежку и ответственность человека за применение силы в соответствии с законодательством и политикой США, а также предусматривает участие инженеров OpenAI для обеспечения безопасности. OpenAI стремится к тому, чтобы эти условия были распространены на все компании, занимающиеся ИИ.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!