OpenAI 赢得五角大楼订单

人工智能
OpenAI Wins Pentagon Deal
OpenAI 宣布与美国国防部达成协议,将其模型部署在机密网络上。就在几小时前,特朗普政府刚将竞争对手 Anthropic 列入黑名单。该协议立即引发了关于安全红线、供应商议价能力以及未来军事与技术合作伙伴关系形式的质疑。

2026年2月27日,星期五,OpenAI 首席执行官 Sam Altman 在 X 上宣布,“今晚,我们与战争部达成协议,在他们的机密网络中部署我们的模型。”此前几小时,Donald Trump 总统指示美国机构停止使用 Anthropic 的技术,且五角大楼已将 Anthropic 列为供应链风险。短语“openai strikes deal pentagon”迅速在行业和政治资讯流中传播;这些简短扼要的公开声明留下了许多技术和法律细节尚待明确,但即时的轮廓已清晰:OpenAI 表示国防部接受了其安全红线,并将在机密系统上运行其模型,而 Anthropic 已正式被挤出部分政府渠道。这一系列动作——一家公司被列入黑名单,另一家公司获得租约——结晶成了前沿 AI 实验室与国家安全机构之间一种全新的、充满紧张感的关系。

OpenAI 与五角大楼达成协议 —— 协议涵盖的内容

根据 OpenAI 的推文及后续公司消息,该协议允许国防部在机密网络内部署 OpenAI 模型,同时保留了公司禁止国内大规模监视和完全自主使用致命武力的红线。Sam Altman 表示,国防部“表现出了对安全的深度尊重”,并同意了反映这些禁令的措辞;OpenAI 还承诺建立技术保障措施并派驻人员协助操作和监控模型。公开报道称,该安排明确限于该部门的机密环境,而非针对每个商业合作伙伴的通配许可,但国防部的确切技术条件、审计权限和监督机制尚未完全披露。

从技术角度来看,核心项目虽然熟悉,但难以操作:不用于国内大规模监视、对武力使用的责任由人类承担,以及执行行为约束的工具。这些标准可以作为合同义务、软件护栏和现场咨询团队来实施,但它们取决于公众无法检查的验证机制。五角大楼历史上一直要求对供应商的工具和供应链进行深度、有时甚至是侵入性的检查;五角大楼对控制权的渴望是否能与 OpenAI 的承诺相匹配仍有待观察,技术保障措施是否能扩展到作战环境也是一个悬而未决的问题。

OpenAI 与五角大楼达成协议以及 Anthropic 的余波

OpenAI 的声明是在 Anthropic 与国防部之间引人注目的僵局阴影下发布的,该僵局以白宫和五角大楼的严厉回应告终。国防部长 Pete Hegseth 向 Anthropic 发出最后通牒,要求允许军方“出于所有合法目的”使用其模型,在谈判失败后,该部门将 Anthropic 指定为“国家安全供应链风险”。随后,Trump 总统指示联邦机构停止使用 Anthropic 的技术。Anthropic 表示将对这一指定提出法律挑战,并坚持其禁止将其模型用于完全自主武器和国内大规模监视的政策。

技术保障与操作限制

五角大楼和 AI 公司都在谈论红线和保障措施,但将这些原则转化为持久、可测试的约束条件却很困难。禁止国内大规模监视或自主使用武力在法律上具有重要意义,但它取决于日常的工程控制、访问政策、遥测、日志记录以及在审计下证明合规性的能力。OpenAI 表示将部署人员支持安全操作并建立技术护栏;在实践中,这些措施需要独立验证、持续监控以及在模型表现不可预测时有明确的升级路径。

此外,许多常见的防御机制——彻底的模型测试、强大的训练数据溯源以及执行使用政策的软件——在机密网络上变得更加复杂。国防部自己的一月 AI 战略强调快速采用商业能力,同时要求对依赖关系和风险具有可见性。这种张力——快速部署与深度保证——正是为什么项目经理和外部监督机构将密切审查技术保障措施的核心原因。

行业杠杆、采购与政治风险

这一事件暴露了权力平衡的转变:商业 AI 实验室现在掌握着军方想要的能力,政府必须决定如何在不放弃战略控制权的情况下进行合作。专家表示,短期杠杆掌握在拥有领先模型和稀缺人才的公司手中,但主权政府保留着采购工具、监管手段和法律权威。国防部可以通过合同规则、拒绝机密访问或其他工具强迫合规;公司可以拒绝合作以保护声誉或公司价值。双方都可以向对方施加成本,这创造了一种脆弱的政企契约。

在政治上,批评人士警告称,将 Anthropic 列入黑名单与同时拥抱 OpenAI 可能会被用来将合同引向首选供应商,或惩罚坚持安全约束的公司。著名的政治家和安全官员已经介入,一些民主党人指责政府将国家安全决策政治化,而一些国防领导人则认为军方不能允许供应商单方面限制合法用途。更广泛的市场背景——重大的融资轮次、云合作伙伴关系和商业整合——意味着采购选择会波及由供应商、芯片制造商和云服务商组成的生态系统。

这对国家安全和 AI 行业意味着什么

对于五角大楼而言,集成顶级商业模型有望加快能力提升,但也引入了依赖关系和潜在的单一供应商风险。分析人士警告称,如果访问中断,过度依赖单一供应商可能会导致脆弱性,而供应商锁定可能会成为长期的战略负担。国防部也在平衡近期战备状态与维护民主规范和法律约束;它如何应对这一难题,将塑造未来与科技公司的合作,以及公司在选择优先考虑安全性而非市场准入时面临的激励措施。

对于 AI 行业来说,这一事件是对安全承诺在国家安全资金巨大且政治压力剧烈时是否可持续的实际检验。Anthropic 的法律挑战和 OpenAI 的公开保证将在法院、机构和合同办公室中上演。与此同时,私人投资和云合作伙伴关系——包括 OpenAI 与主要云服务商之间最近的大笔承诺——将影响政府接受哪些架构和部署模式。因此,这场斗争既是法律上的,也是技术上的,它将就公司在其技术被视为战略基础设施时能保留多少控制权树立先例。

来源

  • 美国国防部(《人工智能战略》备忘录,2026年1月9日)
  • 乔治城大学,安全与新兴技术中心(分析师评论)
  • 阿斯彭政策学院(政策分析与评论)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q OpenAI 与五角大楼的协议是什么,涉及哪些内容?
A OpenAI 与五角大楼的协议是 2026 年 2 月 28 日宣布的一项协议,允许美国国防部在其机密网络上部署 OpenAI 的 AI 模型。该协议包括伦理保障措施,例如禁止用于国内大规模监控,并要求在武力使用(包括自主武器)中承担人类责任,且模型中内置了执行这些要求的技术解决方案。OpenAI 首席执行官萨姆·奥特曼(Sam Altman)表示,五角大楼尊重这些安全原则,这些原则已体现在美国法律和政策中。
Q 根据 CNBC 的报道,Anthropic 为什么被特朗普列入黑名单?
A 据报道,Anthropic 在拒绝取消其对 AI 用于国内大规模监控和全自主武器的限制后,被特朗普政府列入黑名单,这导致了该公司与五角大楼的僵局。特朗普总统下令联邦机构逐步淘汰 Anthropic 的技术,国防部长皮特·海格塞斯(Pete Hegseth)将其指定为“国家安全供应链风险”,禁止承包商与其开展业务。这一前所未有的行动发生在 OpenAI 宣布协议的几小时前。
Q OpenAI 与五角大楼的合同会对 AI 行业和国家安全考量产生什么影响?
A OpenAI 与五角大楼的合同可以通过确保政府准入和资金支持来提升其在 AI 行业的地位,同时通过黑名单和排除在联邦系统之外,严重损害 Anthropic 的增长。在国家安全方面,它允许在有机密保障的网络中部署 AI,在美以针对伊朗的行动等地缘政治紧张局势下,可能加速军事 AI 能力的发展。专家指出,这引发了关于政商关系的疑问,并为“爱国”AI 供应商树立了先例。
Q CNBC 的报道对于 OpenAI 与五角大楼的协议以及 Anthropic 的现状是怎么说的?
A 通过《财富》杂志转发的 CNBC 相关报道称,OpenAI 与五角大楼达成协议,在机密系统中使用其 AI 模型。与 Anthropic 不同,OpenAI 通过与美国法律保持一致并建立技术保障,将针对大规模监控和自主武器的安全限制纳入其中。就在几小时前,美国政府将 Anthropic 指定为“供应链风险”,在 Anthropic 坚持要求五角大楼拒绝的明确合同限制后,其业务受到了威胁。OpenAI 的做法是在嵌入保护措施的同时允许“任何合法目的”。
Q 五角大楼与 OpenAI 的合同涵盖了哪些条款或范围?
A 五角大楼与 OpenAI 的合同涵盖了在其机密网络上为任何合法目的部署其 AI 模型,并内置了防止用于国内大规模监控或致命自主武器的技术保障。该合同确立了禁止大规模监控和武力使用中人类责任的规定,与美国法律和政策保持一致,并包括 OpenAI 工程师以确保安全。OpenAI 寻求将这些条款推广到所有 AI 公司。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!