五角大楼与 Anthropic:合作断绝的威胁

人工智能
Pentagon vs Anthropic: Cut-off Threat
由于 Anthropic 限制其 AI 的军事用途,五角大楼威胁要切断与其的合作,并施压相关公司允许其工具在机密网络上运行。这一僵局凸显了国防需求、企业安全护栏与国家安全风险之间的紧张关系。

五角大楼在与 Anthropic 的谈判陷入僵局之际威胁中止合作

根据 2026 年 2 月 16 日浮出水面的报道,五角大楼本周威胁要中止与 Anthropic 的合作,因为美国国防部正向该公司施压,要求放宽对其大语言模型在军事用途上的限制。据 CNBC 以及此前的路透社和 Axios 报道,这场争议的核心在于商业人工智能公司是否允许其系统用于五角大楼所描述的“所有合法用途”,包括武器开发、情报收集和战场行动。Anthropic 表示,它在特定的安全限制上坚守立场,例如对完全自主武器和大规模国内监视的严格限制,而这种分歧已升级为可能切断关系的威胁。

五角大楼威胁中止合作:法律与合同层面的摩擦点

冲突的核心在于法律和合同语言。五角大楼希望能在机密网络上访问模型,并使用更广泛的措辞以便在各种军事任务中使用;而公司通常在提供访问权限时,会受限于模型层面的防护机制和基于政策的限制。对于五角大楼来说,“所有合法用途”是一个单一的合同条款,可以减少关于允许的军事用途的模糊性。对于 Anthropic、OpenAI、Google 和 xAI 等公司而言,接受这一措辞可能会侵蚀内部的安全护栏——这包括内置于模型中的技术控制和旨在限制滥用的公司政策承诺。

谈判还涉及技术细节:模型如何在机密网络上部署、内容过滤和使用日志是否保持开启,以及如果人工智能驱动的系统产生有害输出,谁来承担责任。在经过数月的谈判后,五角大楼表现出了挫败感;推动移除或放宽限制反映了其在竞争环境中使用最强大系统的作战需求,而公司则担心责任归属、声誉风险以及军事应用的广泛伦理问题。

Anthropic 及其他供应商的反应

Anthropic 已公开表示,与美国政府的早期对话集中在使用政策问题和明确的界限上——尤其是禁止完全自主武器和限制大规模国内监视——而不是为特定的行动开绿灯。该公司发言人告诉记者,它尚未与五角大楼讨论过将其 Claude 模型用于特定的战术行动。这一声明与相关报道并存,即 Claude 曾通过合作伙伴参与了至少一次备受瞩目的行动:据《华尔街日报》报道,Claude 通过 Palantir 被部署在一次抓捕委内瑞拉前总统的行动中,这表明合作伙伴的集成使公司克制的简单定性变得复杂化。

报道中提到的其他主要人工智能公司——OpenAI、Google 和 xAI——也面临着五角大楼要求扩大访问权限的压力。路透社和 CNBC 描述了国防部提出的广泛要求,即在机密网络上提供模型,且不包含公司通常应用于民用用户的许多标准限制。各公司对这些要求的处理方式各不相同,在合同机会和安全审查与内部政策和外部监督之间寻找平衡。

五角大楼为何推进及其目标

但是,推动这种笼统、开放式的合同语言——“所有合法用途”——引发了这样一个问题:当模型被用于动能行动或秘密行动背景时,还剩下哪些防护机制。合法使用是一个广泛的法律标准,仍需要实施控制措施以避免无意中的冲突升级、平民伤害或违反国内法和国际法。这些作战需求正是当前紧张局势的源头。

关键的技术防护机制与五角大楼的忧虑

公司从两个轴线在模型中构建防护机制:模型层面的控制(微调、安全层、红队测试和内容过滤)和政策层面的控制(服务条款和合同使用限制)。五角大楼减少或绕过限制的举动将改变这些控制措施在实践中的运作方式。例如,出于安全原因,将模型放置在机密网络中可能会移除某些遥测和日志记录,但这也可能削弱公司监控滥用和修复问题行为的能力。

据报道,五角大楼对于 Anthropic 拒绝放宽其认为的高风险场景(如完全自主武器控制和大规模国内监视)限制的建议感到沮丧。在这些领域,包括 Anthropic 在内的许多人工智能公司都坚持严格禁止在没有人类监管的情况下可能导致致命后果的自主决策。

中止访问对安全与保障的连锁反应

如果五角大楼言出必行,切断与 Anthropic 的联系,直接后果将是美国国防界可用的供应商范围缩小。这可能会加速国防部内部构建或签约定制模型的努力,增加对接受更广泛使用条款的公司的依赖,或鼓励与外国供应商建立伙伴关系——每种结果都带有各自的安全和监督权衡。中止合作还可能迫使机构接受供应商侧安全控制较少的解决方案,从而增加滥用或意外后果的风险。

相反,维持强大安全限制的公司认为,这些护栏降低了下游风险,防止了任务蔓延,并维护了公众信任。这场僵局显示了一个更深层次的战略选择:国家安全参与者是容忍限制某些军事应用的公司护栏,还是坚持获得无限制的访问权并接受政府系统内新的监督负担。

历史先例与更广泛的政策背景

国防部此前曾资助过人工智能研究并与工业界建立伙伴关系,但当前时刻由于商用大语言模型的规模和成熟度而显得尤为特殊。早期的合作包括有条件的拨款和需要特定防护措施的试点项目;目前的纠纷则是关于广泛的行动条款,而非试点资金。五角大楼因政策分歧而威胁中止供应商合作,是公众视野中的一次升级,预示着所有先进人工智能工具的主要供应商未来将面临艰苦的谈判。

此外还有政治压力在起作用。公众人物和竞争对手也参与其中——最著名的是埃隆·马斯克,他最近在公开评论中攻击了 Anthropic 的模型——这突显了关于偏见、安全以及人工智能在军事背景下适当角色的辩论现在已成为喧嚣的公共对话的一部分,而不仅仅是封闭的采购纠纷。

谈判与后续行动

双方都有动机避免彻底决裂。五角大楼需要尖端能力;公司希望保留政府业务,并避免被排除在重大合同之外。预计双方将就合同语言、技术隔离措施(例如物理隔离或抵消部署)、加强审计和监督程序,以及可能界定机密背景下责任和可接受用途的新法律框架进行密集的幕后谈判。

对于广大公众和政策制定者来说,这场争端提出了关于出口管制、双用途技术监管以及国家安全中使用的人工智能是否需要新治理模型的常见问题。无论近期结果如何,这次谈判都将为政府和私人人工智能开发者如何在尝试保持安全护栏完好的同时共享敏感能力设定先例。

来源

  • 美国国防部(五角大楼)公开声明及采购材料
  • Anthropic 新闻材料及公司声明
  • Palantir Technologies 关于合作伙伴部署的公开披露
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 什么是 Anthropic?为什么五角大楼威胁要因人工智能安全准则问题与其断绝关系?
A Anthropic 是一家总部位于旧金山的人工智能公司,以其 Claude AI 模型而闻名,该模型已被用于委内瑞拉突袭等军事行动。在国防部长皮特·海格塞斯(Pete Hegseth)的领导下,五角大楼正威胁要断绝与该公司的关系,并将其列为“供应链风险”。原因是该公司拒绝允许在所有合法军事用途中不受限制地使用 Claude,而是坚持要求建立防止对美国人进行大规模监视以及开发自主武器的保障措施。尽管经过数月的谈判,这场争端仍在升级,五角大楼认为 Anthropic 的限制过于严苛。
Q 五角大楼称 Anthropic 未能满足哪些人工智能安全要求?
A 五角大楼表示,Anthropic 未能满足在所有合法军事用途(特别是机密系统中)不受限制地访问 Claude AI 的要求。Anthropic 寻求在合同条款中禁止对美国人进行大规模监视以及开发无需人类参与即可运行的武器,而五角大楼认为这些条款由于存在灰色地带而不切实际。五角大楼还在向 OpenAI、Google 和 xAI 施压,要求获得类似的无限制访问权限。
Q 五角大楼是否对其他人工智能公司采取了类似的行动?
A 五角大楼尚未采取将其他人工智能公司列为供应链风险等类似行动,但正在与 OpenAI、Google 和 xAI 就同样的无限制访问问题进行持续的艰难谈判。这些公司已同意放宽在机密系统中进行军事使用的限制,尽管尚未在敏感行动中完全实施。目前尚无报告显示这些公司已被实际切断联系或被定性。
Q 切断与 Anthropic 的联系会如何影响人工智能安全和国家安全倡议?
A 切断与 Anthropic 的联系可能会因中断对 Claude 的访问而损害国家安全,因为 Claude 在专门的军事应用中处于领先地位,而竞争对手的模型“紧随其后”,这可能会推迟关键行动。这可能会迫使人工智能公司削弱安全保障措施,从而带来因大规模监视或自主武器开发而加剧隐私侵犯的风险。相反,它也开创了一个将军事需求置于企业人工智能限制之上的先例,可能会推进国防人工智能倡议,但代价是牺牲伦理保障。
Q CNBC 对五角大楼与 Anthropic 之间的争端有何报道?
A 在有关该争端的现有报道中未直接引用 CNBC 的内容;报道主要来自 Axios 和 Hindustan Times。Axios 详细描述了国防部长皮特·海格塞斯 (Pete Hegseth) 因 Claude 的使用限制而几乎决定断绝与 Anthropic 关系的经过,并援引了五角大楼官员关于将其列为供应链风险的说法,以及在数月谈判后的挫败感。Hindustan Times 也对此进行了报道,重点介绍了 Anthropic 针对监视和自主武器的保障措施。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!