五角大楼给 Anthropic 的最后通牒:三日期限
“五角大楼给 Anthropic 的最后通牒”现在不仅仅是一个网络头条:本周,五角大楼向 Anthropic 施压,要求其在三天内解除其 Claude 模型上的安全护栏,否则将面临被列为供应链风险并被切断与美国国防工作联系的后果。根据参与者和公司声明的报告,这一要求是在周二上午于五角大楼举行的一次紧张会议上提出的,国防部长 Pete Hegseth 和国防部高级律师出席了会议。Anthropic 面临的选择非常严峻:要么同意五角大楼的条件,要么被列入黑名单,并可能根据《国防生产法》(Defense Production Act,简称 DPA)被强制执行。
五角大楼给 Anthropic 的最后通牒 —— 会议期间发生了什么
参加会议的官员告诉记者,会议基调充满了对抗性。一名国防部官员称这次会议“并不温馨融洽”,另一名官员则承认了一个悖论:五角大楼既依赖于前沿模型,又不愿接受私营公司对军事用途设置条件。Anthropic 首席执行官 Dario Amodei 出席了会议,会后公司发布声明称,公司仍致力于支持合法的国家安全任务,同时保持安全、可测试的模型行为。
据新闻报道,这次对抗的直接诱因是有一系列爆料称,Claude 模型在 1 月份的一次军事行动中被使用,而 Anthropic 事前并未得到通知。那一事件及其相关报道加剧了五角大楼内部要求获得无限制访问权限的压力。美国国防部对人工智能加速发展的短期时间表已经非常明确:1 月份发布的“AI 优先”作战战略列出了今年夏天要展示的项目,高级官员表示,他们现在需要最强大的模型来满足这些时间表。
在发出最后通牒的同时,五角大楼宣布了另一项安排,即在“所有合法用途”的范畴下,在机密军事网络上部署 xAI 的 Grok 模型。据报道,这两家公司在合同条款上的差异——一家公司接受了宽泛的使用语言,而另一家则表示抵制——突显了政府传达的信息:国家不会容忍其认为与作战需求不相容的供应商限制。
五角大楼给 Anthropic 的最后通牒 —— 法律工具与列入黑名单的威胁
五角大楼将其选项分为两个法律范畴:将其列为供应链风险黑名单,以及援引《国防生产法》来强制执行特定行为。列入黑名单意味着废除未来的五角大楼合同,并迫使主要承包商断绝关系。在实际操作中,这将使 Anthropic 失去大量的政府收入和合作伙伴关系,并向其他客户发出重新考虑商业关系的信号。这一警告具有惩罚性:其目的是迫使公司在经过过滤的业务模式和失去丰厚的政府合同之间做出选择。
《国防生产法》则处于不同的法律地位。DPA 授予总统广泛的权力,要求公司优先考虑并接受政府合同,并生产国防所需的商品和服务。对于人工智能,这可以用来命令供应商定制或重新配置模型,移除特定的安全功能,或为机密任务提供工程化访问。以这种方式对软件提供商使用 DPA 将是首创且在法律上存在争议的,但据报道,五角大楼官员将其作为一个可靠的工具来强制执行合规性。
Anthropic 的安全保障与公司定位
Anthropic 在公开文件和访谈中将其安全机制描述为技术和政策护栏的结合。这些保障措施包括内容过滤、针对某些类别请求的拒绝模式,以及明确禁止“全自动武器”和“对美国人进行大规模国内监视”等应用的政策声明。该公司还拒绝签署承诺支持“所有合法用途”的宽泛合同语言,认为此类措辞将消除对模型部署方式的有意义限制。
然而,这一立场与该公司过往的商业和政府参与记录并存。Anthropic 已经与基础设施合作伙伴共同推进了机密网络部署,推出了名为 Claude Gov 的政府导向产品,并从国防客户手中赢得了可观的合同。该公司的投资者中还包括主要的云服务和芯片投资商,并拥有与军事情报生态系统交织在一起的商业关系。这些千丝万缕的联系使得“公司完全独立于国防优先级之外”的说法变得复杂。
当被问及为什么五角大楼给 Anthropic 三天时间放弃 AI 安全保障时,观察家指出这是战略压力和即时作战需求的混合结果。国防部希望有一条经过测试、可解释的路径,以快速将大型模型整合到任务规划、物流和武器系统中。五角大楼认为,任何可能阻止快速、无限制使用的供应商限制——特别是在“所有合法用途”的法律标准下——都被视为对备战能力不可接受的风险。
列入黑名单与安全保障倒退在实践中意味着什么
如果 Anthropic 被列入黑名单,该公司将失去直接参与许多国防机会的机会;承包商可能会被命令切断联系,政府采购渠道也将关闭。如果 Anthropic 在压力或强制下移除安全保障,直接的技术后果将是模型接受更广泛的提示和操作指令,包括那些涉及目标打击、监视或其他敏感任务的指令。
下游影响将是技术性的,也是社会性的。移除安全护栏增加了模型被转用于大规模监视的风险,使自动化监控系统能够更快地扩展。它可能会加速集成到人类监管可能有限的武器支持系统中。从安全角度来看,放宽限制会降低对模型偏见、幻觉和对抗性漏洞进行测试和审计的能力,而这些问题本身已经使将模型部署到生命关键型系统中充满风险。
对于公民自由和国际规范来说,赌注很高:被剥夺限制的模型可能被用于大规模国内监视计划、大规模定向虚假信息或证据门槛较低的海外行动。这些正是该公司公开表示寻求避免的权衡,这也解释了为什么这场争端成为了一个导火索。
更广泛的影响:市场、政治与军事 AI 的未来
这次对抗说明了人工智能生态系统中更广泛的紧张关系。政府希望获得可预测、可审计的最高能力模型访问权限,以加速战时应用。另一方面,许多公司担心无限制的军事用途会带来声誉和伦理方面的负面影响。这种分歧因政治因素而加剧:愿意接受宽泛合同语言的公司可以快速访问政府网络,而那些试图维持有条件限制的公司则面临被排除或被胁迫的风险。
它还强调了一个令人心寒的作战现实:当一项技术能力被判定具有战略必要性时,国家可能会诉诸非同寻常的法律和经济压力来获取它。这种动态将迫使私营 AI 供应商在与政府谈判时,权衡商业紧迫性、投资者预期、法律风险和公众监督。对于政策制定者来说,这一事件引发了关于军事背景下 AI 治理的透明度、监督和国际规范的问题。
对于研究人员、工程师和公众来说,结果至关重要,因为它决定了最先进的模型如何被管理和测试。如果行业为了国家安全而接受全面移除安全保障,那么独立安全研究、公众审计和公民自由保护的空间将会缩小。反之,如果公司成功捍卫了某些限制,这场竞争可能会促使政府开发自己的内部能力,或者制定平衡作战需求与安全要求的采购规则。
眼下的时间表依然紧迫:五角大楼的三天期限让 Anthropic 面临巨大的抉择压力。无论决定如何,这一事件都将成为一个测试案例,检验私营 AI 公司是否能对前沿模型的军事用途设置有效限制,或者国家是否会以备战名义强制要求更广泛的访问权限。
来源
- 美国国防部新闻材料
- Anthropic 新闻材料及公共政策文件
- xAI (Grok) 新闻材料
- 《国防生产法》(文本及法律指导)
Comments
No comments yet. Be the first!