五角大楼在与 Anthropic 的谈判陷入僵局之际威胁中止合作
根据 2026 年 2 月 16 日浮出水面的报道,五角大楼本周威胁要中止与 Anthropic 的合作,因为美国国防部正向该公司施压,要求放宽对其大语言模型在军事用途上的限制。据 CNBC 以及此前的路透社和 Axios 报道,这场争议的核心在于商业人工智能公司是否允许其系统用于五角大楼所描述的“所有合法用途”,包括武器开发、情报收集和战场行动。Anthropic 表示,它在特定的安全限制上坚守立场,例如对完全自主武器和大规模国内监视的严格限制,而这种分歧已升级为可能切断关系的威胁。
五角大楼威胁中止合作:法律与合同层面的摩擦点
冲突的核心在于法律和合同语言。五角大楼希望能在机密网络上访问模型,并使用更广泛的措辞以便在各种军事任务中使用;而公司通常在提供访问权限时,会受限于模型层面的防护机制和基于政策的限制。对于五角大楼来说,“所有合法用途”是一个单一的合同条款,可以减少关于允许的军事用途的模糊性。对于 Anthropic、OpenAI、Google 和 xAI 等公司而言,接受这一措辞可能会侵蚀内部的安全护栏——这包括内置于模型中的技术控制和旨在限制滥用的公司政策承诺。
谈判还涉及技术细节:模型如何在机密网络上部署、内容过滤和使用日志是否保持开启,以及如果人工智能驱动的系统产生有害输出,谁来承担责任。在经过数月的谈判后,五角大楼表现出了挫败感;推动移除或放宽限制反映了其在竞争环境中使用最强大系统的作战需求,而公司则担心责任归属、声誉风险以及军事应用的广泛伦理问题。
Anthropic 及其他供应商的反应
Anthropic 已公开表示,与美国政府的早期对话集中在使用政策问题和明确的界限上——尤其是禁止完全自主武器和限制大规模国内监视——而不是为特定的行动开绿灯。该公司发言人告诉记者,它尚未与五角大楼讨论过将其 Claude 模型用于特定的战术行动。这一声明与相关报道并存,即 Claude 曾通过合作伙伴参与了至少一次备受瞩目的行动:据《华尔街日报》报道,Claude 通过 Palantir 被部署在一次抓捕委内瑞拉前总统的行动中,这表明合作伙伴的集成使公司克制的简单定性变得复杂化。
报道中提到的其他主要人工智能公司——OpenAI、Google 和 xAI——也面临着五角大楼要求扩大访问权限的压力。路透社和 CNBC 描述了国防部提出的广泛要求,即在机密网络上提供模型,且不包含公司通常应用于民用用户的许多标准限制。各公司对这些要求的处理方式各不相同,在合同机会和安全审查与内部政策和外部监督之间寻找平衡。
五角大楼为何推进及其目标
但是,推动这种笼统、开放式的合同语言——“所有合法用途”——引发了这样一个问题:当模型被用于动能行动或秘密行动背景时,还剩下哪些防护机制。合法使用是一个广泛的法律标准,仍需要实施控制措施以避免无意中的冲突升级、平民伤害或违反国内法和国际法。这些作战需求正是当前紧张局势的源头。
关键的技术防护机制与五角大楼的忧虑
公司从两个轴线在模型中构建防护机制:模型层面的控制(微调、安全层、红队测试和内容过滤)和政策层面的控制(服务条款和合同使用限制)。五角大楼减少或绕过限制的举动将改变这些控制措施在实践中的运作方式。例如,出于安全原因,将模型放置在机密网络中可能会移除某些遥测和日志记录,但这也可能削弱公司监控滥用和修复问题行为的能力。
据报道,五角大楼对于 Anthropic 拒绝放宽其认为的高风险场景(如完全自主武器控制和大规模国内监视)限制的建议感到沮丧。在这些领域,包括 Anthropic 在内的许多人工智能公司都坚持严格禁止在没有人类监管的情况下可能导致致命后果的自主决策。
中止访问对安全与保障的连锁反应
如果五角大楼言出必行,切断与 Anthropic 的联系,直接后果将是美国国防界可用的供应商范围缩小。这可能会加速国防部内部构建或签约定制模型的努力,增加对接受更广泛使用条款的公司的依赖,或鼓励与外国供应商建立伙伴关系——每种结果都带有各自的安全和监督权衡。中止合作还可能迫使机构接受供应商侧安全控制较少的解决方案,从而增加滥用或意外后果的风险。
相反,维持强大安全限制的公司认为,这些护栏降低了下游风险,防止了任务蔓延,并维护了公众信任。这场僵局显示了一个更深层次的战略选择:国家安全参与者是容忍限制某些军事应用的公司护栏,还是坚持获得无限制的访问权并接受政府系统内新的监督负担。
历史先例与更广泛的政策背景
国防部此前曾资助过人工智能研究并与工业界建立伙伴关系,但当前时刻由于商用大语言模型的规模和成熟度而显得尤为特殊。早期的合作包括有条件的拨款和需要特定防护措施的试点项目;目前的纠纷则是关于广泛的行动条款,而非试点资金。五角大楼因政策分歧而威胁中止供应商合作,是公众视野中的一次升级,预示着所有先进人工智能工具的主要供应商未来将面临艰苦的谈判。
此外还有政治压力在起作用。公众人物和竞争对手也参与其中——最著名的是埃隆·马斯克,他最近在公开评论中攻击了 Anthropic 的模型——这突显了关于偏见、安全以及人工智能在军事背景下适当角色的辩论现在已成为喧嚣的公共对话的一部分,而不仅仅是封闭的采购纠纷。
谈判与后续行动
双方都有动机避免彻底决裂。五角大楼需要尖端能力;公司希望保留政府业务,并避免被排除在重大合同之外。预计双方将就合同语言、技术隔离措施(例如物理隔离或抵消部署)、加强审计和监督程序,以及可能界定机密背景下责任和可接受用途的新法律框架进行密集的幕后谈判。
对于广大公众和政策制定者来说,这场争端提出了关于出口管制、双用途技术监管以及国家安全中使用的人工智能是否需要新治理模型的常见问题。无论近期结果如何,这次谈判都将为政府和私人人工智能开发者如何在尝试保持安全护栏完好的同时共享敏感能力设定先例。
来源
- 美国国防部(五角大楼)公开声明及采购材料
- Anthropic 新闻材料及公司声明
- Palantir Technologies 关于合作伙伴部署的公开披露
Comments
No comments yet. Be the first!