五角大楼就限制 AI 大规模监控用途一事向 Anthropic 发出威胁

人工智能
Pentagon Threatens Anthropic Over Limiting AI Use for Mass Surveillance
五角大楼已向 Anthropic 发出警告,称除非该公司取消对其人工智能军事用途的安全限制,否则将其列入黑名单或动用《国防生产法》。这场摊牌暴露了国家安全需求、企业安全承诺与公民自由之间的紧张关系。

五角大楼的最后通牒与压力之下的企业安全承诺

本周,美国国防部向 Anthropic 发出了强硬信号:要么满足军方的访问需求,要么面临后果——这一案例清晰地表明了为何“五角大楼威胁报复 Anthropic”这一说法已进入政策议程。据多个消息来源描述,国防部长 Pete Hegseth 在一次会议上为该公司设定了移除其人工智能系统使用限制的期限,并警告称,五角大楼可能会宣布 Anthropic 为“供应链风险”并将其排除在美国政府合同之外,甚至可能动用《国防生产法》强制其合作。该公司首席执行官 Dario Amodei 曾公开警告过自主武器和国内监视的风险,但在会议结束后不久,该公司便宣布放弃一项旗舰安全承诺,这一时机引发了公民自由倡导者和人工智能安全研究人员的警觉。

这场对抗将一家年轻的人工智能公司置于商业竞争、国家安全紧迫性与宪法担忧的交汇点。Anthropic 此前曾对其模型被允许用于完全自主武器化以及可能处理私人谈话或家庭传感器数据以分析公民特征的大规模监视表示谨慎。五角大楼要求广泛、不受限制的访问权限,这逆转了企业试图限制其模型下游危害的新兴模式,并引发了关于当采购优先级与政府权力发生碰撞时,安全承诺如何存续的难题。

五角大楼威胁报复 Anthropic:筹码工具

五角大楼的筹码既包括程序性的,也包括法律性的。宣布一家公司为供应链风险可以冻结其获得丰厚国防合同和合作伙伴生态系统的途径——这种实际惩罚可以迅速缩减公司的市场份额。《国防生产法》则是更剧烈的杠杆:它赋予行政部门特殊权力,以国防名义优先考虑和分配工业产出。利益相关者表示,该法案可能被用来强迫公司生产或修改军方认为必要的核技术。法律专家警告称,使用该法案强制获取人工智能模型尚处于未知的法律领域,法院可能会被要求裁定该法规是否适用于商业人工智能平台及其安全政策。

除法律机制外,五角大楼还通过采购规范和非正式压力施加影响。政府机构可以优选那些接受广泛使用条款的供应商,引导公共和私人合作伙伴转向与国防优先级一致的厂商。这种市场压力与正式的黑名单同样重要,因为现代国防生态系统建立在长期合同、数据共享伙伴关系和认证供应商名单之上。对于寻求政府客户的人工智能公司来说,不一致的后果是即时且具有战略性的。

五角大楼威胁报复 Anthropic:Anthropic 的政策内容

直到本周,Anthropic 还在推进一套安全护栏,旨在限制其旗舰模型在某些军事和监视领域的用途。首席执行官 Dario Amodei 曾公开辩称,完全自主武器取消了必要的人类判断保障,而将人工智能不受限制地整合到监视系统中,可能导致私人谈话和家庭数据被用于政治特征分析,从而破坏第四修正案的保护。该公司的安全承诺曾被民权组织和人工智能伦理学家解读为一种前瞻性的尝试,旨在约束那些他们认为最可能伤害平民和民主规范的应用。

在五角大楼会议之后,Anthropic 宣布放弃该核心安全政策。该公司在公开声明中表示仍致力于负责任的部署,但并未解释政策变动是迫于压力,还是作为保留政府业务的谈判路径的一部分。这种模糊性现已成为焦点:批评者认为这是在国家胁迫下的企业退缩;支持者认为这可能是国防工作必要的妥协;而法律分析人士指出,被迫撤回政策将为私营公司设定伦理边界的能力创下一个令人不安的先例。

游说、承包商与不断变化的人工智能采购版图

Anthropic 事件发生背景是围绕人工智能的游说活动迅速升级。对联邦披露数据的分析显示,人工智能已从一个小众政策话题转变为国防和企业宣传的核心组成部分。老牌国防承包商已开始用人工智能语言来包装熟悉的平台和收购计划,而新一批专业初创公司则在为自主系统、战场测绘和监视应用进行游说。其结果是形成了一个政策环境,军事策划者、民选官员和行业参与者已经在努力将人工智能能力捆绑进预算和采购渠道中。

对于想要处于国防市场中心的公司来说,战略性游说以及接受广泛使用条款的意愿可能是决定性的。这种动态增加了人工智能公司的压力,使其必须在维持面向公众的安全承诺与获取丰厚的长期政府合同之间做出选择。如果五角大楼的威胁成功地将开放军事用途作为市场准入的条件,那么注重安全的公司可能不得不重新调整其公开立场,否则将面临商业边缘化的风险。

监视风险:人工智能如何规模化观察与特征分析

要理解为何公民自由主义者感到惊恐,需要了解人工智能与遍布各处的传感器结合后能实现什么。现代模型可以摄取并关联视频流、音频录音、位置轨迹和社交媒体信号,以识别面部、辨别语音、推断行为并检测模式。结合无处不在的摄像头、无人机和消费级设备,这些系统可用于大规模监视:自动跟踪目标人物、映射关联的网络推理、情感或政治观点标签,以及基于算法分析标记个人的预测性警务。

政府施压私营科技公司时的法律与伦理紧张局势

当政府机构向公司施压以扩大军事或监视访问权限时,会同时出现若干法律和伦理问题。首先是宪法问题——特别是监视对第四修正案的影响,以及算法特征分析可能抑制政治言论的第一修正案担忧。其次是契约和商业问题,即采购条件是否可以凌驾于自愿的企业安全标准之上。此外,还有国际法和军备控制问题,即某些人工智能赋能的武器系统是否符合人道主义规范和交战规则。

专家还警告称存在治理风险:如果政府成功迫使一家主要供应商取消安全护栏,其他公司可能会为了保持竞争力而效仿,从而加速安全保障方面的“底线竞争”。相反,强迫一家具有安全意识的公司服从可能会引发诉讼、监管抵制,以及一场关于限制技术领域行政权力的公众辩论。

对人工智能行业及公众监督的影响

这场对峙的直接后果很可能是对企业安全倡议产生寒蝉效应。如果合同授予权倾向于那些对军事和监视用途持开放态度的公司,缺乏法律团队和游说实力的较小公司可能会发现,在经济上维持有原则的限制是行不通的。这将不仅重塑产品政策,还将重塑研发选择、招聘以及公司追求的合作伙伴类型。

对于政策制定者和公民社会而言,这一事件强调了为何双用途人工智能技术的治理至关重要:采购决策制定过程的透明度、监视和自主武器的明确法律界限,以及国会或司法部门对《国防生产法》等紧急权力的有力监督,都是防止安全标准被强迫侵蚀的关键因素。因此,关于 Anthropic 的辩论不仅仅关乎一家公司;它是一个测试案例,检验民主机构在人工智能时代将如何裁决安全、技术与公民自由之间的权衡。

来源

  • OpenSecrets(关于人工智能联邦游说披露的分析)
  • 美国国防部(声明及采购权限,包括《国防生产法》)
  • Anthropic(公司声明及公共政策文件)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 如果 Anthropic 禁止将 AI 用于大规模监控,五角大楼为什么要威胁报复?
A 五角大楼威胁要进行报复,是因为 Anthropic 禁止将 AI 用于大规模监控和自主武器的合同限制,与军方在行动中要求“任何合法使用”的要求相冲突,军方认为这在操作上是必要的。官员们辩称,此类安全护栏对于军事任务是不切实际的,并威胁如果 Anthropic 在截止日期前不同意,将援引《国防生产法》强制其遵守。这源于一项价值 2 亿美元的试点项目,Anthropic 在该项目中一直抵制扩大其在机密系统上的访问权限。
Q Anthropic 关于将 AI 用于大规模监控的政策是什么?
A Anthropic 的政策包括合同护栏,禁止将其 AI 模型用于对美国公民的大规模监控,或整合到缺乏人类监督的致命自主武器中。这些限制旨在确保负责任地使用并管理法律风险,自进入国防市场以来一直保持不变。尽管面临五角大楼的压力,该公司仍寻求针对此类应用的保证。
Q AI 如何被用于大规模监控,存在哪些隐私担忧?
A AI 可以通过分析海量的航空图像、社交媒体数据或公共记录,在没有搜查令的情况下追踪个人或群体,从而加强军事机密收集。隐私担忧包括通过无证监控美国公民侵犯公民自由、数据处理缺乏监督,以及在准军事或灰色地带行动中可能存在的滥用。这些问题与现有的防止不合理搜查的法律框架挂钩。
Q 当政府机构就监控技术向 AI 公司施压时,会产生哪些法律或道德问题?
A 法律问题包括五角大楼可能滥用《国防生产法》来推翻合同,这引发了关于政府强制私营科技公司用于特定用途与企业权利之间的质疑。在道德上,它使军事行动需求与 AI 安全护栏相对立,批评者认为国会应该制定规则,而不是由官员和首席执行官进行双边谈判。这造成了民主监督与对变革性军事 AI 的持久约束之间的紧张关系。
Q 五角大楼的压力可能对 AI 发展和行业标准产生什么影响?
A 五角大楼的压力可能会迫使 AI 公司放弃安全护栏,使国防合同中的“任何合法使用”标准化,并加速军事 AI 的整合且不设道德限制。这可能会孤立像 Anthropic 这样不合规的公司,而 OpenAI 和 xAI 等其他公司则选择遵守,从而影响行业规范转向实用主义而非原则。从长远来看,这为政府杠杆控制 AI 发展设定了先例,可能影响国际合同和创新优先级。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!