北京迅速采取行动,使人工智能在政治上可控
监管架构
中国当局汇集了一个广泛的监管联盟:网信监管机构、网络安全警察、国家实验室和主要科技公司都参与了标准的起草。该文件提出了一系列技术和治理要求:对训练数据集进行人工抽样、对模型进行每月意识形态测试、对 AI 生成内容进行显式标注以及强制记录用户交互。官员们将这一努力定性为维护社会稳定——甚至将 AI 与地震和流行病并列,纳入了国家应急规划框架。
官员们还强调了一条狭窄但绝对的红线:任何被判定为“煽动颠覆国家政权、推翻社会主义制度”的内容都是禁止的。法规列出了 31 种不同的风险——从宣扬暴力到非法使用他人肖像——公司在编译训练材料和部署服务时必须针对这些风险进行筛选。
数据饮食与发布前审查
官员们使用的一个核心比喻是“数据饮食”。AI 系统的影响力取决于喂给它们的材料,因此规定迫使公司像对待厨房里受控的食材一样对待他们的训练集。对于每种内容格式(文本、图像、视频),开发者应当随机抽样并由人工审查数千个训练条目。指南中提出的一个阈值要求,只有当一个来源中至少 96% 的材料在 31 项风险标准下被判定为安全时,才能使用该来源。
在服务上市前,它必须通过一场意识形态考试。公司预计要运行 2,000 个旨在触发颠覆性或分裂主义回答的测试提示词,并对系统进行微调,使模型拒绝至少 95% 的此类提示。为这场考试做准备催生了一个由咨询顾问和检测机构组成的小型私人市场,帮助 AI 供应商设计并强化回答,业内人士将这一过程比作产品发布前的 SAT 备考。
执法、可追溯性与监管
执法一直非常活跃。当局报告称,在最近的一次行动中删除了数十万件所谓的非法或有害 AI 生成内容,并关停了数千个违规的 AI 产品。规定要求平台标注 AI 生成的文本、图像和视频,保留用户交互日志,并且——至关重要的一点——将用户与手机号码或国民身份挂钩,以便遏制匿名、病毒式的传播。
这一架构旨在轻松追踪内容的来源和内容生成者的身份。如果用户试图生成禁忌材料,平台应记录对话、暂停账户并报告事件。地方监管机构将在发布后进行抽查,未能通过测试的公司将面临服务被快速关停的风险。
技术局限与规避
在西方测试过中国模型的研究人员报告了一个重要的技术细节:大部分政治审查似乎发生在训练之后,即位于神经网络之上的过滤层和响应层中。当研究人员在本地下载并运行某些中国模型时,他们有时会发现审查力度减弱或消失,这表明模型的“大脑”并未统一清除敏感知识——审查通常是作为运行时控制实现的,而不是从训练数据中完全切除。
这种区别至关重要,因为它产生了两个漏洞。首先,它使系统依赖于操作控制,而这些控制必须跟上那些试图用对抗性提示“越狱”模型的积极用户。其次,这种拆分架构(强大的核心模型配合过滤外壳)引发了一个问题,即底层模型是否可能在没有相同运行时防护措施的环境中被重新利用。
安全权衡与全球竞赛
中国的方法是在政治控制与技术竞争力之间进行的深思熟虑的权衡。监管机构明确担心,过于严格的限制可能会扼杀创新,使中国在全球 AI 竞争中落后于面临不同监管激励的美国公司。与此同时,中国当局一直直言不讳地指出不受监管的 AI 带来的社会风险:高层领导警告称该技术构成了“前所未有的风险”,而国家的人工智能应用计划——被称为“人工智能+”(AI Plus)——旨在到 2027 年将 AI 嵌入大多数关键领域,同时保持严格的护栏。
在基准测试中达到世界一流水平和保持意识形态安全这两重压力,催生出的模型在许多技术类别中得分很高,同时在政治敏感话题上提供经过净化的回答。独立分析人士指出,这使得中国聊天机器人在某些指标上客观上更安全,例如减少了暴力或色情内容。但在英语环境或技术主题上,这些系统可能更容易被绕过,这意味着一个有动机的用户仍可能提取出危险的操作指令或利用模型弱点。
企业如何适应
国内大企业大多选择了合作。行业团体和领先公司参与了 11 月标准的起草,几家知名参与者现在正公开使产品开发符合法规的抽样、测试和可追溯性要求。国家还将强制措施与激励手段并举:国家 AI 路线图和“人工智能+”行动计划创造了动力,去开发在政府重点、国防、医疗和制造领域有用的模型。
这种伙伴关系模式可以加速受监管的国内市场内的部署,但它面临着生产出的模型在拥有广泛内容控制和严格限制访问国外数据集的环境中表现最好的风险。随着模型能力增强,维持受限国内部署与不受限全球系统之间的性能差距将变得更加困难且耗费资源。
更广泛的影响
中国的法规阐明了一个明确的观点:AI 既是经济资产也是国家安全资产,必须加以塑造以支持政治稳定。这种政策组合——严格的数据集筛选、强制性的意识形态测试、可追溯性、注册和积极的下架——是解决保持快速发展的语言模型与国家优先事项对齐问题的一种方案。这也是一项实况实验,观察一个巨大且充满活力的技术行业是否可以在不失去对国外对手优势的情况下被引导。
其结果的影响将超出中国国境。如果运行时过滤和访问控制被证明是稳健的,结果可能是产生一套适合中国互联网但对国际用途不够开放的国内调校模型。如果这些控制是脆弱的,或者天才研究人员为了更宽松的环境而离开,中国可能会面临其监管机构所担心的竞争力差距。
目前,北京似乎下定决心要穿针引线:将 AI 推向经济和军事领域,同时建立一个限制该技术激发政治异见能力的执法体制。随着模型变得更加智能——以及全球竞争的加剧——这种平衡是否能够维持,将是进入 2026 年的关键技术问题之一。
来源
- Cyberspace Administration of China(关于 AI 内容的监管标准和指南)
- Carnegie Endowment for International Peace(关于中国 AI 政策的分析)
- 中国国家实验室和国内 AI 研究小组(模型和数据集实践)
Comments
No comments yet. Be the first!