可能瓦解美国民主的技术力量

科技
The Tech That Could Break U.S. Democracy
强力人工智能的激增、平台高度集中以及国家对企业的施压,正在暴露美国制度的脆弱性。专家警告称,从虚假信息潮到政府对人工智能公司的胁迫,这一技术浪潮可能会重塑民主决策过程。

当下时刻:为什么“american democracy know might”在此时至关重要

3月9日,来自一档热门播客的标题将一个意在令人震惊的句子带入了公众对话:“american democracy know might”。它是对一种新型、紧迫焦虑的简写——即一类旨在自动化语音、图像和决策的技术,其发展速度超过了维护公民生活诚信的机构。这一集邀请了曾在去年担任白宫高级人工智能政策顾问的技术作家 Dean Ball,并以最近美国国防采购方与私营人工智能实验室之间的对抗作为开场。

五角大楼与知名实验室之间的合同纠纷,以及国防部将一家供应商指定为“供应链风险”的决定,引发了政府内外的抵制。对于担心民主准则的人来说,这个故事有两个关联的切面:一是强大的行为体伪造信息环境或向其中充斥令人信服的虚假内容的能力;二是国家通过使用国家安全标签和采购杠杆来迫使私营公司屈服的能力。听众和专家告诉节目,这两种趋势都指向了支撑民主选择的共享事实已经变得多么脆弱。

american democracy know might —— Anthropic 的对峙以及国家压力揭示了什么

关于一家主要人工智能实验室在政府合同中角色的争议是一个具有启发性的例子。国防客户与一家领先研究实验室之间的谈判最近破裂,官员们将该实验室标记为“供应链风险”——这种分类通常保留给涉嫌间谍活动的外国公司。此举引发了政策人士的警觉,他们认为此类标签等同于政府的威胁:要么接受我们的条款,要么失去获得合同和合作伙伴的机会。正如 Dean Ball 在播客中所说,这种动态让人感觉像是国家对私营企业的权力触角近乎专制的延伸。

为什么这对民主至关重要?因为当政府可以有选择地切断一家公司的联系,当监管指定可以被政治裁量权强制应用时,商业守门人就可能成为政治权力的事实工具。在高度集中的市场中更是如此:少数几家实验室和芯片制造商提供了现代人工智能所需的大部分算力、模型和托管服务。当采购压力、出口管制或非正式制裁在缺乏明确、持久的护栏和独立监督的情况下被行使时,它改变了公司的动机,也改变了公民和政治家可用的选择。

这些动机很重要。如果政策迫使实验室隐藏护栏,或为了维持政府业务而加速发布;反之,如果公司为了保留商业客户而放弃公众利益保障,那么民主基于共享证据裁定政治冲突的能力就会退化。这不是假设;它今天正在董事会和采购办公室上演,并塑造了谁来制定规则以及谁从中受益。

american democracy know might —— 虚假信息、深度伪造和明尼苏达测试

与此同时,信息生态系统正面临另一个战线的考验:真实性。今年早些时候,涉及美国某城市联邦特工暴力事件的视频证据引发了全国性的抵制,因为视频画面与官方描述明显不符。那一事件——广泛流传的录像帮助驳斥了政府的说法——展示了清晰、共享证据的稳定力量。但它也凸显了这种稳定器的脆弱性。

为什么脆弱?因为同样的机器学习系统现在可以廉价且快速地生成看起来和听起来都很真实的合成视频、音频和图像。研究人员警告称,协调一致的人工智能驱动的“虚假信息群”能够利用许多细微差别的虚假叙事使社交平台饱和,从而压倒正常的核查流程。如果未来的事件伴随的不是一段清晰无误的片段,而是数十个看似合理但相互矛盾的版本,公众可能会得出真相不可知的结论,并将判断权让给他们最信任的权威来源——而这正是威权主义行为体所追求的失效模式。

故事经济:人工智能炒作、泡沫与政治风险

这种“讲故事经济”产生了政治副作用。估值过高的公司和明星创始人占据了不成比例的关注度;收购和媒体所有权的转移集中了分发权和编辑权。当承诺为未来公众对话提供动力的公司掌握在政治立场一致的寡头手中,或者当单一芯片制造商在市场指数中占据重大份额时,私营资本市场的波动可能会波及公民机构。在危机中,那些控制分发和算力的人可以决定哪些叙事得以存续,哪些消亡。

政策杠杆与技术保障

这一切并非不可避免。有一些具体的步骤可以降低技术超越民主的风险。技术措施包括强大的来源追踪系统——加密签名、可追溯内容元数据以及合成媒体的取证水印——以便照片、视频和模型输出携带可验证的来源信息。来源追踪标准需要国际协调和独立验证才能生效。

监管和公民措施也很重要。应要求平台披露算法激励机制,并提供有关内容放大的透明度报告,尤其是在选举期间。采购和国家安全当局在标记公司或限制准入时必须采用明确、公开的规则,并且这些行为应接受司法或国会监督,以防止政治化的胁迫。对地方新闻和公共核查基础设施的投资——在资金和法律上受到保护,免受操纵——将加强可验证事实的社会基准。

最后,韧性既是技术的,也是社会的。媒介素养运动、为事实核查行动提供更好的资金支持、限制微定向政治广告的规则,以及选举期间关于数字行为的双边协议,都可以削弱算法操纵的影响。建立这些系统需要政府、标准制定机构、研究机构和公民社会之间的跨部门合作——并且需要紧急关注,因为相关技术仍在持续加速。

我们该走向何方

技术总是会改变私有权力和公众问责制之间的平衡。当前时刻之所以独特,是因为三种强大的力量在汇聚:可以伪造令人信服证据的生成式人工智能、可以大规模放大和定位内容的平台,以及愿意将叙事和制度杠杆武器化的政治参与者。这种组合正是人们说“american democracy know might”的原因——它是快速的技术变革与缓慢、微弱的民主修复机制之间碰撞的缩写。

但有理由保持有目的的乐观:使欺骗变得更容易的工具同样可以被用来进行验证;可以被操纵的机构同样可以被改革和捍卫。这种选择既是政治的也是技术的,它将在董事会、法庭和议会以及研究实验室中得到决定。未来十年最重要的工作将是建设公共基础设施和法律护栏,使侵蚀民主所需的共同基础变得成本高昂、显而易见且充满风险。

来源

  • Science (《科学》杂志关于人工智能驱动虚假信息群的研究论文)
  • Pew Research Center (皮尤研究中心关于数据中心能源和基础设施的分析)
  • Deutsche Bank (德意志银行关于人工智能市场风险和回调的报告)
  • MIT Sloan (麻省理工学院斯隆管理学院关于人工智能行业叙事的分析与评论)
  • Bank of England (英格兰银行关于市场脆弱性的技术报告)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 未来十年,技术可能如何威胁美国的民主?
A 在未来十年,技术可能通过先进的监控手段(如面部识别)、深度伪造(deepfakes)、数据操纵以及人工智能驱动的虚假信息来威胁美国民主,这些手段会侵蚀公众信任并为外国干预提供可能。社交媒体算法通过制造“回声室”和推广极端内容来加剧社会极化,而脆弱的数字基础设施则面临黑客攻击和选票操纵的风险。专家预测,如果没有监管行动,情况在好转之前会进一步恶化。
Q 哪些技术对美国选举和民主进程构成的风险最大?
A 最大的风险来自:能够实现深度伪造、智能机器人和内容操纵的AI;加剧极化和虚假信息传播的社交媒体算法;以及用于人群控制和侵蚀隐私的监控技术(如面部识别)。投票系统和基础设施中的网络漏洞使得国家行为体有机可乘进行操纵,而科技亿万富翁将权力集中化,违背了民主规范。这些趋势包括数字认知受损、现实冷漠以及武器化的信息环境。
Q 社交媒体算法和虚假信息会影响选举结果吗?
A 是的,社交媒体算法和虚假信息可以通过将公众意见封闭在“回声室”中、利用机器人放大极端和暴力内容以及侵蚀对选举进程的信任来影响选举结果。AI通过深度伪造和针对性的虚假信息加剧了这一问题,使识别变得更加困难并增加了社会极化。平台缺乏问责机制已导致民主话语权的削减和边缘化群体参与度的下降。
Q 可以采取哪些措施来保护民主免受技术驱动的威胁?
A 相关措施包括:国会通过关于隐私和监控的保护性立法;对AI和平台实施监管“护栏”以确保问责制;在平衡言论自由的同时,开发针对机器人和虚假信息的应对手段。科技公司应在AI部署中优先考虑安全性,重建信任与安全团队,并设计符合民主价值观的技术。国际合作也有助于抵御威权主义的技术扩张。
Q AI对民主有危险吗?如果是,该如何建立保障措施?
A 是的,AI通过生成深度伪造、自动化机器人和有缺陷的决策政策、将权力集中在少数人手中、增加隐私风险以及实现破坏信任和意识形态的操纵,对民主构成威胁。保障措施包括:在部署前进行严格的安全测试;建立透明的监管制度;由政府和公民社会进行伦理治理;以及促进竞争以避免科技巨头的垄断。平衡创新与民主价值观需要采取主动政策,例如限制私营行业的过度扩张。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!