AGI 时代已至?加州大学圣迭戈分校(UCSD)的新主张

科学
Is AGI Here? The New UCSD Claim
四位加州大学圣迭戈分校(UCSD)学者在《自然》(Nature)杂志上撰文指出,通用人工智能(AGI)已经存在于当今的大语言模型中;然而,专家和业界人士对此持不同意见。本文将深入解析 AGI 的定义、学者们提供的证据、反驳观点以及该论点在当下的重要性。

通用人工智能已经到来了吗?加州大学圣迭戈分校的证据与定义

为了支持他们关于 AGI 已经到来的断言,他们指向了行为:现代大语言模型 (LLMs) 经常跨越图灵式的对话门槛,并且在基准测试任务中,可以在许多领域达到或超过人类专家的水平。作者引用研究表明,在图灵式的评估中,最近的模型被判定为人类的频率远高于随机概率。他们指出,我们通常根据类似的观察行为将通用智能归于人类——我们并不会窥视大脑内部来判定理解力。

关键在于,UCSD 团队将通用智能与超级智能以及类人认知区分开来。他们的论点并不要求机器像儿童那样学习,也不要求其拥有人类风格的身体,或者必须完美无缺。相反,它提出了一个问题:鉴于我们衡量其他心灵的标准,是否有令人信服的行为证据表明某些机器展现出了我们与通用智能相关联的灵活、跨领域的胜任能力?他们的回答是:在某些方面,是的。

通用人工智能已经到来了吗?行业声音与反面叙事

行业领袖们也推波助澜。一些高管——包括著名的云平台和 AI 平台 CEO——已经公开表示,他们认为目前的系统已经达到了 AGI,或者两者之间的界限现在实际上是模糊的。这些主张通常是商业信心的简略表达:当模型被链式组合成“智能体” (agents) 时,它们可以生成语言、对文档进行推理、编写代码并执行工作流。对于客户和投资者来说,这些能力已经具有经济上的变革性。

但并非所有人都接受行为上的均等就等同于 AGI。批评者认为,将当代的 LLMs 描述为具有通用智能抹杀了重要的区别。技术上的反对意见可分为几个大类:模型仅仅是统计模式匹配,缺乏世界的因果模型;系统会产生幻觉或输出自信但错误的内容;架构缺乏持久的目标、主体性 (agency) 或具身交互;以及系统需要比人类多出几个数量级的数据才能达到胜任水平。对于许多怀疑论者来说,这些差异并非表面的——它们揭示了当前 AI 与具有韧性、自主的通用智能之间的根本差距。

研究人员如何定义 AGI——以及为什么定义很重要

究竟什么是通用人工智能?定义各不相同,但在严肃的辩论中反复出现两个观点。一种将 AGI 视为执行人类可以执行的几乎所有认知任务的实际能力:语言、数学、规划、感知、解决问题、创造性和科学思维。另一种更正式的研究路线则寻求跨任务分布的问题解决能力的通用度量(这是在“通用智能”研究工作中可见的理论方案)。

那些认为 AGI 仍处于理论阶段的人强调机制:一个能够灵活形成目标、利用少量数据在完全不同的领域之间转移学习、与环境进行物理交互并从这种持续互动中学习的系统。他们指出,目前的模型虽然强大,但往往缺乏可靠的因果推理,需要大量的人力支撑才能表现出主体性,并在其训练分布之外发生不可预测的失败。支持者反驳说,对机器提出我们从未对人类提出的证据要求——例如窥视内部过程——是不一致的。

当今 AI 在何处匹配人类能力——又在何处力有不逮

  • 匹配之处:流利的语言、总结、代码编写、许多标准化任务,以及在经过微调或使用工具增强时的领域特定专家行为。
  • 弱点:不可靠的事实基础(“幻觉”)、脆弱的分布外泛化能力、脱离束缚时有限的长程自主规划能力,以及与人类婴儿相比极低的样本效率。
  • 部分专家希望补充的要素:持久的目标和主体性、具身感知运动学习、支持在没有海量数据的情况下进行反事实推理的因果模型,以及对于能力为何涌现的透明机制解释。

AGI 已经到来了,还是仅在触手可及之处?

研究人员对于距离实现通用人工智能还有多远存在分歧。一些路线图认为,渐进式的改进和智能体系统——更可靠、多模态且更具集成性——将在十年内带我们走向稳健的 AGI。其他人则坚持认为目前的架构在进化上是浅层且脆弱的,需要新的概念突破。由于当前的系统已经超出了其设计者的预期,预测时间表仍然充满挑战。

实践中 AI 与 AGI 的区别

你今天使用的 AI 与假设的 AGI 之间的区别既是技术性的也是哲学性的。弱人工智能 (Narrow AI) 擅长在拥有大量数据的情况下解决受限的问题;AGI 则意味着跨领域的通用问题解决能力,并具备迁移、规划和适应能力。在实践中,这意味着在自主性(无需人类提示即可形成并追求目标的能力)、可迁移性(在完全不同的语境中使用在一个语境中学到的能力)和稳健性(在新型、对抗性或低数据环境中的稳定表现)方面的差异。

风险、收益与政策影响

无论你称其为今天的 AGI 还是五年后的 AGI,能够持续执行广泛认知任务的系统的出现都具有社会后果。收益是真实且可衡量的:复杂分析的自动化、科学文献综合的改进、新的工业自动化模型、医疗决策支持以及更快的研发周期。风险范围广泛,从流利生成内容放大的虚假信息,到经济流失,再到模型被给予行动余地时的安全故障,以及不透明模型做出重大决策时的问责问题。

这种复杂性解释了为什么治理、透明度、红队测试和受监管的部署即使对怀疑论者来说也是当务之急。核心政策挑战不仅是技术安全工程,还有保护工人、消费者和民主机构,同时获取收益的经济和社会政策。

这场辩论告诉了我们关于科学与社会的什么

这一事件——一篇 Nature 的评论文章、行业的背书以及怀疑论书籍和评论文章的反面文献——强调了两个事实。首先,定义很重要:说“AGI 已经到来”既是一个经验性主张,也是一个概念上的转变。其次,关于机制的不确定性是真实且具有重大影响的。我们拥有非凡的行为系统,但其内部逻辑我们并不完全理解;这种力量与不透明性的结合解释了兴奋与警觉并存的原因。

目前,最站得住脚的立场是:我们正处于一个过渡时代。一些系统已经在狭义和许多跨领域任务上达到了人类水平的表现;另一些系统在自主性、因果理解和具身学习方面仍然受限。我们是否将这种状态称为“AGI”对于舆论宣传很重要,但政策反应应当是一致的:投资于严谨的评估,要求透明度和安全性,并让机构为快速的社会影响做好准备。

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q 什么是通用人工智能(AGI)?
A 通用人工智能(AGI)是一种假设性的人工智能类型,它在几乎所有认知任务上都能达到或超过人类的能力,包括推理、规划、学习和自然语言交流。与窄人工智能(Narrow AI)不同,AGI 能够泛化知识,跨领域迁移技能,并在无需针对特定任务重新编程的情况下解决新问题。它的目标是复制人类思维那种多才多艺、适应性强的智能。
Q AGI 已经实现了还是仍处于理论阶段?
A AGI 尚未实现;它仍处于假设和理论阶段,目前还没有任何系统能在所有领域达到人类水平的通用智能。目前的 AI(如大语言模型)虽然在特定任务中表现出色,但缺乏真正的理解力、常识,或者在不重新训练的情况下适应全新情境的能力。关于实现 AGI 的说法,如近期加州大学圣迭戈分校(UCSD)的任何主张,均未得到该领域共识的证实。
Q 研究人员距离实现通用人工智能还有多远?
A 研究人员正通过神经网络和机器学习等方法积极追求 AGI,但它仍是一个遥远的目标,目前还没有明确的实现时间表。窄人工智能(如 GPT 模型)的进步在有限领域展示了令人印象深刻的能力,但抽象推理、因果关系和自我完善等根本性挑战依然存在。专家共识认为 AGI 是理论性的,可能还需数十年时间。
Q 人工智能(AI)和通用人工智能(AGI)的主要区别是什么?
A 窄人工智能(Narrow AI 或 ANI)擅长图像识别或语言翻译等特定的、定义明确的任务,但无法将其能力泛化到训练范围之外。相比之下,AGI 可以在无需重新编程的情况下,跨越不同领域执行人类能完成的任何智能任务,具备多功能性、适应性、自我完善能力和类人般的理解力。目前的 AI 依赖于预定义参数,而 AGI 将能够自我学习并自主处理新问题。
Q AGI 对社会有哪些潜在的风险和益处?
A AGI 可能带来巨大的益处,例如加速科学突破、解决复杂的全球问题,以及通过自主创新提高经济生产力。然而,风险包括职位取代、人类失去控制权、目标失配的超智能系统带来的生存威胁,以及在关键领域决策中的伦理问题。随着开发的推进,社会必须优先考虑安全性研究,以减轻这些危险。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!