宇宙不需要压缩算法

物理学
The Universe Has No Need for Compression Algorithms
来自不列颠哥伦比亚大学奥卡纳干分校(UBC Okanagan)的最新数学证明对“模拟假说”提出了挑战,而备受争议的“信息动力学”定律则暗示现实可能是一场数据管理演习。

Melvin Vopson 在朴次茅斯大学(University of Portsmouth)的研究并非始于哲学学位,而是始于 SARS-CoV-2 突变表现出的那种特殊且令人烦恼的方式。当世界其他地方都在寻找疫苗时,Vopson 却在研究这种病毒的信息含量。他注意到了一些违背生物进化混乱、无序预期的事情:该病毒的物理信息熵并没有增加,反而是在减少。在经典热力学世界中,系统往往趋于无序。但在 Vopson 的数据中,宇宙看起来不像一片荒野,而更像是一个正在为更小硬盘进行优化的软件更新。

这一观察导向了 Vopson 所称的“信息动力学第二定律”(Second Law of Infodynamics)。这是一个极具挑衅性,甚至近乎离经叛道的命题,即任何系统中的信息熵必须保持不变或随时间减少。如果这听起来与热力学第二定律相反,那是因为它确实如此。但对于那些沉迷于“我们生活在一个巨大的计算结构中”这一观点的人来说,Vopson 的定律便是决定性的证据。它表明宇宙受制于最小化信息的指令——这是任何柏林或硅谷的软件工程师都会将其识别为数据压缩的过程。

存在的“热力学税”

关于模拟现实的论点通常缺乏物理证据,往往沦为深夜宿舍里的空谈。然而,Vopson 将他的理论锚定在兰道尔原理(Landauer principle)上。Rolf Landauer 在 20 世纪 60 年代提出的这一原理认为,擦除单个比特的信息会释放出微量且可测量的热量。它是比特抽象世界与焦耳物理世界之间的桥梁。在欧洲背景下,法兰克福和都柏林数据中心的能耗现已成为国家安全和工业政策议题,兰道尔原理不再仅仅是一个理论上的好奇,而是预算中的一项支出。

如果信息具有质量和能量——这是 Vopson 目前正在试图验证的假设——那么整个宇宙就可以被视为一种数据管理练习。我们在自然界中看到的对称性,从雪花的六角形晶格到星系的旋臂,或许不应被解读为“美”,而应被视为一种效率衡量标准。对称更容易编码。描述一个圆比描述一块参差不齐的岩石所需的数据更少。对于模拟论的支持者而言,我们的宇宙遵循优雅的数学定律并非奇迹,而是开发者为了节省开销所留下的痕迹。

不列颠哥伦比亚大学奥肯那根分校(UBC Okanagan)的数学墙

当“信息动力学”阵营看着宇宙的优雅并将其视为代码时,不列颠哥伦比亚大学奥肯那根分校(UBC Okanagan)的一群物理学家最近利用模拟理论所依赖的工具——数学,得出了完全相反的结论。他们于 2025 年底发表的研究旨在解决量子蒙特卡洛模拟中的“符号问题”(Sign Problem)。这不是一场哲学分歧,而是计算复杂度方面的一堵硬墙,表明宇宙本身太复杂,根本无法被伪造。

UBC Okanagan 团队证明,随着量子系统复杂性的增加(特别是涉及许多相互作用粒子的系统),模拟它们所需的计算资源会呈指数级增长。即使要以完美的精度模拟仅仅几百个原子,也需要一台比可观测宇宙还要大的计算机。这就是“符号问题”。这是一种在试图计算量子态概率时出现的数学故障,其中正项和负项相互抵消的方式需要无限的精度才能解决。

如果宇宙是一个模拟程序,那么运行它的“硬件”将不得不绕过我们在模拟内部观察到的复杂性定律。如果“模拟者”正在使用某种快捷方式来绕过符号问题,我们应该能看到那些快捷方式的证据——亚原子世界中的数值“抖动”或近似值。到目前为止,我们对量子泡沫观察得越深入,它看起来就越“真实”。数学并没有显示出任何快捷方式;它显示的是一个复杂程度令人咋舌、且未经过优化的系统,任何理智的工程师都会在原型设计阶段就放弃该项目。

数字幽灵的欧洲工业现实

对模拟理论的痴迷往往反映了我们自己的技术焦虑。在德国,对“主权技术”(Sovereign Tech)的推动,以及对英特尔马格德堡工厂或台积电德累斯顿工厂的大规模补贴,都是源于我们日益依赖硅片的现实。当我们开始将宇宙视为一种模拟时,我们本质上是将当前的工业时代投射到了宇宙上。正如维多利亚时代的人们将宇宙视为巨大的发条装置一样,我们将其视为服务器机架。

然而,“信息即物理”的假设所带来的影响远远超出了“黑客帝国”(The Matrix)的范畴。如果 Vopson 关于信息动力学第二定律的观点是正确的,它将改变我们从半导体设计到基因组测序的一切方法。如果系统自然倾向于信息压缩,那么我们试图构建越来越庞大、越来越“嘈杂”的数据模型可能是在逆水行舟。欧盟对“绿色双转型”(Green Twin)的执着——通过数字化经济来节省能源——假设现实的数字版本比物理版本维护成本更低。物理学,特别是兰道尔极限,暗示这种效率存在一个底线。

为什么我们偏爱模拟理论

朴次茅斯的“压缩派”与奥肯那根的“现实派”之间的争论揭示了现代科学中一种有趣的张力。我们越来越无法接受一个“仅仅”由物质和能量构成的宇宙。物质是沉重的、昂贵的,且受制于时间的缓慢衰减。相比之下,信息感觉是永恒且便携的。模拟理论在许多方面是数据时代的一种世俗神学。它提供了一种关于“外部世界”、创造者(即使这个创造者只是更高维度中一个无聊的青少年)以及世界数学秩序合理性的承诺。

但 UBC Okanagan 的研究结果犹如一盆冷水。它们表明现实并非什么廉价的把戏。“符号问题”证明了物理世界纯粹且不可阻挡的坚韧。它告诉我们,宇宙并没有走捷径。它正在实时计算每一个相互作用、每一个量子涨落,且似乎完全不考虑“内存成本”。以这种方式运行现实是极其低效的,而这正是它很可能是真实的原因。如果是一个模拟程序,它早就在自身亚原子细节的重压下崩溃了。

随着我们继续向量子计算和人工智能投入数十亿美元,我们本质上是在试图构建自己的“迷你模拟”。通过欧洲芯片法案(European Chips Act)和飞涨的电费,我们正在发现信息并非免费。无论我们是宇宙硬盘里的一个压缩文件,还是混乱而真实的原子集合,其成本都是一样的。宇宙没有 GPU,它似乎也不在乎我们的存储限制。我们生活在一个过于复杂而只能是其本身的现实中。这要么是一种慰藉,要么是对我们自身孤立状态的恐怖认知。

欧洲拥有能够建造传感器的工程师,这些传感器终将证明或否定一个比特的质量。只是它还没有决定是否真的想生活在那个答案之中。

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 什么是信息动力学第二定律?它与模拟假说有何关联?
A 由物理学家梅尔文·沃普森(Melvin Vopson)提出的信息动力学第二定律指出,系统内的信息熵在时间推移中保持不变或趋于减少。这与热力学第二定律相矛盾,后者规定系统倾向于走向无序。沃普森认为,这种向信息最小化发展的自然趋势类似于软件工程中的数据压缩,暗示宇宙可能是一个经过优化的计算结构,旨在最小化数据开销并实现效率最大化。
Q 兰道尔原理如何支持“信息是一种物理实体”这一观点?
A 20世纪60年代建立的兰道尔原理认为,擦除单个比特的信息会释放出微小但可测量的热量。这在抽象的比特与能量之间建立了直接的物理联系。如果正如沃普森的研究表明,信息具有质量和能量,那么宇宙可以被视为一个数据管理系统。该原理为“数字信息是物理现实的基本构建块”这一理论提供了热力学基础。
Q 为什么“符号问题”(Sign Problem)对模拟假说构成了数学挑战?
A 不列颠哥伦比亚大学奥卡纳根分校的研究强调,“符号问题”是模拟现实的一大障碍。在量子模拟中,模拟相互作用粒子所需的计算资源会随系统规模呈指数级增长。由于完美模拟即便几百个原子也需要一台比可观测宇宙更大的计算机,研究人员认为宇宙过于复杂,不可能是模拟出来的。他们主张,任何模拟现实都必然会显现出明显的数值近似痕迹。
Q 自然界的对称性如何支持宇宙信息压缩理论?
A 信息动力学第二定律的支持者认为,自然界中普遍存在的对称性(如雪花或星系)是计算优化的标志。从数学上讲,对称结构所需描述和渲染的信息量远少于不规则结构。从模拟的角度来看,这些优雅的数学定律被解释为开发者为节省处理能力而使用的捷径,而非混沌且无序的物理世界中偶然产生的自然美。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!