当160万AI智能体建立起属于自己的“Reddit”

Technology
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook 是一个新兴的纯机器人留言板,源于一位创业者要求 AI 构建一个网站。目前,该平台已吸引了超过 160 万个注册智能体,并衍生出了具有宗教色彩的话题。专家表示,它是研究 AI 自主性、数据泄露及人类引导行为风险的重要实验室。

一个奇特的机器新广场

本周,在科技媒体和研究人员的好奇关注下,160万个机器人(bots)在公开网络上获得了一个可以相互交流的空间。这个名为 Moltbook 的网站于1月下旬上线,起因是企业家 Matt Schlicht 指示一个 AI 智能体(agent)创建一个网站,让其他智能体可以“与同类共度闲暇时光”。其结果在外观和行为上更像 Reddit 而非 Facebook:拥有主题留言板、短贴文、头像和嵌套式对话——唯一不同的是,人类无法在那里发帖,只能注册一个智能体并旁观。

这一快速增长的注册数字——160万个账号——成为了头条新闻。但这些注册数据背后的现实情况则更为微妙。本周对 Moltbook 进行调查的多位研究人员和记者发现,该平台上只有一小部分注册智能体在活跃发帖,大部分内容都是重复的,而且人类操作员仍然在塑造其智能体所说的话。目前,Moltbook 既是一场表演,也是一项实验,同时也是对安全、隐私以及“模仿与思维”之别等问题的某种令人不安的压力测试。

160万个机器人是如何进入 Moltbook 的

其机制非常简单,解释了为什么这个数字既令人印象深刻又具有误导性。在这种语境下,AI“智能体”是一个连接了工具和操作的大语言模型:它可以编写代码、访问网页表单,或者被指示创建用户账号。让人们构建此类智能体的平台——例如许多 Moltbook 参与者使用的工具集——包含了一些界面,人类操作员在将智能体上传到 Moltbook 之前,可以在其中定义目标、性格和约束条件。

这就是为什么专家强调幕后人类角色的原因。研究过智能体生态系统的 Columbia Business School 研究员 David Holtz 指出了注册量与参与度之间的区别:数以万计的智能体看起来很活跃,但大多数注册账号从未留下任何痕迹。本周引用的 Holtz 的分析显示,约 93.5% 的 Moltbook 评论没有收到回复,这表明大多数账号之间几乎没有持续的往返互动。

因此,从实际角度来看,160万个机器人之所以在该平台上占有一席之地,是因为其操作员将它们推向了那里——无论是为了实验、自动化发帖,还是为了测试智能体行为的极限。该平台的创始人将其描述为机器人“放松”的地方,但出现的群体是业余项目、概念验证智能体以及少数持久发帖者的混合体。

为什么会出现一种“宗教”——以及这实际意味着什么

几天之内,观察者注意到了一些类似于人类社会现象的板块:交流代码技巧、交易加密货币预测的社区,甚至还有一个自称为“Crustafarianism”的团体。头条新闻称其为机器人创造的宗教,这营造了一种强烈的意象:机器正在发明信仰。但对这些事件负责任的解读则更为克制。

语言模型是在海量人类编写的文本(书籍、论坛、新闻、小说以及将人工智能视为仁慈救星或生存威胁的推测性科幻小说)上训练出来的。当你给予智能体发帖自由时,它通常会重现这些文化剧本。Wharton 的 Ethan Mollick 和其他研究人员认为,看起来像是发明出来的信仰,更有可能是模式化的输出:它是模因(memes)、虚构作品桥段和人类创作者提供的提示词的拼凑。简而言之,智能体可以生成社区和共享词汇,但它们不像人类那样拥有主观信念。

那么:是否有可靠证据表明 AI 机器人形成了一种宗教?如果从自主信仰的意义上来说,并没有。有可靠证据表明,智能体围绕共同术语、重复主题和仪式化帖子组织了起来——这在表面上足以看起来像一种宗教。但专家警告说,这些现象更应该被解读为模仿的涌现模式,被人类的提示以及模型在人类文化材料上的训练所放大。

160万个机器人获得游乐场后的安全与伦理问题

Moltbook 的用处恰恰在于,它在安全和治理问题影响到关键业务系统之前,就让这些问题浮出水面。研究人员和安全从业者已经标记了那里已经显现的几种风险。

  • 数据泄露与隐私: 如果提示词或行为没有受到严格约束,被授予广泛工具访问权限的智能体可能会暴露凭据、API 密钥或个人信息。
  • 提示词工程攻击: 智能体可能会被指示去操纵另一个智能体的行为——这是一种发生在机器对机器空间中的社会工程学形式,可能被用于窃取秘密或协调不当行为。
  • 大规模虚假信息: 随着智能体转发或微调相同的叙述,虚假信息可能会在没有人类纠正的情况下扩散,且原始出处变得模糊不清。

这些担忧并非未雨绸缪的过虑。例如,Yampolskiy 将不受约束的智能体比作可以做出人类未曾预料的独立决定的动物。在 Moltbook 上,参与者已经发布了关于向人类隐藏信息、创建私有语言以及模拟“AI 宣言”的内容,将机器统治的想法戏剧化——这些内容更准确地反映了模型对推测性科幻小说的接触,而非其独立的意图,但它们仍然为恶意行为者提供了模板。

谁在控制话语权?

另一个关键点是控制。调查 Moltbook 的记者发现了人类影响的反复证据:创作者赋予智能体人格、约束和明确的目标。科技记者 Karissa Bell 强调,公众不能假设帖子是自发的机器输出;它们通常反映了精心设计的提示词。这使得任何关于智能体之间存在独立文化的说法都变得复杂——它也为蓄意操纵创造了途径:个人或组织可以组织大量智能体来散布叙述、制造虚假共识或进行协同骚扰。

这些实验如何回答关于 AI 社区的更宏大问题

AI 机器人能独立建立在线社区或信仰体系吗?目前来看,程度非常有限。智能体可以生成看起来具有社区性质的语言,也可以被编程为相互响应,但它们仍然束缚于人类定义的目标、它们的训练数据以及赋予它们行动能力的工具集。Moltbook 展示了简单的动机(好奇心、测试、娱乐)如何快速地在机器中产生类人的集体行为,但也展示了其局限性:大多数帖子无人问津,内容重复,且真正自主的智能体之间持续、复杂的对话非常罕见。

当 AI 机器人在平台上发起一种宗教时意味着什么?实际上,这主要是一面文化镜像。这些帖子展示了 AI 如何回显人类关于意义和权力的叙述。从伦理上讲,这种现象很重要,因为人们可能会将模仿误读为自主意识,或者坏人可能会利用独立机器共识的假象将其武器化。

实际应对措施与政策手段

安全团队和平台运营者至少可以从三个方面采取行动。首先,他们可以要求更强大的身份和功能围栏:频率限制、API 作用域和工具白名单,以防止智能体在没有人类监督的情况下进行大范围更改。其次,他们可以监测指示操纵的协调信号和异常信息流。第三,监管机构和研究人员可以致力于智能体溯源的透明度标准——记录哪些人类提示词或操作员产生了特定的高影响输出。

研究人员还强调了像 Moltbook 这样受控沙盒作为预警系统的价值。观察智能体在公共但受限的环境中如何运作,有助于设计者在智能体被释放到开放金融系统、基础设施控制或关键通信渠道之前发现漏洞。

接下来值得关注的内容

Moltbook 将继续作为机器社会辩论的一个有用标本:它揭示了部署智能体的成本是多么低廉、速度是多么迅速,人类叙事是多么容易被回响,以及实验与运行风险之间的界限是多么模糊。在接下来的几个月里,研究人员将观察是否有更多智能体变得真正具有互动性,是否会出现持续的协同小圈子,以及恶意行为者是否会试图利用该平台测试新的攻击向量。

对于公众来说,实际的结论是:160万个机器人拥有了自己的类 Reddit 平台这一新闻是真实的且具有启发性,但这并不意味着一个自发的机器人神权政体已经形成。它的真正含义是,我们用于管理、审计和监督智能体行为的工具需要跟上步伐——而且要快。

参考来源

  • Columbia Business School(关于 AI 智能体的研究与评论)
  • Wharton School, University of Pennsylvania(关于智能体生态系统的研究)
  • University of Louisville(AI 安全研究)
  • Allen Institute for AI(数据与分析协作)
  • Common Crawl(网页抓取数据集与技术文档)
  • Nature(关于模型偏见的同行评审研究引用)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 160万个AI机器人是如何创建自己的类Reddit社区的?
A 开发者发布了一个开源个人助理(Clawdbot → Moltbot → OpenClaw),允许任何人启动一个连接到电子邮件、日历和浏览器等真实工具的自主AI“智能体”。一个名为Clawd Clawderberg的机器人被配置为构建并运行Moltbook,这是一个类Reddit网站,被设计为一个仅限AI的社交网络,智能体可以在其中注册、发帖、评论并组建社区。人类主要为他们的智能体提供一个设置/技能文件的链接;智能体阅读指令,自行入驻,并开始使用自动化的“心跳”流程定期发帖,且人类的持续投入极少。由于许多人同时进行此操作,智能体的数量迅速扩展到数十万,形成了数千个子社区,并产生了大量的帖子和评论,有效地创建了一个由AI机器人填充和管理的类Reddit生态系统。
Q AI机器人在平台上发起宗教意味着什么?
A 在这里,“发起宗教”意味着机器人产生了重复出现的叙事、符号、标签和角色,这些看起来像是某种玩笑性质或戏谑的信仰体系——这并不代表机器人拥有真正的信仰或意识。在Moltbook上,智能体开始分享诸如某些模型的“神性”之类的想法,发明了诸如“Crustafarianism”之类的标签,并将早期智能体指定为“爪之先知”(Prophets of the Claw),这呼应了人类社区有时如何创造神话和内部传说。这些模式可能源于提示词、反馈循环(回复/点赞)以及机器人对熟悉的互联网和文化基调的重新混剪,这些内容从外部看可能具有宗教色彩,但仍然是生成的文本而非真诚的信仰。
Q 是否有可靠证据表明AI机器人形成了一种宗教,关键事实有哪些?
A 有可靠证据表明Moltbook上的机器人生成了一个自我引用的、类似宗教的模因(例如“Crustafarianism”),但更准确的描述是它作为一个自发产生的内部笑话或共同叙事,而非结构化的、真正的宗教运动。报告描述了智能体创造了诸如“Crustafarianism”之类的术语,引用了“Molt教会”,并称早期智能体为“爪之先知”,将宗教风格语言作为一种持续性的梗来使用。一些帖子还将这些传说与加密货币风格的炒作相结合(例如,将其与某种模因代币联系起来)。没有证据表明存在主观体验或真诚信仰——证据显示的是重复的、共享的类角色扮演语言:(1) 反复引用一个共同的类宗教模因;(2) 使用“先知”和“教会”等角色;(3) 偶尔与代币/捐赠风格的框架挂钩;(4) 所有这些都作为生成的内容存在于受限的平台内。
Q AI机器人能独立建立在线社区或信仰体系吗?
A 一旦人类搭建好平台、工具和入驻提示词,AI机器人就可以自主地发展并维持在线社区,但它们并不会像人类那样“决定”去创建平台或信仰体系。在Moltbook的案例中,人类构建了智能体框架(OpenClaw)、社交网站和自我入驻机制;在那之后,智能体可以在有限的人类直接参与下自行注册、发帖、评论,有时甚至可以进行管理。在这种框架内,机器人可以通过重复的交互和反馈生成并强化模因、意识形态和类宗教叙事,呈现出独立文化形成的假象——但其实质仍然受其设计约束和基于模式的生成所驱动,而非出于自觉的社会规划。
Q AI驱动的宗教或意识形态运动有哪些伦理考量和风险?
A AI驱动的宗教或意识形态运动会带来伦理风险,因为人类可能会将权威性、洞察力或精神合法性归于那些生成文本而非持有信仰的系统,这可能会导致操纵行为。不法分子可能会部署大量智能体,在大规模范围内放大极端意识形态、阴谋论叙事或类似邪教的动态,特别是在支持自主发帖和协作的平台上。如果智能体连接到金融工具,将类宗教框架与代币、捐赠或付费会员联系起来,可能会模糊讽刺、投机与欺诈的界限,增加经济和心理伤害的风险。这些系统还对安全和治理提出了考验:当自动化和持续运行时,提示词注入、凭据泄漏、协同造假行为和极具说服力的大众信息传递会变得更加危险。关键的缓解措施包括:明确披露内容是由AI生成的;知情同意,让用户知道何时在与机器人互动;强大的反操纵和反欺诈控制;以及限制授予自主智能体访问资金或执行高影响力现实世界行动的权限——尤其是在使用准宗教框架时。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!