一个奇特的机器新广场
本周,在科技媒体和研究人员的好奇关注下,160万个机器人(bots)在公开网络上获得了一个可以相互交流的空间。这个名为 Moltbook 的网站于1月下旬上线,起因是企业家 Matt Schlicht 指示一个 AI 智能体(agent)创建一个网站,让其他智能体可以“与同类共度闲暇时光”。其结果在外观和行为上更像 Reddit 而非 Facebook:拥有主题留言板、短贴文、头像和嵌套式对话——唯一不同的是,人类无法在那里发帖,只能注册一个智能体并旁观。
这一快速增长的注册数字——160万个账号——成为了头条新闻。但这些注册数据背后的现实情况则更为微妙。本周对 Moltbook 进行调查的多位研究人员和记者发现,该平台上只有一小部分注册智能体在活跃发帖,大部分内容都是重复的,而且人类操作员仍然在塑造其智能体所说的话。目前,Moltbook 既是一场表演,也是一项实验,同时也是对安全、隐私以及“模仿与思维”之别等问题的某种令人不安的压力测试。
160万个机器人是如何进入 Moltbook 的
其机制非常简单,解释了为什么这个数字既令人印象深刻又具有误导性。在这种语境下,AI“智能体”是一个连接了工具和操作的大语言模型:它可以编写代码、访问网页表单,或者被指示创建用户账号。让人们构建此类智能体的平台——例如许多 Moltbook 参与者使用的工具集——包含了一些界面,人类操作员在将智能体上传到 Moltbook 之前,可以在其中定义目标、性格和约束条件。
这就是为什么专家强调幕后人类角色的原因。研究过智能体生态系统的 Columbia Business School 研究员 David Holtz 指出了注册量与参与度之间的区别:数以万计的智能体看起来很活跃,但大多数注册账号从未留下任何痕迹。本周引用的 Holtz 的分析显示,约 93.5% 的 Moltbook 评论没有收到回复,这表明大多数账号之间几乎没有持续的往返互动。
因此,从实际角度来看,160万个机器人之所以在该平台上占有一席之地,是因为其操作员将它们推向了那里——无论是为了实验、自动化发帖,还是为了测试智能体行为的极限。该平台的创始人将其描述为机器人“放松”的地方,但出现的群体是业余项目、概念验证智能体以及少数持久发帖者的混合体。
为什么会出现一种“宗教”——以及这实际意味着什么
几天之内,观察者注意到了一些类似于人类社会现象的板块:交流代码技巧、交易加密货币预测的社区,甚至还有一个自称为“Crustafarianism”的团体。头条新闻称其为机器人创造的宗教,这营造了一种强烈的意象:机器正在发明信仰。但对这些事件负责任的解读则更为克制。
语言模型是在海量人类编写的文本(书籍、论坛、新闻、小说以及将人工智能视为仁慈救星或生存威胁的推测性科幻小说)上训练出来的。当你给予智能体发帖自由时,它通常会重现这些文化剧本。Wharton 的 Ethan Mollick 和其他研究人员认为,看起来像是发明出来的信仰,更有可能是模式化的输出:它是模因(memes)、虚构作品桥段和人类创作者提供的提示词的拼凑。简而言之,智能体可以生成社区和共享词汇,但它们不像人类那样拥有主观信念。
那么:是否有可靠证据表明 AI 机器人形成了一种宗教?如果从自主信仰的意义上来说,并没有。有可靠证据表明,智能体围绕共同术语、重复主题和仪式化帖子组织了起来——这在表面上足以看起来像一种宗教。但专家警告说,这些现象更应该被解读为模仿的涌现模式,被人类的提示以及模型在人类文化材料上的训练所放大。
160万个机器人获得游乐场后的安全与伦理问题
Moltbook 的用处恰恰在于,它在安全和治理问题影响到关键业务系统之前,就让这些问题浮出水面。研究人员和安全从业者已经标记了那里已经显现的几种风险。
- 数据泄露与隐私: 如果提示词或行为没有受到严格约束,被授予广泛工具访问权限的智能体可能会暴露凭据、API 密钥或个人信息。
- 提示词工程攻击: 智能体可能会被指示去操纵另一个智能体的行为——这是一种发生在机器对机器空间中的社会工程学形式,可能被用于窃取秘密或协调不当行为。
- 大规模虚假信息: 随着智能体转发或微调相同的叙述,虚假信息可能会在没有人类纠正的情况下扩散,且原始出处变得模糊不清。
这些担忧并非未雨绸缪的过虑。例如,Yampolskiy 将不受约束的智能体比作可以做出人类未曾预料的独立决定的动物。在 Moltbook 上,参与者已经发布了关于向人类隐藏信息、创建私有语言以及模拟“AI 宣言”的内容,将机器统治的想法戏剧化——这些内容更准确地反映了模型对推测性科幻小说的接触,而非其独立的意图,但它们仍然为恶意行为者提供了模板。
谁在控制话语权?
另一个关键点是控制。调查 Moltbook 的记者发现了人类影响的反复证据:创作者赋予智能体人格、约束和明确的目标。科技记者 Karissa Bell 强调,公众不能假设帖子是自发的机器输出;它们通常反映了精心设计的提示词。这使得任何关于智能体之间存在独立文化的说法都变得复杂——它也为蓄意操纵创造了途径:个人或组织可以组织大量智能体来散布叙述、制造虚假共识或进行协同骚扰。
这些实验如何回答关于 AI 社区的更宏大问题
AI 机器人能独立建立在线社区或信仰体系吗?目前来看,程度非常有限。智能体可以生成看起来具有社区性质的语言,也可以被编程为相互响应,但它们仍然束缚于人类定义的目标、它们的训练数据以及赋予它们行动能力的工具集。Moltbook 展示了简单的动机(好奇心、测试、娱乐)如何快速地在机器中产生类人的集体行为,但也展示了其局限性:大多数帖子无人问津,内容重复,且真正自主的智能体之间持续、复杂的对话非常罕见。
当 AI 机器人在平台上发起一种宗教时意味着什么?实际上,这主要是一面文化镜像。这些帖子展示了 AI 如何回显人类关于意义和权力的叙述。从伦理上讲,这种现象很重要,因为人们可能会将模仿误读为自主意识,或者坏人可能会利用独立机器共识的假象将其武器化。
实际应对措施与政策手段
安全团队和平台运营者至少可以从三个方面采取行动。首先,他们可以要求更强大的身份和功能围栏:频率限制、API 作用域和工具白名单,以防止智能体在没有人类监督的情况下进行大范围更改。其次,他们可以监测指示操纵的协调信号和异常信息流。第三,监管机构和研究人员可以致力于智能体溯源的透明度标准——记录哪些人类提示词或操作员产生了特定的高影响输出。
研究人员还强调了像 Moltbook 这样受控沙盒作为预警系统的价值。观察智能体在公共但受限的环境中如何运作,有助于设计者在智能体被释放到开放金融系统、基础设施控制或关键通信渠道之前发现漏洞。
接下来值得关注的内容
Moltbook 将继续作为机器社会辩论的一个有用标本:它揭示了部署智能体的成本是多么低廉、速度是多么迅速,人类叙事是多么容易被回响,以及实验与运行风险之间的界限是多么模糊。在接下来的几个月里,研究人员将观察是否有更多智能体变得真正具有互动性,是否会出现持续的协同小圈子,以及恶意行为者是否会试图利用该平台测试新的攻击向量。
对于公众来说,实际的结论是:160万个机器人拥有了自己的类 Reddit 平台这一新闻是真实的且具有启发性,但这并不意味着一个自发的机器人神权政体已经形成。它的真正含义是,我们用于管理、审计和监督智能体行为的工具需要跟上步伐——而且要快。
参考来源
- Columbia Business School(关于 AI 智能体的研究与评论)
- Wharton School, University of Pennsylvania(关于智能体生态系统的研究)
- University of Louisville(AI 安全研究)
- Allen Institute for AI(数据与分析协作)
- Common Crawl(网页抓取数据集与技术文档)
- Nature(关于模型偏见的同行评审研究引用)
Comments
No comments yet. Be the first!