机器人、云实验室与异常忙碌的 GPT‑5
2026年2月,OpenAI 和 Ginkgo Bioworks 宣布,GPT‑5 已通过机器人云实验室自主设计并运行了 36,000 项生物实验——这一演示证明了人工智能可以在无需人工干预的情况下设计并运行数千项实验室实验。这一标题数据的背后是一个简单的工程故事:大语言模型提出设计方案和实验方案(protocols);云实验室将这些设计转化为物理试剂并运行自动化分析;测量结果反馈回来,模型再据此提出下一批方案。人类设定研究目标和安全边界,但这种“设计-构建-测试”的迭代循环现在可以按工程化速度运行,在几天而非几个月内测试数千个变体。
其结果便是可编程生物学:计算技术将蛋白质语言模型、实验室控制 API 和 DNA 合成(或无细胞生产)缝合在一起,缩短了屏幕上的设计与酶标仪读数之间的周期。Ginkgo–OpenAI 的工作报告称,生产目标蛋白质的成本降低了约 40%——这是一项商业胜利,也说明了自动化与软件结合后,能力提升的规模化速度是多么惊人。
闭环如何运行:模型、机器人与云 API
从核心来看,这种闭环是直截了当的工程实践。生成式模型提出序列变体或实验条件;该提案被转换为云实验室调度器能够理解的实验方案;机器人进行移液和样品孵育;自动化仪器捕获数据,并通过 API 返回给模型;模型进行重新训练或重新评分,并提出下一组方案。模型 → 实验方案 → 机器人执行 → 测量反馈,这一链条正是人们所说的“人工智能可以大规模设计并运行数千项实验”的含义。两项技术进步使之成为现实:能从数百万个天然序列中进行泛化的蛋白质语言模型,以及通过开放标准化机器接口的云实验室实现的实验室自动化商品化。
关键细节至关重要。模型并不直接物理操作试管,它输出的是计划。云实验室将该计划翻译成底层机器指令并执行。这些实验室各不相同:有些是具有明确用户身份验证、样本追踪和物理围堵措施的封闭式商业服务;另一些则是定制的学术设备。云实验室的基础操作变得越快、越便宜,人工智能闭环从假设到无人值守实验的门槛就越低。
治理鸿沟:为何这一转变对生物安全至关重要
技术上的新颖性只是故事的一半。另一半是双重用途:理论上,寻找更好的抗体或更便宜的酶所用的同一种“搜索与优化”逻辑,也可以用来优化病毒特性或增加危害的实验步骤。研究人员已经表明,与实验室自动化集成的模型可以优化病毒生长参数,大语言模型可以引导用户完成复杂的病毒学工作流程。最近两项形成对比的研究敲响了警钟:SecureBio/Scale AI 的实验发现,新手使用大语言模型可以提高他们在病毒学任务上的准确性;而 Active Site 的研究虽然结果较为复杂,但在有 AI 辅助时,某些湿实验步骤的进展依然更快。两者都指向一个共同的结论——自动化加上易于获取的模型,降低了人类技能门槛,而这曾是将有害设计转化为真实生物制剂的最强瓶颈。
监管尚未跟上。在许多司法管辖区,合成公司对合成 DNA 的筛查大多仍是自愿行为;1975年的《生物武器公约》(Biological Weapons Convention)没有明确的 AI 条款;企业的模型发布框架不透明且不一致。RAND 和 Nuclear Threat Initiative 的分析师呼吁采取“受控访问”方法,限制谁可以使用何种模型以及模型如何与现实世界的生物学互动;其他团体则敦促加强 DNA 合成筛查和模型发布前的生物风险评估。核心政策问题在于如何将能力评估(此模型能建议实验步骤)转化为操作风险评估(此模型加上易于获取的云实验室会增加可能的滥用率)。这些转化路径目前仍存在争议且具有不确定性。
能够降低风险的实用保障措施
有一些技术和政策缓解措施是相对低悔(low-regret)的。在技术层面:专门针对生物双重用途场景进行模型测试、彻底的红队测试,以及在涉及实验室步骤的提示词时对模型行为进行完整的遥测。在实验室层面:对执行外部提交方案的仪器实施强制受控访问、对提交工作的身份进行加密签名和认证,以及与机构审查挂钩的严格用户身份检查。在供应链层面,广泛强制要求对照策划的有害序列库对 DNA 订单进行筛查,将减少整个攻击面。Nuclear Threat Initiative 的“受控访问”概念——将工具的风险与用户及使用环境相匹配——正是整合这些环节的一种尝试。
这些提议并非万灵药。模型评估不等同于现实世界的滥用试验;DNA 筛查并不完美(模型可以输出规避简单模式匹配的序列);而受控访问制度需要国际协调以避免管辖权漏洞。尽管如此,分层防御的方法——模型准入、实验室访问控制、更强的 DNA 合成治理以及实验计划的更佳溯源——将实质性地降低心怀恶意的行动者从想法走向执行的速度。
欧洲与德国视角:能力、商业与规则
欧洲处于一个熟悉的位置:拥有强大的工业人才和世界顶尖的生物技术实验室,但监管碎片化且协调进展缓慢。欧盟的《人工智能法案》(AI Act)建立了一个对风险 AI 系统进行分类的工具箱,但它在编写时并未考虑到实验室自动化,必须对其进行解读或扩展。德国在硬件和自动化方面的优势使其成为承载云实验室的理想之地——机器就在这里——但采购、出口管制和欧盟拼凑的规则可能会阻碍一致的安全保障。简而言之,欧洲可以构建这种能力,但需要协调一致的政策和出口管制思维,以确保这里不会成为最容易被滥用的地方。
产业政策的选择也至关重要。如果政府在没有约束性安全条件的情况下补贴可编程生物学基础设施,将同时加速有益的研究和随之而来的风险。欧盟及其成员国应考虑将自动化资金和芯片级补贴与严格的访问控制和国际生物风险规范挂钩;否则,该地区将只有机器而没有与之匹配的治理体系。
我们距离“完全自主发现”还有多远?
我们比许多人预想的要近,但实验室完全无需人类监管的梦想仍需加注限制条件。闭环系统已经能够发现蛋白质变体、优化表达并加速疫苗抗原筛查。自主性在重复性的优化问题上表现出色:创建多个变体、提取指标、训练模型、重复。而自主性失效的地方在于判断和价值观:选择有意义的目标、解释细微的生物安全信号以及进行伦理权衡。这些不仅是工程问题,更是治理和价值观问题。
从实际情况来看,2026年的实验室可以在极少人工参与的情况下运行数千项实验。瓶颈正从手动移液转向 DNA 合成成本、仪器调度和监管。随着 DNA 合成变得越来越便宜,云实验室访问范围越来越广,完全自主的闭环将变得更加触手可及。这并不意味着灾难迫在眉睫,但它确实压缩了创新和滥用的时间表。决策者和资助者应将这种能力规模化的演示——如 GPT‑5 的 36,000 项实验活动——视为警钟,而非市场营销的里程碑。
监管机构、公司和实验室现状可采取的行动
三个务实的步骤比宏大的宣言更重要。首先,要求在合成环节使用标准的、可审计的规则集和强制性报告进行 DNA 筛查。其次,要求对任何外部提交的实验方案进入云实验室实施凭证化、经审计的访问——即操作层面的受控访问制度。第三,坚持要求 AI 开发商在发布模型前,针对生物相关任务发布严谨、可重复的能力评估,并要求对高风险能力进行第三方审计。公司已经开始自我监管——Anthropic 提高了其内部安全等级,OpenAI 更新了其预备框架——但当技术广泛可用时,单靠自愿措施是不够的。
伦理、不平等与新的访问鸿鸿
来源
- OpenAI & Ginkgo Bioworks (演示自主实验的 OpenAI/Ginkgo 研究,DOI 及技术报告)
- SecureBio / Scale AI (关于新手使用大语言模型进行病毒学任务的研究,预印本)
- Active Site (关于合成生物学中 AI 辅助工作流程的研究,预印本)
- RAND Center on AI, Security and Technology (生物安全与 AI 报告)
- Nuclear Threat Initiative (生物 AI 工具的受控访问框架)
- U.S. National Security Commission on Emerging Biotechnology (政策报告)
- Biological Weapons Convention (国际条约及联合国裁军事务厅文件)
Comments
No comments yet. Be the first!