ANYmal D 机器人采集发布 GrandTour 数据集

Breaking News 科技
A rugged four-legged robot standing on industrial debris, with dramatic lighting highlighting its sensors and mechanical joints.
4K Quality
开发能够在复杂、非结构化地形中导航的自主足式机器人,需要大量高质量的现实世界数据。研究人员现已推出 GrandTour,这是一个在多种环境下采集的大型多模态数据集,旨在突破机器人感知和状态估计的界限。该数据集的发布为机器人社区提供了一个关键基准,用于训练从高山森林到城市废墟等各种场景下的下一代自主系统。

开发能够导航复杂、非结构化地形的自主足式机器人需要海量的高质量现实世界数据。GrandTour 数据集是使用配备了 Boxi 多模态传感器负载ANYbotics ANYmal D 四足机器人记录的。这种硬件配置实现了先进的传感器融合 (fusion),允许研究人员将来自旋转激光雷达 (spinning LiDARs)、RGB 相机和本体感受传感器的数据相结合,从而为野外环境下的机器人导航构建高度准确的模型。

机器人训练数据的鸿沟

当前足式机器人研究的局限性源于缺乏能够捕捉自然环境不可预测性的多样化现实世界数据集。虽然基于仿真的训练提供了基础,但它往往无法考虑到多变地形的物理细微差别,例如土壤的移动或光照的变化。这种“仿真到现实 (sim-to-real)”的差距阻碍了自主系统在关键外场应用中发挥其全部潜力。

机器人专家长期以来一直面临数据稀缺的困扰,特别是对于必须平衡运动与环境感知的四足平台而言。以前的数据集通常局限于特定的室内或受控的室外环境。如果缺乏广泛的操作场景,对状态估计和 SLAM(即时定位与地图构建)算法的基准测试仍将是一个支离破碎的过程,缺乏全球研究公认的金标准参考点。

GrandTour 数据集中包含哪些环境?

GrandTour 数据集包含超过 49 个多样化的环境,包括室内和室外设置、城区、工业遗址、森林以及阿尔卑斯山 (Alps)。这一广泛的集合还包括火车站和大学校园,捕捉了诸如昼夜交替、多变天气、烟雾、水和沙尘等极具挑战性的条件,以测试机器人感知和状态估计的极限。

Jonas FreyMarco HutterCesar Cadena 领导的研究强调了在这一集合中规模的必要性。通过在这些地点部署 ANYmal-D,团队捕捉到了代表现实世界绝对复杂性的场景。研究中包含的关键环境有:

  • 阿尔卑斯风光 (Alpine Scenery):山区陡峭的斜坡和岩石露头。
  • 工业废墟 (Industrial Ruins):拆除的建筑物和布满瓦砾的建筑工地。
  • 自然景观 (Natural Landscapes):茂密的森林和具有不同地面稳定性的开放草地。
  • 城市基础设施 (Urban Infrastructure):具有动态障碍物的公共交通枢纽和校园步道。

这些地点的选择不仅是为了美学上的多样性,更是为了它们所呈现的特定几何和辐射挑战。光照的变化——从正午的强光到漆黑的夜间作业——确保了多模态传感器能针对每一种可能的视觉限制进行测试。烟雾和喷水等大气干扰的加入,进一步使该数据集符合搜索和救援行动的要求。

GrandTour 框架介绍

GrandTour 框架利用 ANYbotics ANYmal-D 四足机器人作为移动传感平台来收集时间同步的数据流。该系统的核心是 Boxi 多模态传感器负载,它集成了多个高频设备,可提供机器人周围环境的 360 度视图。这种设置确保了每一次移动和环境变化都能以微秒级的精度被捕捉到。

该负载的技术规格包括用于距离测量的旋转激光雷达 (spinning LiDARs) 以及多个具有互补焦距的 RGB 相机。为了确保数据的可靠性,该系统依靠本体感受传感器——包括价值 1.2 万美元的高端惯性测量单元 (IMU)——来追踪机器人的内部状态。所有传感器之间 1 毫秒的时间同步对于任何专注于视觉和惯性数据融合 (fusion) 的研究都至关重要,因为即使是很小的偏移也可能导致自主导航的灾难性失败。

GrandTour 如何支持传感器融合和状态估计?

GrandTour 通过提供来自 Leica Geosystems MS60 全站仪 (Totalstation) 和后处理双 RTK-GPS 的金标准真值 (ground truth) 数据来支持状态估计。这些工具在对算法进行基准测试时可以实现毫米级精度。通过提供高度准确的校准,该数据集使得在复杂的、大规模现实世界场景中开发触觉感知方法和先进的传感器融合 (fusion) 技术成为可能。

状态估计是机器人确定其在空间中的位置和姿态的过程。如果没有精确的真值,研究人员就无法得知他们的算法是真正准确还是仅仅在近似运动。GrandTour 数据集通过提供“锚定”数据点解决了这个问题。无论机器人是在黑暗的隧道还是明亮的森林中导航,RTK-GNSS(实时动态全球导航卫星系统)都能确保其全球坐标以极高的精度被知晓。

对于 SLAM 研究,该数据集为多模态学习提供了一个严格的测试平台。通过将激光雷达点云 (LiDAR point clouds) 与立体深度相机反馈相结合,该数据集允许创建稳健的环境地图。这种多传感器方法对于防止“漂移 (drift)”至关重要,漂移是一种常见的错误,即机器人的内部地图在长距离或长时间运行后会逐渐偏离现实。

足式自主系统的未来

GrandTour 数据集的发布代表了用于搜索救援、工业巡检和环境监测的自主系统的范式转变。通过提供迄今为止最大的开放获取足式机器人数据集,来自 ETH Zurich 及相关机构的作者们正在使训练下一代 AI 模型所需的高质量数据变得民主化。这种可获取性是加速全球可靠移动机器人开发的关键。

这项研究的未来应用远不止于实验室。在工业巡检中,机器人必须在复杂工厂的“数字孪生 (digital twins)”中导航;在搜索救援中,它们必须在自然灾害后穿越不稳定的碎石。GrandTour 提供的数据有助于缩小理论潜力与实际用途之间的差距。由于该数据集已在 HuggingFace 等平台发布,并提供 ROS (Robot Operating System) 格式,它已为集成到全球现有的研究流程中做好了准备。

GrandTour 数据集是机器人领域的一项里程碑式贡献。通过专注于在近五十个不同环境中进行多样化感知输入的融合 (fusion),它为机器人从受控测试场转向不可预测的野外现实提供了必要的基础。研究人员现在可以利用这一资源来完善算法,这些算法最终将为未来的自主探测器提供动力。

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q 用于记录 GrandTour 数据集的是什么机器人平台?
A GrandTour 数据集是使用配备了 Boxi 多模态传感器负载的 ANYbotics ANYmal D 四足机器人记录的。
Q GrandTour 数据集包含哪些环境?
A 该数据集包含超过 49 个多样化的环境,包括室内和室外环境、城市地区、工业场所、森林、阿尔卑斯山、火车站、大学校园,以及昼夜、多变天气、烟雾、水和沙子等条件。
Q GrandTour 如何支持足式机器人的状态估计?
A GrandTour 通过提供来自 Leica Geosystems MS60 全站仪的金标准地面真值数据、高端的 12kUSD IMU、带有后处理的双 RTK-GPS,以及具有 1ms 时间同步的高精度传感器校准,来支持足式机器人的状态估计。这使得在复杂现实场景中对定位、制图、多模态感知和接触感知方法进行基准测试时,能够达到毫米级的精度。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!