当前位置: 首页 > news >正文

AMO数据集:解决运动模仿偏差的超灵巧人形机器人全身控制混合数据集。

2025-05-07,由加州大学圣地亚哥分校创建了 Adaptive Motion Optimization (AMO) 数据集,该数据集通过结合运动捕捉数据和概率采样的躯干姿态,生成全身参考动作,以解决运动模仿强化学习中的分布偏差问题。

一、研究背景

人形机器人通过全身运动来扩展其操作空间,例如从地面捡起物体。然而,实现这种能力面临高自由度和非线性动态的挑战。

目前遇到困难和挑战:

1、高自由度和非线性动态:人形机器人全身控制的高维、非线性和接触丰富的特性使得传统基于模型的最优控制方法难以实现。

2、运动模仿的局限性:现有的基于运动捕捉(MoCap)的方法存在运动学偏差,无法满足人形机器人的动态约束,导致模拟运动与硬件可执行行为之间存在差距。

3、实时适应性不足:现有的方法在动态场景中难以快速适应未结构化的输入,例如反应式遥操作或环境干扰。

数据集地址:AMO数据集|人形机器人数据集|运动控制数据集

二、让我们一起看一下AMO数据集

Adaptive Motion Optimization (AMO) 数据集是为了解决人形机器人在高自由度和非线性动态下的全身控制问题而设计的。它通过结合运动捕捉数据和概率采样的躯干姿态,生成全身参考动作,从而提供了一个混合数据集,用于训练能够适应潜在的“Out-of-Distribution”(O.O.D.)命令的网络。

数据集构建

1、混合运动合成:将运动捕捉数据中的手臂轨迹与概率采样的躯干姿态融合,生成上半身命令集。这些命令驱动动力学感知的轨迹优化器,生成全身参考动作。

2、轨迹优化:使用基于动力学的轨迹优化器,将这些命令转换为满足运动学可行性和动态约束的全身参考动作。

3、数据集收集:通过上述方法生成的参考动作被收集并存储,形成 AMO 数据集。

数据集特点

1、混合数据集:结合了运动捕捉数据和概率采样的躯干姿态,消除了传统运动捕捉方法的运动学偏差。

2、动态可行性:生成的参考动作满足动力学约束,确保在真实硬件上可执行。

3、支持全身控制:数据集中的动作涵盖了手臂、躯干和腿部的协调运动,支持超灵巧全身控制。

数据集使用

AMO 数据集用于训练一个网络,该网络能够将躯干命令转换为参考下肢姿态。结合 AMO 模块的输出,可以训练强化学习策略,实现全身控制。

基准测试

在模拟和真实机器人实验中,AMO 数据集支持的系统在全身控制任务中表现出色,与现有方法相比,工作空间扩大了 50%,显著提升了稳定性和适应性。

AMO 使类人形机器人实现超灵活全身运动。

AMO 使类人形机器人实现超灵活全身运动。

(a):机器人从不同高度的平台上取放罐头。

(b):机器人从左侧较高的货架上取下瓶子,放到右侧较低的桌子上。

(c):机器人伸展腿脚将瓶子放到较高的货架上。

(d-g):机器人展示了广泛的躯干俯仰、滚转、偏航和高度调整。

(e):机器人利用臀部电机补偿腰部关节限制,以实现更大的滚转旋转。

与两种近期代表性的人形运动模仿工作的比较。灵活度躯干表示机器人能否调整其躯干的朝向和高度以扩大工作空间。任务空间表示末端执行器。无参考部署表示机器人在部署过程中是否需要参考运动。O.O.D.表示工作是否评估了 O.O.D.性能,这是机器人由人类操作员控制且控制信号高度不可预测的典型情况。

系统概述。

系统分解为四个阶段:

1. 通过轨迹优化收集 AMO 数据集进行 AMO 模块训练;

2. 通过模拟中的师生蒸馏进行 RL 策略训练;

3. 通过逆运动学和重定位进行真实机器人遥操作;

4. 通过 transformer 进行模仿学习(IL)训练真实机器人自主策略。

遥操作系统概述。操作员提供三个末端执行器目标:头部、左腕和右腕姿态。多目标逆运动学计算通过同时匹配三个加权目标来得出上层目标和中间目标。中间目标( 𝐫𝐩𝐲,ℎ )被输入到 AMO 并转换为下层目标。

与基线跟踪误差的比较。每个跟踪误差是在 4096 个环境和 500 步中平均得到的。

最大躯干控制范围的比较。

躯干方向范围比较

评估分布内(I.D.)和分布外(O.O.D.)跟踪结果。每个图都显示了目标方向与实际指令方向的比较。白色区域表示 I.D.,即指令在轨迹优化和 RL 训练中都使用。灰色区域表示 O.O.D.,即指令在轨迹优化或 RL 训练中都不使用。红色和蓝色曲线分别代表无 AMO 和 AMO 的情况。

纸袋拾取:任务开始于机器人调整其躯干,使其橡胶手与把手对齐。然后,机器人应转身移动到目的地桌子适当的位置,站立不动,并使用其上半身关节协调一致地将手从把手中抽出。

垃圾桶扔掷:任务开始时,机器人弯腰并向左转动上半身以抓取垃圾桶。然后,机器人将腰部向右转动约 90 度,将垃圾桶扔进垃圾桶内。

表 IV:每个任务的各个阶段的训练设置和成功率。每个训练设置包括:使用立体(左右眼图像)或单目(单张图像)视觉输入;在动作块分割转换器中使用的块大小。

篮子挑选:这是一个复杂的定姿操作任务,同时也需要全身协调。任务开始于机器人从左侧(1)和右侧(2)挑选两个放置在低处且靠近地面的篮子。然后,机器人站立起来,向前移动(3),并将两个篮子放在与眼睛平齐的架子上(4,5)。在自主运行过程中,显示并标注了电机角度轨迹,以匹配相应的阶段。

三、数据集应用场景

AMO 数据集支持多种超灵巧人形机器人全身控制的应用场景,比如:

1、从地面捡起物体:机器人可以通过全身协调运动,从不同高度的平台上捡起物体并放置到其他位置。

2、高架货架取物:机器人可以伸展腿部,将物体放置到高架货架上,展示了出色的全身协调能力。

3、复杂环境中的物体搬运:机器人可以在复杂的环境中,通过全身运动调整姿态,完成物体的搬运任务。

4、自主任务执行:通过模仿学习,机器人可以自主完成复杂的全身控制任务,例如在不同高度的平台上进行物体的抓取和放置

更多具身智能数据集,请打开:遇见数据集

具身智能具身智能指有物理载体的智能体,在与现实世界交互的过程中,通过感知、控制和自主学习来积累知识和技能,形成智能并影响物理世界的能力。人工智能为机器人赋予大脑,使其具备感知、思考和决策能力。机器人为人工智能提供身体,使其能够与真实世界进行交互,获取经验和知识。具身智能的兴起是人工智能和机器人技术...https://www.selectdataset.com/subject/1866398201374404609

http://www.xdnf.cn/news/346429.html

相关文章:

  • 【使用switch结构输出季节】2021-11-23
  • bootstrap入门
  • 15:00面试,15:06就出来了,问的问题有点变态。。。
  • 私服与外挂:刑事法律风险的深度剖析
  • 存储器:DDR和独立显卡的GDDR有什么区别?
  • (十二)深入了解AVFoundation-采集:人脸识别与元数据处理
  • gitee推送更新失败问题记录:remote: error: hook declined to update refs/heads/master
  • 代码随想录第38天:动态规划11(编辑距离)
  • Babylon.js学习之路《一、初识 Babylon.js:什么是 3D 开发与 WebGL 的完美结合?》
  • JavaScript中数组和对象不同遍历方法的顺序规则
  • 使用chrome浏览器截长图
  • 端口转发与跨域处理
  • 电商平台的流量秘密:代理IP在用户行为分析中的角色
  • WordPress插件:WPJAM Basic优化设置
  • HPE Primera 600 全闪存阵列,添加控制器教程!
  • DBeaver查询PostgreSQL的只读模式
  • RocketMQ的事务消息机制
  • 云平台搭建
  • SATA SSD 与 NVMe PCIe SSD 性能差距有多大?
  • python中的数据封装
  • 【银河麒麟高级服务器操作系统】服务器外挂存储ioerror分析及处理分享
  • vue中操作dom,实现元素的拖拉拽
  • 网络基础入门第6-7集(抓包技术)
  • PHM领域的两个阶段:状态监测与故障诊断
  • SAM详解2.1(好题1)
  • Azure Databricks:数据创新与智能决策的云端利器
  • 生成数论:三生原理与中国数学的多点突破态势?
  • 基础 Python 编程的部分公式和概念总结
  • sherpa:介绍
  • LeetCode:翻转二叉树