当前位置: 首页 > news >正文

社交机器人具身导航新范式!AutoSpatial:通过高效空间推理学习实现机器人视觉语言推理和社交导航

  • 作者:Yangzhe Kong, Daeun Song, Jing Liang, Dinesh Manocha, Ziyu Yao, and Xuesu Xiao

  • 单位:乔治梅森大学,马里兰大学

  • 论文标题:AutoSpatial: Visual-Language Reasoning for Social Robot Navigation through Efficient Spatial Reasoning Learning

  • 论文链接:https://arxiv.org/pdf/2503.07557

  • 代码链接:https://github.com/Yanko96/AutoSpatial (coming soon)

主要贡献

  • 提出了基于视觉语言模型(VLM)的方法AutoSpatial,通过结构化的空间定位和自动标注的视觉问答(VQA)对,显著提升了VLM在社会导航中的空间推理能力。

  • 引入了自动数据标注策略,结合两轮VQA结构,高效解决了特定领域数据稀缺问题,同时分层增强了空间理解能力。

  • 通过专家系统(如GPT-4o、Gemini 2.0 Flash、Claude 3.5 Sonnet)的交叉验证评分和人类评估者的相对排名,证明了AutoSpatial在感知与预测、推理、行动和解释等方面的显著优势。

研究背景

  • 社会导航是人机交互中的一个基本挑战,要求机器人不仅能够避开障碍物,还要以符合社会规范的方式进行导航。尽管传统方法和基于学习的方法已经取得了一定进展,但在动态和社交环境中仍面临关键挑战。

  • 近年来,视觉语言模型(VLM)在机器人推理方面展现出巨大潜力,但在社会导航中的应用受到限制,主要原因是缺乏空间推理能力,例如无法准确预测人类运动和人机交互,导致在动态社交环境中的决策不够理想。

  • 此外,现有的自然语言注释数据集主要关注自动驾驶等结构化驾驶场景,而涉及行人交互、复杂社交规范的图像文本数据集尚未得到充分探索,这使得VLM难以在没有大量人工监督的情况下进行有效泛化。

研究方法

结构化空间定位

  • 将空间关系分解为两个独立组件:人类的位置描述(包括角度位置和距离)以及人类运动方向的描述。

  • 通过将机器人视野划分为五个区域和五级距离分类,并采用相对坐标系统描述行人运动方向,消除了相对方向描述中的模糊性,为感知和预测提供了统一的参考框架。

数据标注

  • 自动标注的VQA对
    • 基于CODA数据集,利用规则启发式方法生成VQA对,涵盖空间感知、运动预测和交互描述三个方面。

    • 空间感知包括行人的位置和运动方向描述;运动预测分析短期轨迹,识别运动模式;交互描述则识别各种交互模式,如轨迹冲突、路径交叉等。

  • 手动标注
    • 从CODA数据集中挑选72个具有挑战性的场景进行手动标注,重点关注高行人密度环境、复杂社交分组模式以及需要从个体到群体理解的场景。

    • 手动标注遵循结构化的5项任务格式:感知、预测、推理、最终行动和解释,并提供结构化空间定位指南以减少主观性。

两轮VQA结构

  • 对于手动标注的场景,采用两轮VQA结构以实现分层学习。

  • 第一轮是自动标注的VQA,关注个体行人的空间感知、预测和推理;

  • 第二轮是手动标注,将个体描述整合为全面的场景描述,涵盖群体动态和高级空间推理。

实验

  • 实验设置
    • 基于LLaVA-1.6 OneVision-7B模型进行实验,使用4个A100 80GB GPU。

    • 采用AdamW优化器,学习率为2e-5,批大小为8,梯度累积步数为4。

    • 评估框架包括自动化指标(针对CODA数据集的基本空间推理)和人类评估(针对SNEI基准的高级场景理解)。

  • 结果

    • 在CODA基准测试中,AutoSpatial(AS-A72D1)在空间推理方面得分为0.710,显著优于仅使用手动标注的LLaVA-M(0.404)和原始LLaVA(0.376)。

    • 在专家系统评估中,AutoSpatial在感知与预测、推理、行动和解释等方面均优于基线模型,平均交叉验证分数分别提高了10.71%、16.26%、20.50%和18.73%。

    • 人类评估结果也显示,AutoSpatial在所有关键方面均优于基线模型。

    • 消融研究表明,仅使用感知与预测VQA任务的模型在该方面表现良好,但在其他方面提升有限;仅使用推理VQA任务的模型在推理、行动和解释方面有所改善,但在基本空间理解上表现不佳。这表明不同类型的VQA任务与手动标注相结合才能实现最佳性能。

    • 定性分析表明,AutoSpatial在识别关键参与者及其相对位置方面表现出色,能够提供更具体、符合社交规范的导航指令,但在理解人类微妙线索(如目光方向和身体姿态)方面仍存在不足。

结论与未来工作

  • 结论
    • AutoSpatial通过结合自动标注数据和少量手动标注,显著提升了VLM在社会导航中的空间推理能力。

    • 实验结果表明,自动标注的VQA对与手动标注相结合能够产生协同效应,即使在减少手动标注的情况下也能保持良好性能。

  • 未来工作
    • 进一步改进人类行为理解能力,特别是对微妙社交线索的识别,以更好地处理复杂场景中的人类交互。

    • 提高空间术语的一致性,确保模型在各种环境中都能准确使用标准化的空间描述。

    • 融合时间序列信息,以更好地理解人类的连续运动和意图,并在多视角下保持一致的空间推理。

http://www.xdnf.cn/news/1000549.html

相关文章:

  • 告别无效买量!Data+AI赋能游戏增长
  • Qt中的OpenGL (4)[纹理]
  • 用Rust如何构建高性能爬虫
  • 紫光展锐完成优化升级,支持Android 16,以科技创新共赴智能体验新篇章
  • pytorch 之 nn 库与调试
  • 知识变现新范式:创客匠人如何重构中医行业商业逻辑
  • 从监测滞后到全域智控:河湖智慧化管理方案
  • PCB设计教程【大师篇】stm32开发板PCB模块化布局
  • Java八股文——MySQL「存储引擎篇」
  • Python+TensorFlow:30分钟快速入门AI开发
  • Lesson 27 A wet night
  • 常见Modbus协议面试问题
  • 基于Springboot+UniApp+Ai实现模拟面试小工具一:系统需求分析及设计
  • 一步一步学python之(5)基本语法
  • 科技文明的奇妙锻造之旅
  • CentOS7下MySQL8.0的安装到基本操作
  • 【机器学习】PCA
  • uniapp开发的app和原生的app开发各有什么优缺点
  • 新能源汽车诊断协议深度解析:从J1939到AUTOSAR的实战指南
  • WordToCard制作高考志愿填报攻略小卡片【豆包版】
  • Java List操作与遍历全攻略
  • 【C++】多重继承与虚继承
  • 《单光子成像》第二章 预习2025.6.12
  • 日语语法学习
  • 第九节 高频代码题-实现Sleep函数(异步控制)
  • 【论文解读】WebThinker:让推理模型学会深度和广度地搜索信息
  • 同时装两个MySQL, 我在MySQL5的基础上, 安装MySQL8
  • Web API 路径设计哪家强
  • 基于SpringAI实现专家系统
  • WebRTC(三):P2P协议