当前位置: 首页 > ds >正文

面向具身智能的视觉-语言-动作模型(VLA)综述

具身智能被广泛认为是通用人工智能(AGI)的关键要素,因为它涉及控制具身智能体在物理世界中执行任务。在大语言模型和视觉语言模型成功的基础上,一种新的多模态模型——视觉语言动作模型(VLA)已经出现,通过利用它们独特的生成动作的能力来解决具身智能中的语言条件机器人任务。
近年来,业内开发了各类VLA,文章提出了第一个关于具身人工智能的VLA的调查。这项工作提供了VLA的详细分类,分为三条主要的研究路线。第一条线关注VLA的各个组件、第二条线致力于开发擅长预测低级动作的控制策略、第三条线包括能够将长期任务分解成子任务序列的高级任务规划器,从而引导VLA遵循更通用的用户指令。此外,文章还提供了相关资源的广泛摘要,包括数据集、模拟器和基准。最后,我们-讨论了VLA面临的挑战,并概述了具身智能的未来方向。在这里插入图片描述

图1:视觉-语言-动作模型的一般架构。重要的相关组件显示在虚线框中。视觉-语言-动作模型(VLA)代表一类旨在处理多模态输入的模型,结合视觉、语言和动作模态的信息。该术语最先由RT-2 提出。VLA模型被开发用于解决具身智能中的指令跟随任务。与以ChatGPT为代表的聊天AI不同,具身智能需要控制物理实体并与环境交互。机器人是具身智能最突出的领域。在语言为条件的机器人任务中,策略必须具备1)理解语言指令、2)视觉感知环境、3)生成适当动作的能力,这就需要VLA的多模态能力。相比于早期的深度强化学习方法,基于VLA的策略在复杂环境中表现出更优越的多样性、灵活性和泛化性。这使得VLA不仅适用于像工厂这样的受控环境,还适用于日常生活任务。视觉-语言-动作模型 (VLA)是处理视觉和语言的多模态输入并输出机器人动作以完成具身任务的模型。它们是具身智能领域在机器人策略指令跟随的基石。这些模型依赖于强大的视觉编码器、语言编码器和动作解码器。在大型VLM的成功基础上,VLA模型已经展示了其在应对复杂任务挑战方面的潜力,如图1所示。与VLM类似,VLA利用视觉基础模型作为视觉编码器来获得当前环境状态的预训练视觉表示,例如对象类别、姿态和几何形状。VLA使用其大语言模型的令牌嵌入(token embeddings)对指令进行编码,并采用各种策略来调整视觉和语言嵌入,包括BLIP-2和LLaVA等方法。通过对机器人数据进行微调,大语言模型可以充当解码器来预测动作和执行语言条件机器人任务。在这里插入图片描述
图2:(a)概述本文讨论的具身智能主要概念的维恩图。(b)追踪从单模态模型到视觉-语言-动作模型演变的时间线。VLA与三条工作线密切相关,如图2b中的时间线和图3中的分类法所示。一些方法侧重于VLAs(III-A)的单个组件,如预训练的视觉表示、动力学学习(dynamics learning)、世界模型和推理。与此同时,大量的研究致力于低级控制策略(III-B)。在这一类别中,语言指令和视觉感知被输入到控制策略中,然后控制策略生成低级动作,如平移和旋转,从而使VLAs成为控制策略的理想选择。相比之下,另一类模型充当高级任务规划器,负责任务分解(§IV)。这些模型将长期任务分解为一系列子任务,这些子任务反过来引导VLAs实现总体目标,如图4所示。当前大多数机器人系统都采用这样的分层框架,因为高级任务规划器可以利用具有高容量的模型,而低级控制策略可以专注于速度和精度,类似于分层强化学习。为了更全面地概述具身智能的当前进展,提出了“VLA”的广义定义,如图2a所示。将VLA定义为任何能够处理来自视觉和语言的多模态输入以产生完成具体化任务的机器人动作的模型,通常遵循图1中的架构。VLA的最初概念是指一种使VLM适应机器人任务的模型[2]。类似于大语言模型和更通用的语言模型之间的区别,我们将原始VLAs指定为“大型VLAs”(LVLAs),因为它们基于大语言模型或大型VLM。在这里插入图片描述
图3:VLA模型的分类。VLA的组成部分视觉语言具身智能(Vision-Language-Action, VLA)模型的发展依赖于多个关键组件的协同优化。这些组件从感知、决策到世界建模和推理,共同推动了具身智能的进步。以下是各核心组件的详细介绍:强化学习(Reinforcement Learning, RL)强化学习在VLA模型中扮演关键角色,其状态-动作-奖励序列与序列建模问题高度契合,使得Transformer能够有效处理RL任务。Decision Transformer(DT)和Trajectory Transformer(TT)率先将RL问题转化为序列预测任务,利用Transformer的自回归特性优化策略学习。Gato进一步扩展了这一范式,支持多模态输入和跨任务泛化。此外,基于人类反馈的强化学习(RLHF)已成为大语言模型(LLM)训练的重要组成部分,例如SEED通过结合技能RL和人类反馈解决长周期任务的稀疏奖励问题。Reflexion则创新性地用语言反馈替代传统RL的权重更新机制,使模型能够通过自然语言交互优化策略。预训练视觉表征(Pretrained Visual Representations, PVRs)视觉编码器的质量直接影响VLA模型的性能,因为它决定了机器人对环境的理解能力。CLIP通过大规模图像-文本对比学习训练,成为机器人领域广泛采用的视觉编码器。R3M提出时间对比学习和视频-语言对齐两个目标,分别增强时序一致性和语义相关性。MVP借鉴计算机视觉中的掩码自编码(MAE)方法,在机器人数据集上进行视觉重建预训练。Voltron在MAE基础上引入语言条件生成,提升视觉与语言模态的对齐能力。DINOv2采用自蒸馏框架,结合多裁剪增强策略,在像素和图像级别同时学习表征。I-JEPA通过联合嵌入预测架构,专注于局部图像特征的建模。Theia则通过蒸馏多个视觉基础模型(如分割、深度估计)构建轻量且高性能的单一模型。视频表征(Video Representations)视频数据不仅包含单帧图像信息,还蕴含丰富的时序和3D结构信息。传统方法通过逐帧提取PVRs拼接成视频表征,但新兴技术如NeRF和3D高斯泼溅(3D-GS)能够直接从视频中重建3D场景,为机器人提供更丰富的环境理解。例如,F3RM和3D-LLM利用NeRF提取3D几何信息,而PhysGaussian和UniGS则基于3D高斯泼溅实现动态场景建模。此外,视频中的音频信息(如环境声音)也可作为机器人策略的重要输入,增强多模态感知能力。动力学学习(Dynamics Learning)动力学学习旨在让模型掌握环境的状态转移规律,包括前向动力学(预测下一状态)和逆向动力学(预测动作)。Vi-PRoM通过对比学习和伪标签分类预训练视频模型,提升时序动态建模能力。MIDAS专注于逆向动力学预测,将观测序列转化为动作序列。SMART结合前向、逆向动力学和随机掩码 hindsight 控制,同时建模局部和全局时序依赖。MaskDP采用掩码决策预测任务,联合学习状态和动作的重建。PACT通过自回归预测状态-动作序列,构建通用动力学模型,适用于导航等下游任务。VPT利用半监督模仿学习,基于少量标注数据预训练Minecraft基础模型,最终实现人类水平性能。世界模型(World Models)世界模型能够编码常识知识并预测未来状态,支持基于模型的规划和想象训练。Dreamer系列工作通过潜在动力学模型(包含状态编码、转移和奖励预测模块)实现高效想象优化。IRIS采用类似GPT的自回归Transformer作为世界模型基础,结合VQ-VAE视觉编码器生成想象轨迹。TWM探索了纯Transformer架构在世界建模中的应用。这些模型使机器人能够在执行真实动作前,通过内部模拟搜索最优策略。LLM诱导的世界模型(LLM-induced World Models)大语言模型(LLM)蕴含丰富的常识知识,可被转化为符号化世界模型。DECKARD利用LLM生成抽象世界模型(AWM),指导Minecraft中的物品合成任务。LLM-DM将LLM转化为规划域定义语言(PDDL)的生成器,构建符号化仿真器辅助规划。RAP将LLM同时作为策略和世界模型,结合蒙特卡洛树搜索(MCTS)实现结构化推理。LLM-MCTS进一步扩展至部分可观测环境(POMDPs),利用LLM的常识知识缩小搜索空间。视觉世界模型(Visual World Models)与文本世界模型不同,视觉世界模型能够生成未来状态的图像、视频或3D场景。Genie提出生成式交互环境框架,通过无监督视频训练实现帧级交互模拟。3D-VLA利用扩散模型生成目标图像或点云,指导机器人完成任务。UniSim基于真实交互视频构建生成模型,模拟高低层级动作的视觉结果。这些模型能够生成逼真的环境交互数据,为机器人提供丰富的训练经验。在这里插入图片描述
图4:分层机器人策略的图示。高级任务规划器将用户指令分解为子任务,然后由低级控制策略逐步执行。低层控制策略(Low-level Control Policies)非Transformer控制策略在Transformer架构普及之前,研究者们已经探索了多种基于传统神经网络架构的低层控制策略。CLIPort是这一时期的代表性工作,它创造性地将CLIP的视觉语言编码能力与Transporter网络的空间推理能力相结合,形成了一个双流处理架构。其中语义流通过CLIP提取图像的高级语义特征,空间流则利用Transporter网络处理RGB-D数据以精确定位物体空间位置。这种分离处理的方式使得系统能够同时理解"要操作什么"和"在哪里操作",最终输出精确的抓取和放置位姿。BC-Z则采用了不同的技术路线,通过FiLM(Feature-wise Linear Modulation)层实现语言指令与视觉特征的深度融合,这种条件调节机制使模型能够将抽象的语言指令转化为具体的动作策略,展现出强大的零样本泛化能力。MCIL突破了传统任务ID或目标图像的条件限制,开创性地支持自由形式的自然语言指令输入,其关键创新在于设计了一个共享的编码空间,使得语言目标和视觉目标可以相互转换,从而能够充分利用大量未标注的演示数据。HULC系列工作则提出了更为复杂的层次化架构,将高层规划与底层控制解耦,其中顶层的Transformer负责长时程任务分解,底层网络处理即时动作生成,同时引入视觉语言对比学习损失来增强多模态对齐。这些早期探索为后续Transformer-based控制策略的发展奠定了重要基础。Transformer-based控制策略随着Transformer在序列建模中的优势得到验证,控制策略设计逐渐向Transformer架构收敛。Interactive Language系统展示了语言实时引导的强大能力,其核心在于构建了规模空前多样的语言指令数据集,使Transformer策略能够精准理解并执行复杂的长时程重排列任务。Hiveformer则进一步强调了多视角观测和历史信息的重要性,相比传统单帧输入的方法,其设计的时空注意力机制能够更好地捕捉场景动态变化。Gato作为里程碑式的工作,首次实现了单一模型在Atari游戏、图像描述和积木堆叠等多个领域的通用控制,其突破点在于设计了统一的分词方案,将不同模态和任务的输入输出都转化为标准化的token序列。RoboCat在Gato基础上引入了自我改进机制,通过迭代式微调和自动数据生成,仅需100条演示就能快速适应新任务,其创新的未来观测预测目标显著提升了样本效率。RT-1对BC-Z架构进行了全面升级,采用更高效的EfficientNet视觉编码器,并将MLP动作解码器替换为Transformer解码器,通过注意力机制整合历史观测,在真实机器人任务中展现出卓越性能。Q-Transformer则开创性地将Q-learning引入Transformer策略,通过自回归Q函数和保守正则化,能够同时利用成功和失败的演示数据。RT-Trajectory提出了轨迹草图条件控制的新范式,将传统语言指令扩展为直观的空间轨迹指导,大幅提升了新物体和新任务的泛化能力。ACT及其改进版本MT-ACT采用条件VAE框架,通过动作分块预测和时间集成技术增强动作序列的连贯性。RoboFlamingo则证明已有视觉语言大模型(如Flamingo)只需添加简单的LSTM策略头就能有效迁移到机器人控制任务。多模态指令控制策略多模态指令控制策略突破了纯文本指令的限制,开创了更丰富的人机交互方式。VIMA系统是这一方向的先驱,它设计了包括物体操作、视觉目标达成、新概念理解、单次视频模仿等在内的多模态提示体系,通过专门的VIMA-Bench评测平台系统评估了模型在位置泛化、组合泛化、新物体泛化和新任务泛化四个层级的表现。其核心创新在于构建了统一的提示编码器,能够同时处理语言、图像、视频等多种形式的任务描述。MOO在RT-1基础上扩展了多模态指令处理能力,通过集成OWLViT图像编码器,系统能够理解基于指向动作、GUI点击等非语言形式的指令输入。这类方法的关键挑战在于建立跨模态的共享表征空间,使得不同形式的指令都能映射到统一的控制策略空间。最新研究还探索了如何将触觉反馈、语音指令等更多模态融入控制系统,进一步丰富人机交互的维度。3D视觉控制策略3D视觉控制策略致力于利用三维场景表征提升控制精度和鲁棒性。PerAct是该领域的突破性工作,它采用3D体素作为统一表征,通过多视角RGB-D重建构建场景的立体几何结构,将动作预测转化为目标体素选择问题,这种显式的结构先验使模型仅需少量演示就能学会复杂操作。Act3D则提出连续分辨率3D特征场,通过自适应分辨率平衡计算效率和表征精度。RoboUniView通过UVFormer模块将多视角图像转化为3D占据信息,显著提升了抓取成功率。VER在视觉语言导航任务中验证了由粗到细的体素化策略的有效性。RVT系列工作另辟蹊径,采用虚拟重渲染技术从场景点云生成新颖视角图像,避免了直接处理3D数据的复杂性。这些方法共同面临的挑战是如何在计算开销和表征丰富度之间取得平衡,以及如何处理动态场景的实时更新问题。最新趋势是将神经辐射场(NeRF)和3D高斯泼溅等先进三维重建技术融入控制框架,以获取更精确的场景几何和语义信息。扩散控制策略扩散控制策略将图像生成领域的扩散模型成功迁移到动作预测领域。Diffusion Policy是开创性工作,它将机器人策略建模为去噪扩散过程,采用DDPM框架并结合滚动时域控制、视觉条件化和时序扩散Transformer等技术,有效解决了多模态动作分布、高维动作空间的挑战。SUDD构建了LLM引导的数据生成和蒸馏框架,通过组合基础机器人原语(如抓取采样器和运动规划器)生成高质量训练数据,再蒸馏到扩散策略中。Octo设计了模块化的Transformer扩散架构,支持灵活接入不同任务编码器和观测编码器,在Open X-Embodiment大规模数据集上验证了跨机器人的知识迁移能力。MDT将视觉领域的DiT模型引入动作预测,配合掩码生成预测和对比潜在对齐两个辅助目标,性能超越传统U-Net架构。RDT-1B专注于双手操作任务,通过统一动作格式实现跨机器人数据集预训练,其10亿参数规模的模型展现出强大的零样本泛化能力。这些方法的核心优势在于能够自然地表征多峰动作分布,但实时推理速度仍是实际部署的主要瓶颈。运动规划控制策略运动规划控制策略专注于将高层任务分解为满足约束的可行轨迹。Language Costs提出基于语言代价函数的规划框架,通过将自然语言指令转化为代价图来指导运动规划,支持用户通过语言交互实时修正目标。VoxPoser创新性地将LLM的编程能力与VLM的感知能力结合,无需训练即可生成满足语言指令的可行轨迹,其核心是构建3D体素化的操作可行域和约束域表示。RoboTAP通过TAPIR算法从演示视频中提取关键点轨迹,构建分阶段的视觉伺服控制策略。这类方法的关键挑战在于如何将抽象的语言约束准确转化为数学形式的运动约束,以及如何处理复杂环境下的实时规划问题。最新进展探索如何将基于采样的传统规划算法与学习型策略相结合,在保证安全性的同时提升规划效率。基于点的控制策略基于点的控制策略探索轻量化的动作表征方式。PIVOT将机器人任务重构为视觉问答问题,通过VLM在图像关键点上进行迭代选择,大幅降低了动作预测的复杂度。RoboPoint通过微调VLM实现空间可行域预测,将2D图像点映射为3D动作。ReKep提出基于3D关键点的约束优化框架,将复杂任务分解为一系列关键点约束的求解问题。这些方法的优势在于能够直接复用现有视觉语言模型,实现零样本或少样本的控制策略生成,但通常需要额外的运动规划模块来实现精确控制。当前研究重点是如何提升点预测的精度和稳定性,以及如何将离散点选择与连续动作优化更好地结合。大规模视觉语言动作模型大规模视觉语言动作模型(LVLA)代表了当前最前沿的研究方向。RT-2通过联合微调互联网规模VQA数据和机器人数据,使模型涌现出符号推理和语义理解等高级能力。RT-H引入语言动作中间层,构建"指令-语言动作-底层动作"的三层架构,既改善了任务间的知识共享,又支持语言级错误修正。RT-X系列通过Open X-Embodiment大规模数据集训练,验证了跨机器人知识迁移的可行性。OpenVLA作为开源替代方案,探索了LoRA和量化等高效微调技术。π-0采用流匹配架构将预训练VLM扩展为VLA,通过混合专家框架平衡通用知识和专业技能。这些大型模型虽然展现出惊人的泛化能力,但也面临计算成本高、推理延迟大等实际挑战,催生了TinyVLA等轻量化解决方案的研究。未来发展方向包括更高效的架构设计、更灵活的任务适应机制,以及更可靠的安全保障体系。在这里插入图片描述
图5:基于Transformer的控制策略的三种常见视觉语言融合方法。FiLM层(Hadamard product⊙)用于RT-1模型中。有人利用交叉注意力来调节指令。级联(⊕)是LVLAs中的主要方法。任务规划器(Task Planners)整体式任务规划器(Monolithic Task Planners):单个大语言模型或多模态大语言模型(MLLM)通常可以通过采用定制的框架或通过对包含的数据集进行微调来生成任务计划。我们将这些称为整体模型。基于落地的任务规划器(Grounded Task Planners)基于落地的任务规划器专注于将抽象任务分解为可执行子任务,同时考虑低层控制策略的实际可行性。SayCan提出了开创性的任务落地框架,通过结合LLM的语义规划能力("说"出可能技能)和低层策略的可行性评估("能"执行程度),实现了高层指令到具体动作的可靠转换。Translated ⟨LM⟩采用独特的双阶段规划机制,先由生成式LLM产生自然语言动作描述,再通过掩码语言模型将其映射为具体可执行动作,并创新性地引入"重新提示"策略来处理执行过程中的前提条件错误。(SL)³算法通过分段、标记和参数更新的迭代学习过程,从稀疏语言标注中自动发现可重用技能模块,构建了层次化的策略表示。这类方法的核心价值在于建立了语义规划与物理执行之间的可靠桥梁,其技术挑战主要来自动态环境下可行性评估的准确性,以及多步任务分解的长期一致性维护。端到端任务规划器(End-to-end Task Planners)端到端任务规划器利用大规模多模态语言模型的涌现能力,直接实现从指令到计划的端到端生成。PaLM-E通过深度融合ViT视觉编码器和PaLM语言模型,构建了统一的多模态推理架构,既能处理常规的视觉问答任务,又能生成可指导机器人执行的详细计划,并具备根据环境观测实时调整的动态重规划能力。EmbodiedGPT创新设计了具身变形器模块,通过联合优化视觉特征提取和规划信息生成,输出包含空间上下文的任务实例特征,为低层策略提供丰富的执行上下文。这类方法的显著优势是避免了传统流水线式系统的信息损失,但其成功高度依赖互联网规模的多模态预训练数据,且存在计算成本高、决策过程可解释性弱等实际问题。当前研究前沿集中在模型轻量化、物理约束注入和可解释性增强等方向。支持3D视觉的端到端规划器(End-to-end Task Planners with 3D Vision)支持3D视觉的端到端规划器通过扩展传统视觉语言模型架构,显著提升了空间理解和三维交互能力。LEO采用创新的两阶段训练范式,先通过3D视觉语言对齐学习建立几何理解基础,再经指令微调阶段获得精确的动作规划能力,在复杂操作和导航任务中展现出卓越表现。3D-LLM构建了灵活的多模态3D特征接口,支持点云、神经辐射场等多种三维表征的融合处理,使语言模型首次具备真正的三维空间推理能力。MultiPLY突破性地将感知模态扩展到触觉、音频等物理交互信号,建立了以物体为中心的具身认知框架。ShapeLLM则通过创新的ReCon++编码器架构,实现了从多视角视觉教师到点云表征的知识蒸馏,在其提出的3D MM-Vet基准测试中刷新了性能记录。这些技术的突破性在于将离散的语言指令与连续的三维动作空间建立了直接关联,但面临3D数据获取成本高、实时计算负载大等工程挑战,未来发展重点包括高效3D表征学习、跨模态对齐优化和增量式场景理解等技术方向。模块化任务规划器(Modular Task Planners):在嵌入数据上微调端到端模型可能是昂贵的,并且有一些方法通过将现成的大语言模型和VLM组装到任务规划器中来采用模块化设计。基于语言的任务规划器(Language-based Task Planners)基于语言的模块化任务规划器通过自然语言描述实现多模态信息交换,构建了灵活可扩展的规划系统。Inner Monologue创新性地在高层指令和低层策略间建立闭环规划机制,利用LLM生成可执行语言指令并根据策略反馈动态调整,其反馈系统整合了任务成功状态、物体场景变化和人工输入等多源信息,全部以文本形式实现无需额外训练。ReAct采用类似的交替执行推理与动作的框架,通过语言空间实现多模态对齐。LLM-Planner进一步提出分层规划架构,高层LLM生成自然语言计划后由低层规划器转化为原始动作,并引入动态重规划机制解决执行卡顿问题。LID通过主动数据收集(ADG)和事后重标记技术最大化利用失败轨迹数据,其语言模型策略展现出强大的组合泛化能力。Socratic Models突破性地构建了无需微调的模块化系统,通过多模态提示技术实现预训练模型间的即插即用协作,将非语言输入统一转化为语言描述进行规划,在机器人感知和规划任务中表现出独特优势。这些方法的共同特点是通过自然语言这一通用接口降低模块间耦合度,但需要精心设计提示工程来确保生成计划与低层策略的兼容性。基于代码的任务规划器(Code-based Task Planners)基于代码的任务规划器充分利用大模型的程序生成能力,将任务规划转化为可执行代码的编写过程。ProgPrompt开创性地采用类程序规范提示LLM生成家务任务计划,通过程序断言机制整合环境反馈,实现少量示例引导的规划。ChatGPT for Robotics构建了"用户在环"的控制范式,通过定义物体检测、抓取等API接口,引导模型生成可调试的控制代码,结合仿真环境和用户反馈迭代优化。Code as Policies(CaP)深入挖掘GPT-3和Codex的代码生成潜力,创建可直接调用感知模块和控制原语的策略代码,在空间几何推理和新指令泛化方面表现突出,其升级版COME-robot通过GPT-4V的多模态能力消除了独立感知API的需求。DEPS提出"描述-解释-规划-选择"四步框架,不仅生成计划还能对失败进行自我解释式重规划,并创新性地引入可训练的子目标选择器优化执行路径。ConceptGraphs将观测序列转化为开放词汇的3D场景图,通过2D分割模型和VLM标注构建富含语义空间关系的JSON描述,为代码生成提供结构化环境表征。这类方法的核心价值在于将规划过程程序化,既保留了传统代码的精确可控优势,又获得了LLM的语义理解能力,但性能受限于模型编程能力且需要预先封装完备的API文档体系。技术特性与权衡模块化任务规划器通过组合现成LLM和VLM构建,相比整体式规划器具有更低部署成本。基于语言的方案天然适配大模型的文本处理优势,Inner Monologue和ReAct等通过精巧的反馈机制实现闭环规划,但需要额外转换层对接低层策略。基于代码的方案如ProgPrompt和CaP虽然需要预先封装API,但能直接生成可调试的执行代码,DEPS的自我解释机制进一步提升了系统可靠性。ConceptGraphs创新的3D场景图表示弥补了纯文本描述的空间信息缺失。当前挑战集中在如何平衡模块化带来的灵活性损失,以及如何构建更高效的跨模态接口。最新趋势是结合语言和代码的双重优势,如COME-robot通过多模态大模型消除独立感知模块,或探索视觉程序生成等混合表征方式。未来突破可能来自动态模块组合机制和神经符号结合的新型架构。在这里插入图片描述
图6:在模块化任务规划器中将大语言模型连接到多模态模块的不同方法。数据集与基准测试(Datasets and Benchmarks)真实机器人数据集与基准测试真实世界机器人数据收集面临三重核心挑战:硬件成本与时间投入构成第一道门槛,从机器人设备采购到专家演示数据采集需要大量资源投入;跨平台异构性带来第二重障碍,不同机器人的传感器配置、控制模式和末端执行器差异导致数据难以统一;6D位姿标注与实验可复现性则是第三大技术瓶颈。当前主流数据集如Bridge V2和RT-1-X通过多机器人协作缓解数据规模问题,而Open X-Embodiment通过标准化数据格式促进跨平台知识迁移。值得注意的是,真实场景评估必须依赖人工评判,这导致评测成本居高不下,MetaWorld等基准通过定义细粒度任务分解指标部分缓解该问题,但动态环境中的长期任务评估仍具挑战性。
仿真环境与模拟数据集仿真技术通过虚拟环境突破物理限制,Gazebo和Isaac Sim等平台支持大规模并行数据采集,但仿真与现实间的领域差距形成显著障碍。该差距源自三重因素:图形渲染保真度不足导致视觉域差异,物理引擎精度限制影响动力学建模,以及物体参数化建模误差引入系统偏差。为解决这些问题,NVIDIA Omniverse等平台采用实时光线追踪提升视觉真实度,PyBullet则通过GPU加速提高物理仿真精度。TDW和ThreeDWorld创新性地引入非刚性物体模拟能力,而SAPIEN专注于可操作物体的精确物理特性建模。仿真基准测试如BEHAVIOR和VirtualHome的优势在于提供自动化评估指标,支持精确的实验复现和公平比较,但如何建立有效的仿真到现实迁移评估体系仍是开放问题。自动化数据收集技术自动化数据采集系统通过算法生成替代人工干预,RoboGen采用生成式仿真范式自动设计训练课程,其三步循环包含技能提案、环境生成和策略优化,显著提升数据多样性。AutoRT构建LLM驱动的机器人编排框架,通过任务生成、可行性过滤和混合执行(自主策略与人工遥操作结合)实现闭环数据生产。DIAL专注于语言指令增强,利用VLM对现有数据集进行语义扩展,而RoboPoint通过程序化生成随机3D场景解决特定任务数据匮乏问题。这些技术的共同突破是建立了数据生产的自主进化机制,但生成数据的质量监控和偏差控制仍需深入研究。人类行为数据集人类演示数据因其灵巧性和多样性成为重要补充,但存在三大应用瓶颈:运动捕捉系统难以精确转换人体 kinematics 到机器人形态,Kinect等设备采集的第三方视角数据与机器人第一视角存在表征差异,且原始数据包含大量无关动作需要清洗。UMI通过手持式夹爪设备采集人体操作数据,在保持演示自然性的同时解决形态差异问题。大规模数据集如Something-Something和Epic-Kitchens提供丰富的日常活动记录,但需要复杂的预处理才能转化为可用训练数据。当前研究前沿集中在运动重定向算法开发和跨形态技能迁移技术上。任务规划基准测试任务规划评估体系呈现多维度发展趋势,EgoPlan-Bench通过人工标注实现真实场景细粒度评估,但扩展性受限。PlanBench创新性地建立多维评估框架,从成本最优性、计划验证到动态重规划能力进行全面测评。LoTa-Bench将规划执行环节纳入评估,通过模拟器运行生成计划计算成功率,而EAI提出模块化接口标准,支持对LLM决策过程的细粒度诊断。这些基准共同推动规划系统从静态评估向闭环验证演进,但如何平衡评估复杂度和可扩展性仍是挑战。具身问答基准测试具身问答(EQA)基准测试开创性地将主动探索引入评估体系,EmbodiedQA和IQUAD奠定基础框架,要求智能体在回答前通过导航探索环境。MT-EQA扩展至多目标复合问题,MP3D-EQA将视觉输入升级为点云数据以测试3D推理能力。EgoVQA和EgoTaskQA聚焦第一人称视角,分别强化时空推理和因果关系理解。EQA-MX突破性地引入非语言模态(如视线注视和指向手势),OpenEQA则构建七维评估体系涵盖从功能推理到世界知识的全面测评。这类基准的核心价值在于评估物理常识和空间推理等基础能力,但当前仍受限于模拟器环境,真实场景的主动探索评估体系尚待建立。总结当前,视觉语言动作(VLA)模型在具身智能领域取得了显著进展,但仍面临诸多关键挑战。安全性始终是机器人系统的核心考量,需要结合常识推理、风险评估和人机交互协议构建可靠的安全保障体系。数据集与基准测试的扩展性、多样性以及细粒度评估能力仍需提升,以支持更全面的模型诊断与优化。基础模型的泛化能力仍落后于NLP领域的LLMs,如何构建适应多样化任务、环境和具身形态的通用机器人基础模型(RFM)是未来重要方向。多模态融合技术虽已取得突破,但如何高效对齐视觉、语言、触觉、音频等模态,并实现动态环境下的自适应推理仍待探索。长时程任务的端到端规划框架、实时响应能力的优化、多智能体协作系统的通信与调度机制,以及伦理与社会影响的规范化研究,都是推动VLA技术落地的关键课题。未来,随着医疗护理、工业自动化等新应用场景的拓展,VLA模型需结合领域知识(如医学图像分析)和隐私保护技术(如联邦学习),构建更安全、可靠、高效的智能系统。跨学科协作与技术创新将共同推动具身智能从实验室走向现实世界,最终实现与人类社会的无缝融合。论文:Ma, Y.; Song, Z.; Zhuang, Y.; Hao, J.; King, I. A Survey on Vision-Language-Action Models for Embodied AI. arXiv March 4, 2025. https://doi.org/10.48550/arXiv.2405.14093.原文链接:https://arxiv.org/pdf/2405.14093v3

http://www.xdnf.cn/news/6194.html

相关文章:

  • 大数据开发 hadoop集群 3.Hadoop运行环境搭建
  • 【Linux】第十六章 分析和存储日志
  • voip--初始化libosip2库
  • 首个专业AI设计Agent发布-Lovart
  • nvrtc环境依赖
  • C++类和对象之相关特性
  • 养猪场巡检机器人的设计与应用研究
  • Python环境管理工具深度指南:pip、Poetry、uv、Conda
  • Vue3学习(组合式API——Watch侦听器详解)
  • Large-Scale Language Models: In-Depth Principles and Pioneering Innovations
  • 输入一个正整数,将其各位数字倒序输出(如输入123,输出321)
  • 基于GPUGEEK 平台进行深度学习
  • 昆士兰科技大学无人机自主导航探索新框架!UAVNav:GNSS拒止与视觉受限环境中的无人机导航与目标检测
  • [学习] RTKLib详解:rtcm2.c、rtcm3.c、rtcm3e与rtcmn.c
  • 阿里云Docker镜像加速配置指南
  • Nginx配置与应用案例详解
  • 深圳无人机展览即将开始,无人机舵机为什么选择伟创动力
  • Single image dehazing论文阅读
  • 鸿蒙OSUniApp 实现的语音输入与语音识别功能#三方框架 #Uniapp
  • Python----神经网络(《Searching for MobileNetV3》论文概括和MobileNetV3网络)
  • Qt原型模式实现与应用
  • auto.js面试题及答案
  • python如何合并excel单元格
  • 在Spark搭建YARN
  • wordcount程序
  • 青少年编程与数学 02-019 Rust 编程基础 12课题、所有权系统
  • 自由学习记录(60)
  • 原型设计的作用
  • 人工智能驱动的临床路径体系化解决方案与实施路径
  • libarchive.so.19丢失