当前位置: 首页 > news >正文

ICCV 2025|TRACE:无需标注,用3D高斯直接学习物理参数,从视频“预知”未来!

论文链接:https://arxiv.org/pdf/2507.01484

导读

准确预测道路智能体的运动对于自动驾驶的安全性至关重要。当前,现有的数据驱动方法直接预测未来轨迹,缺乏对驾驶行为的充分考虑,限制了可解释性和可靠性。为此,本文引入了一种可解释的、奖励驱动的意图推理器来解决这一问题。实验结果表明,本文所提出的预测器能够生成高置信度、可靠的未来轨迹,同时与现有的最先进模型相比,实现了极具竞争力的性能。

道路交通智能体的运动预测对于确保自动驾驶系统的安全性既是一项重大挑战,也是一个关键的必要条件。与大多数直接预测未来轨迹的现有数据驱动方法相比,本文从规划的角度重新思考了这项任务,提出了“先推理,后预测”的策略,该策略显式地将行为意图作为轨迹预测的空间引导。为了实现这一点,本文引入了一种可解释的、奖励驱动的意图推理器,它基于一种新的以查询为中心的逆强化学习(IRL)方案。本文方法首先将交通智能体和场景元素编码为统一的矢量化表示,然后通过以查询为中心的范式来聚合上下文特征。这使得能够通过IRL获得奖励分布,这是在给定场景上下文情况下目标智能体行为的紧凑而富有信息的表示。在这种奖励启发式的引导下,本文执行策略推演以推理多个合理的意图,为后续的轨迹生成提供有价值的先验。最后,本文开发了一种与双向选择性状态空间模型集成的分层DETR类解码器,以生成准确的未来轨迹及其相关概率。在大规模Argoverse和nuScenes运动预测数据集上进行的广泛实验表明,本文所提出的方法显著提高了轨迹预测的置信度,与最先进的方法相比,它实现了极具竞争力的性能。

轨迹预测是高级自动驾驶系统的关键组成部分,它连接了上游感知与下游规划模块。鉴于驾驶行为的固有不确定性和多模态性质,准确预测周围交通智能体的运动需要推理未知的意图。

大多数现有的数据驱动的运动预测模型利用模仿方法,它们要么直接回归轨迹,要么根据训练数据集的数据分布匹配对端点进行分类。然而,这些方法往往缺乏对驾驶行为的充分考虑,这限制了可解释性和可靠性。尽管许多方法在基准指标上实现了强大的性能,但是很少有方法显式地推理未来的意图,这给现实世界应用中生成可解释且鲁棒的多模态预测结果带来了关键的瓶颈。

为此,本文提出了“先推理,后预测”的策略,其中行为意图推理提供关键的先验引导,以促进准确且可靠的多模态运动预测。以超车场景为例:与没有进行推理的直接预测相比,能够提前显式地推理超车和车道保持意图的模型可以生成更可靠的预测结果,如图1所示

1|传统的运动预测流程与本文所提出的运动预测流程的比较

本文探索了应用强化学习范式来建模自动驾驶场景中智能体行为推理的可行性。本文任务表述为马尔可夫决策过程(MDP),并相应地定义目标智能体的意图。为了平衡性能和计算效率,本文构建了一个网格级图来表示场景布局,其中意图被定义为离散网格世界上的一系列决策,类似于传统RL背景下的规划。本文将意图序列称为基于网格的推理遍历(GRT)。然而,采用RL进行轨迹预测的一项根本挑战在于对奖励进行建模,这是因为智能体的意图仍然未知

为了克服这挑战,本文提出了一种基于最大熵逆强化学习(MaxEntIRL)的奖励驱动意图推理器。该框架首先通过IRL从演示和相关驾驶环境中学习智能体特定的奖励分布。学习到的奖励分布作为一种紧凑的表示,它捕获智能体观测行为和潜在意图。本文利用这些推理的奖励作为启发式,然后执行策略推演,对多个合理的GRTs进行采样,并提取其相应的意图特征,为轨迹预测提供先验引导,从而提高预测准确性和置信度。

此外,为了进一步增强场景上下文的特征提取,本文引入了一种新的以查询为中心的IRL框架,称为QIRL,它将IRL与基于查询的编码机制相结合QIRL高效灵活地将矢量化场景上下文特征聚合到空间网格状标记中,促进结构化推理。通过这种稠密的网格表示,本文使用一个辅助的占用网格地图OGM)预测头来增强所提出的模型,它能够对场景中每个智能体的未来时空占用进行预测。该辅助任务通过捕获智能体之间的未来交互,有效地增强了特征融合过程,从而提高了整体预测性能(如表格7所示)。

最后,为了充分利用意图推理器提供的特征,本文开发了一种分层的DETR轨迹解码器。无锚轨迹标记首先生成基于GRT派生特征的轨迹提议,然后作为最终轨迹解码的初始化锚鉴于轨迹状态的固有顺序性以及用于长期结构化动态建模的选择性状态空间模型(Mamba)的最新进展,本文结合了一种双向变体Bi-Mamba,以有效地捕获轨迹状态的顺序依赖关系。这种增强显著提高了预测准确性和置信度(如表格6所示)。

本文的主要贡献总结如下:

1本文引入了一种“先推理,后预测”策略,从规划的角度重新思考轨迹预测任务

2本文提出了一种用于运动预测的奖励驱动意图推理器具有一个QIRL模块,该模块在以查询为中心的框架中集成了MaxEnt IRL范式和矢量化上下文表示

3本文开发了一种具有双向选择性状态空间模型(Bi-Mamba的分层DETR类解码器,以提高预测准确性和置信度

4本文所提出的方法显著提高了预测置信度并且ArgoversenuScenes运动预测基准上实现了极具竞争力的性能,超越了其它最先进的模型。

3.1 问题表述

标准轨迹预测任务的目标是在给定的驾驶环境下,预测目标智能体在时间范围$T_f$内的未来位置。本文对场景输入采用矢量化表示,包括历史观测状态$A \in \mathbb{R}^{N_a \times T_h \times C_a}$,其中$N_a$表示场景中智能体数量,$T_h$ 表示过去的时间戳数量,$C_a$捕获位置、速度、朝向等运动属性,以及高精地图信息 $M \in \mathbb{R}^{N_m \times N_s \times C_m}$,其中 $N_m$和 $N_s$ 分别对应车道中心线和车道段的数量,$C_m$ 表示相关的车道属性。

本文方法采用了以目标为中心的坐标系,其中所有输入元素都通过平移和旋转操作归一化到目标智能体的当前状态。鉴于运动意图的固有不确定性,预测器的任务是提供 $K$ 条未来轨迹 $Y \in \mathbb{R}^{K \times T_f \times 2}$,以及相应的概率 $p \in \mathbb{R}^{K \times 1}$

 3.2框架概述 

如图2所示,本文所提出的运动预测方法采用了一种编码器-解码器结构,该结构包括以查询为中心的场景上下文编码器、Mamba增强的分层轨迹解码器和奖励驱动的意图推理器。

2所提出框架的概览

首先,本文以矢量化格式表示驾驶环境,并且利用智能体和地图编码器提取场景特征。然后,这些融合的特征通过交叉注意力机制聚合成空间网格标记。随后,在QIRL模块中,利用基于网格的MaxEnt IRL算法来推理奖励分布,从而通过策略推演在二维网格地图上推理出多个合理的意图序列(即GRTs)。此外,本文还结合了时空占用网格地图S-T OGM)的密集预测头,以建模智能体之间的未来交互。最后,本文引入了一种分层的DETR轨迹解码器,生成轨迹提议,这些轨迹提议被进一步聚类和细化,以生成多模态未来轨迹,并且Bi-Mamba架构进行增强。 

3.3以查询为中心的上下文编码

给定矢量化智能体表示 $\mathbf{A}$ 和地图表示 $\mathbf{M}$,首先将它们标记为单独的特征集合。

具体而言,本文使用一个智能体编码器(一个简单的 1-D CNN 模型)来获得智能体特征 $\mathbf{F}_a \in \mathbb{R}^{N_a \times C}$。对于地图编码器,本文采用 PointNet 类网络来提取静态地图特征 $\mathbf{F}_m \in \mathbb{R}^{N_m \times C}$。然后连接这些生成的智能体特征和地图特征以构成上下文标记 $\mathbf{F}_c \in \mathbb{R}^{(N_a + N_m) \times C}$,然后使用自注意力模块来增强特征融合。

由于推理过程依赖于网格级图表示,本文引入了可学习的网格形状的查询 $\mathbf{Q}_G \in \mathbb{R}^{H \times W \times C}$ 来集成场景特征,其中 $H$$W$ 定义了 BEV 平面的空间维度。

在网格位置 $\mathbf{s}_i = (x_i, y_i)$ 处的每个查询 $\mathbf{Q}_G^{\mathbf{s}_i}$ 对应于分辨率为 $d$ 的现实世界中的特定区域。然后,本文使用具有 2-D 空间可学习相对位置嵌入的平坦化网格查询,以通过交叉注意力机制来聚合上下文标记。

 3.4奖励驱动的意图推理 

给定使用上下文特征更新的网格标记本文首先通过所提出QIRL框架生成奖励分布,该框架传统的基于网格的MaxEnt IRL算法应用于以查询为中心的范式中

QIRL: 在 QIRL 框架中, 每个网格 $\mathbf{s}_i$ 都作为一个状态, 其相应的查询$\mathbf{Q}_G^{\mathbf{s}_i} \in \mathbb{R}^{1 \times C}$ 表示上下文特征。 本文使用 $1 \times 1$ 的 CNN 层堆栈来聚合网格标记的特征, 以建立从驾驶上下文到奖励 $\mathbf{R} \in \mathbb{R}^{H \times W \times 1}$ 的非线性映射。 未来的轨迹以分辨率 $d$ 进行量化, 以构成专家演示状态,其中还包括捕获长期信息的路径。 随后,应用 MaxEnt-IRL 算法来获得收敛的奖励分布以及最优策略。

然后,根据奖励启发式引导的策略进行推演。 本文在网格图上并行地执行$L$次推演,生成多个合理的 GRTs 作为意图序列 $\mathcal{Y} \in \mathbb{R}^{L \times H \times 2}$,其中 $H$ 表示规划时间范围。 为了更好地捕获多模态未来分布, 本文设置 $L \gg K$。然后根据采样的 GRT 来提取网格标记: 对于采样的 GRT 中与网格单元状态 $\mathbf{s}_i$ 相关联的每个位置$(x_i, y_i)$,在 $H$ 个步骤上顺序地选择对应的网格标记 Q^{s_i}_G。 这些网格标记构成推理标记 $\mathbf{Q}_G^{\Upsilon} \in \mathbb{R}^{L \times H \times C}$。 GRT 位置 $\Upsilon$ 和相关的推理标记 $\mathbf{Q}_G^{\Upsilon}$ 作为信息性行为意图先验,用于引导后续的运动预测。

辅助的 S-T OGM 预测头: 本文利用网格形状的稠密表示, 引入了辅助的 S-T OGM 预测头来建模智能体之间的未来交互,从而增强场景上下文特征的融合和聚合。 本文以二进制形式表示占用地图,其中 BEV 中占用的网格单元设置为 1,未占用的单元设置为 0。 OGM 生成器将融合的网格标记 $\mathbf{Q}_G$和奖励 $\mathbf{R}$ 作为输入,并且使用 U-Net 类架构在未来的时间戳上生成 OGMs。

3.5 Mamba增强的轨迹解码

给定 $L$ 个合理的推理先验,首先使用 DETR 类轨迹生成器来生成 $L$ 条轨迹作为提议。使用简单的 MLP 块分别对 GRT 位置 $\Upsilon$ 和推理标记 $\mathbf{Q}_G^{\Upsilon}$ 进行编码,然后通过基于 MLP 的特征融合网络对它们进行连接和处理,以构成最终的推理标记 $\mathbf{Q}_{\Upsilon} \in \mathbb{R}^{L \times H \times C}$。接着,本文引入了一种无锚点可学习轨迹提议查询 $\mathbf{Q}_P \in \mathbb{R}^{L \times T_f \times C}$,以交叉注意来自意图推理器的先验特征 $\mathbf{Q}_{\Upsilon}$。然后,该提议查询通过具有 MLP 块的回归头解码为 $L$个轨迹提议。本文应用 K-means 算法将这些轨迹提议聚类为 $K$ 个多模态轨迹提议$\mathbf{\overline{Y}} \in \mathbb{R}^{K \times T_f \times 2}$。随后,本文使用基于锚点的轨迹细化,以进一步提高轨迹查询预测性能。每个轨迹提议都作为显式的锚点先验,被重新编码为轨迹查询 $\mathbf{Q}_T \in \mathbb{R}^{K \times T_f \times C}$,它通过类似于用于轨迹提议生成的 DETR 类架构来检索原始上下文特征。这种分层的无锚点提议生成以及基于锚点的细化过程生成了一个轨迹查询,该查询集成了奖励驱动的意图和详细的场景上下文。

Bi-Mamba 解码器:由于轨迹标记 $\mathbf{Q}_T$ 在时间和空间域中均包含重要的序列属性,因此本文采用选择性状态空间模型来捕获一系列轨迹查询中的耦合关系,这是受到 Mamba 架构在序列建模中最近取得成功的启发。

为了更好地利用 Bi-Mamba 结构的双向能力,本文设计了一种可学习的双模式查询 $\mathbf{Q}_M \in \mathbb{R}^{K \times 2 \times C}$,其中包含两个分类 (CLS) 标记。这些标记 CLS1 和 CLS2 添加在轨迹查询 $\mathbf{Q}_T$ 的前面和后面,如图 3 所示。

3Bi-Mamba增强的解码过程

这些标记分别聚合了后向前向的特征,与使用单个分类标记的单向Mamba相比,Bi-Mamba提供了更全面的融合。在Bi-Mamba处理之后,通过元素相加将两个CLS标记相结合以实现特征融合。然后,模式自注意力模块实现了模式之间的交互,从而进一步增强了预测的多模态性。

最后,使用softmax函数对模式标记进行分类以生成概率,并且使用回归头对顺序轨迹标记进行解码以生成轨迹偏移。     

通过将轨迹提议$\overline{Y}$与其相关的偏移量$\Delta Y$相加以获得最终预测的轨迹$Y$,如下所示:

$Y = \overline{Y} + \Delta Y$       (1)

3.6 训练目标

整个流程涉及多个训练目标。奖励驱动的意图推理器包括两个子任务目标:QIRL和 OGM 生成器。QIRL 目标采用损失 $\mathcal{L}_{IRL}$,而 OGM 生成器使用焦点二元交叉熵 (BCE) 损失,表示为 $\mathcal{L}_{OGM}$

对于轨迹解码器,训练目标包括回归损失 $\mathcal{L}_{REG}$ 和分类损失 $\mathcal{L}_{CLS}$。为了优化轨迹回归,本文将 Huber 损失应用于轨迹提议和优化的轨迹。此外,为了解决模式崩溃问题,本文采用了一种赢者通吃的策略,它仅选择位移误差最小的候选进行反向传播。对于模式分类,本文采用了最大间隔损失。

总体损失集成了这些组成部分,并且能够以端到端的方式进行优化:

$\mathcal{L} = \mathcal{L}_{IRL} + \alpha \mathcal{L}_{OGM} + \beta \mathcal{L}_{REG} + \gamma \mathcal{L}_{CLS}$      (2)

其中,$\alpha$$\beta$$\gamma$ 是平衡每个训练目标的超参数。

 4.1 实验设置 

数据集本文使用各种大规模公开数据集Argoverse 1Argoverse 2nuScenes来训练和评估所提出的方法。所有数据集提供丰富的高精地图信息。Argoverse 1数据集包括来自迈阿密和匹兹堡的1000多个小时的驾驶数据,分别有大约206k39k78k个序列用于训练、验证和测试。

指标:本文遵循标准指标来评估预测性能,包括漏检率(MRK)、最小平均位移误差(minADEK)、最小终点位移误差(minFDEK)、布雷尔最小终点位移误差brier-minFDEK和布雷尔分数

4.2与最先进方法的比较

本文Argoverse 1Argoverse 2nuScenes运动预测数据集上对所提出的方法与最先进的方法进行了全面的比较。为简洁起见,本文所提出的方法称为FiM

Argoverse 1:在Argoverse 1测试集划分上的定量结果如表格1所示。

表格1|Argoverse 1运动预测排行榜上的性能比较

本文FiM与在这个具有挑战性的基准上评估的几种具有代表性的方法进行了比较。根据单模型结果,与强大的基线相比,FiM实现了极具竞争力的性能,包括HiVTScene-Transformer等直接轨迹预测模型以及DSPDenseTNT等基于目标的模型。FiM布雷尔分数Brier-minFDE6MR6上表现出色,突出了其强大的预测能力。

Argoverse 2为了进一步验证本文的意图推理策略的有效性,本文引入了一个基于Argoverse 2验证集划分的定制评估基准。

本文FiMArgoverse 2排行榜上表现最佳的两个开源模型DeMoQCNet进行了比较。如表格2所示,所有FiM变体均超越了这两个强大的基线,表明意图推理模块取得了显著的性能提升。此外,研究结果进一步表明,长期意图监督显著提高了预测置信度有助于更可靠的轨迹预测。

表格2在定制化的Argoverse2验证集上的性能比较

nuScenes本文nuScenes数据集上评估了FiM,如表格3所示。

表格3nuScenes预测排行榜上的性能比较

本文模型在此预测基准上实现了最佳性能,超越了当前排行榜上的所有方法并且进一步验证了本文所提出的框架在解决复杂运动预测挑战方面的鲁棒性和先进能力。

4.3消融研究

本文在Argoverse验证集进行深入的消融研究,以评估所提出的方法中关键组件的有效性。本实验保持所有实验设置的一致性,以便进行公平的比较。

奖励启发式的影响:本文首先通过从流程中删除推理分支来验证奖励驱动意图推理器的有效性。如表4所示,与完整模型相比,vanilla架构的性能显著下降,突显了推理过程对整体性能的关键贡献。

表格4对于奖励驱动的推理策略的消融研究

此外,通过将QIRL模块替换为用于特征提取的交叉注意力模块,以探索QIRL模块具体影响。表格4中的结果表明本文QIRL模块在很大程度上优于这种替代方案,表明QIRL可以有效地获取基本意图先验,并且提供有益于后续运动预测的信息引导

OGM和细化的影响:本文通过对每个模块进行消融研究,进一步评估了辅助时空OGM模块和细化的影响,如表格5所示。

表格5对于OGM和细化模块的消融研究

这两个模块对最终性能都做出了重大贡献。特别来自OGM的性能提升证实了建模未来交互可以提高预测质量,这突出了意图推理对改进轨迹预测的重要性。

基于Mamba的解码器中组件的影响:本文对各种解码器组件进行了消融分析,以验证Mamba结构相对于传统方法的优势。表格6中的结果突出了这种设计的优势

表格6对于Mamba增强的解码器的消融研究

此外,本文还研究了所提出的双模式标记对分类的影响,并且将其与使用模式标记的单向Mamba模型进行了比较。如表格7所示,Bi-Mamba模型展现出更好的性能,得益于其前向-后向扫描机制,该机制有效地将轨迹特征融合两个CLS标记并且验证了这种设计的优势

表格7Uni-MambaBi-Mamba之间的比较

本文还研究了不同Mamba层深度的影响,如表格8所示。

表格8Mamba层深度的影响

结果表明,层可能会引入不必要的计算开销,也可能因过拟合而降低性能,这突显了最优的层配置对于实现强大性能的重要性。

4.4定性结果

本文展示了提出方法Argoverse验证集中各种交通场景下的可视化结果,如图4所示。

4模型在Argoverse验证集上的定性结果

这些定性结果突出所提出的模型在生成准确、可行多模态未来轨迹方面的强大能力,这些未来轨迹在各种条件(包括复杂的交叉路口和长期预测场景与场景布局保持一致。

本项工作从规划的角度重新定义了轨迹预测任务的概念,并且提出了“先推理,后预测”的策略。本文提出了一种可解释的奖励驱动的意图推理器,它在QIRL框架内设计,通过以查询为中心的流程将MaxEnt IRL范式与矢量化上下文表示相结合,从而有效地为后续轨迹生成提供了信息丰富的意图先验。此外,本文还引入了一种与Bi-Mamba结构集成的分层DETR类轨迹解码器,它可以捕获轨迹的顺序依赖关系,并且显著地提高预测准确性和置信度。实验结果表明,本文所提出的推理增强的预测器具有生成高置信度、可靠的未来轨迹的强大能力(这些轨迹与场景布局保持一致),同时与现有的最先进模型相比实现了极具竞争力的性能。此外,本项工作还强调了意图推理在运动预测中的关键作用,证实了RL范式在建模驾驶行为方面的可行性,并且为轨迹预测的未来研究建立了一个有前景的基线模型。

http://www.xdnf.cn/news/1366435.html

相关文章:

  • 二、添加3D形状
  • More Effective C++ 条款07:不要重载、和,操作符
  • 【系统架构设计师】数据库设计(一):数据库技术的发展、数据模型、数据库管理系统、数据库三级模式
  • 审核问题——首次进入APP展示隐私政策弹窗
  • 大模型(一)什么是 MCP?如何使用 Charry Studio 集成 MCP?
  • 深分页实战
  • 计算机网络:HTTP、抓包、TCP和UDP报文及重要概念
  • GPT5的Test-time compute(测试时计算)是什么?
  • Legion Y7000P IRX9 DriveList
  • HTTP 与 HTTPS 深度解析:从原理到实际应用
  • 链表OJ习题(1)
  • 1. 并发产生背景 并发解决原理
  • pytest 并发执行用例(基于受限的测试资源)
  • 现代C++工具链实战:CMake + Conan + vcpkg依赖管理
  • week4-[一维数组]数码个数
  • k8s笔记02概述
  • C++|UDP通讯使用总结
  • HTML应用指南:利用GET请求获取MSN 天气数据并可视化
  • [系统架构设计师]应用数学(二十一)
  • list容器的使用
  • GNN:用MPNN(消息传递神经网络)落地最短路径问题模型训练全流程
  • 用 GSAP + ScrollTrigger 打造沉浸式视频滚动动画
  • 【Day 33】Linux-Mysql日志
  • DDR3入门系列(二)------DDR3硬件电路及Xilinx MIG IP核介绍
  • linux 正则表达式学习
  • 使用 gemini 来分析 github 项目
  • 安卓11 12系统修改定制化_____修改固件 默认给指定内置应用系统级权限
  • 大模型的思考方式
  • Java全栈开发实战:从Spring Boot到Vue3的项目实践
  • ZKmall开源商城多端兼容实践:鸿蒙、iOS、安卓全平台适配的技术路径