yolov13+bytetrack的目标跟踪实现
目录
1. 介绍
2. 相关工作 (Related Works)
3. 方法 (Method)
4. 统计和结果
5. 技术实现
ByteTrack: Multi-Object Tracking by Associating Every Detection Box
1. Motivation
2. BYTE
3. ByteTrack
具体代码
UI界面设计
历史记录
完整代码实现+UI界面
1. 介绍
- 背景: 实时目标检测领域由以 YOLO 系列为代表的单阶段检测器主导,它们在速度和精度之间取得了优异的平衡。
-
现有方法的局限性:
- 卷积架构 (至 YOLOv11): 其感受野受限于卷积核大小和网络深度,本质上是局部信息聚合。
- 自注意力机制 (YOLOv12): 虽然扩大了感受野,但高计算成本使其只能在局部区域上进行计算,无法实现真正的全局建模。更重要的是,自注意力只能建模像素间的“成对(pairwise)”关系。
- 现有超图方法: 虽然超图能建模“多对多(multi-to-multi)”高阶关系,但现有方法通常依赖手工设定的阈值来构建超边,鲁棒性差。
-
YOLOv13 概览:
- HyperACE: 提出自适应超图相关性增强机制,克服了手工构建超图的限制,用于自适应地学习高阶视觉相关性。
- FullPAD: 提出新的全流程聚合与分发架构范式,将增强后的特征反馈到整个网络,改善梯度传播和检测性能。
- 轻量化模块: 设计了一系列基于深度可分离卷积的模块,以提高模型效率。
-
主要贡献总结:
- 提出 YOLOv13,一个使用自适应超图探索高阶相关性的卓越实时目标检测器。
- 提出 HyperACE 机制用于自适应超图计算,以及 FullPAD 范式用于全流程特征聚合与分发。
- 提出一系列基于深度可分离卷积的轻量化模块,以降低模型复杂性。
- 实验证明 YOLOv13 在保持轻量化的同时,在 MS COCO 数据集上达到了SOTA性能。
2. 相关工作 (Related Works)
-
2.1. YOLO 检测器的演进 (Evolution of YOLO Detectors)
- 简要回顾了从初代 YOLO 到 YOLOv12 的发展历程,包括 DarkNet 骨干网、CSP 结构、SPP、PANet、无锚点(anchor-free)头部等关键技术的引入。
- 指出现有所有 YOLO 系列模型及其变体都存在一个共同的局限性:它们仅限于建模局部的成对相关性。
-
2.2. 高阶相关性建模 (High-Order Correlation Modeling)
- 视觉数据中存在复杂的、超越成对关系的高阶(群组)相关性。
- 超图(Hypergraph)是表示这种多对多高阶关系的有效工具,而超图神经网络(HGNNs)是主要的建模方法。
- 指出现有的视觉超图方法大多采用手工制作(handcrafted)的超边构建方式,缺乏鲁棒性。本文提出的自适应机制旨在解决此问题。
3. 方法 (Method)
-
3.1. 整体架构 (Overall Architecture)
- 打破了传统的“骨干→颈部→头部”单向计算范式。
-
流程:
- 轻量化的骨干网络(使用 DS-C3k2 模块)提取多尺度特征。
- 将骨干网络的高层特征(B3, B4, B5)送入 HyperACE 模块进行高阶相关性建模和特征增强。
- 通过 FullPAD 隧道,将增强后的特征分发回网络的不同位置(骨干与颈部连接处、颈部内部、颈部与头部连接处)。
- 颈部网络融合特征后送入检测头进行多尺度检测。
-
3.2. 基于超图的自适应相关性增强 (Hypergraph-Based Adaptive Correlation Enhancement - HyperACE)
- 核心思想: HyperACE 包含一个全局高阶感知分支和一个局部低阶感知分支。
-
3.2.1. 自适应超图计算 (Adaptive Hypergraph Computation)
- 自适应超边生成: 通过一个可学习的模块,根据输入特征动态生成超边原型,并计算每个顶点(像素)对每个超边的参与度,形成一个连续的参与度矩阵
A
,而非传统的二进制关联矩阵。 - 超图卷积: 采用两阶段消息传递(顶点到超边聚合,超边到顶点传播)来更新顶点特征,从而实现基于高阶相关性的特征增强。
- 自适应超边生成: 通过一个可学习的模块,根据输入特征动态生成超边原型,并计算每个顶点(像素)对每个超边的参与度,形成一个连续的参与度矩阵
-
3.2.2. 用于自适应高阶相关性建模的 C3AH 模块 (C3AH for Adaptive High-Order Correlation Modeling)
- 将自适应超图计算模块(AHC)嵌入到一个 CSP 瓶颈结构中,实现了高效的全局高阶语义聚合。
-
3.2.3. HyperACE 的结构 (Structure of HyperACE)
- 将融合后的多尺度特征图分为三路:一路通过并行的 C3AH 模块进行高阶建模,一路通过堆叠的 DS-C3k 模块进行低阶建模,还有一路作为直连(shortcut)。最后将三路输出拼接融合。
-
3.3. 全流程聚合与分发范式 (Full-Pipeline Aggregation-and-Distribution - FullPAD)
- 将 HyperACE 输出的增强特征,通过可学习的门控融合机制,注入到主干网络、颈部和头部的多个关键节点。
- 这种设计实现了全网络范围内的精细化信息流动和表征协同。
-
3.4. 基于深度可分离卷积的模型轻量化 (Model Lightweighting with Depth-Separable Convolution)
- DSConv: 基础的深度可分离卷积块。
- DS-Bottleneck: 由两个 DSConv 块串联构成的瓶颈结构。
- DS-C3k/DS-C3k2: 将 DS-Bottleneck 嵌入 CSP 结构中,形成新的轻量化特征提取模块,并被广泛用于骨干和颈部网络。
4. 统计和结果
5. 技术实现
- 问题: 现有的 YOLO 系列模型(包括 YOLOv11 和 YOLOv12)在架构上受限于局部信息聚合(卷积)和成对相关性建模(自注意力),无法捕捉复杂的全局、多对多高阶相关性。
- 核心方案: 提出了 YOLOv13,一个精确且轻量级的实时目标检测器。
- 关键技术 1: HyperACE: 提出了一种基于超图的自适应相关性增强机制(Hypergraph-based Adaptive Correlation Enhancement),它能自适应地利用潜在的高阶相关性,实现高效的全局跨位置和跨尺度的特征融合与增强。
- 关键技术 2: FullPAD: 提出了一种全流程聚合与分发范式(Full-Pipeline Aggregation-and-Distribution),将 HyperACE 增强后的特征分发至整个网络(骨干、颈部、头部),以实现更精细的信息流和表征协同。
- 关键技术 3: 轻量化设计: 使用深度可分离卷积替代传统的标准大核卷积,并设计了一系列新的轻量化模块,在不牺牲性能的前提下显著减少了参数量和计算复杂度。
- 成果: 在 MS COCO 基准上取得了SOTA性能。具体来说,YOLOv13-N 在 mAP 指标上比 YOLOv11-N 提升了 3.0%,比 YOLOv12-N 提升了 1.5%。
ByteTrack: Multi-Object Tracking by Associating Every Detection Box
沿着多目标跟踪(MOT)中tracking-by-detection的范式,我们提出了一种简单高效的数据关联方法BYTE。 利用检测框和跟踪轨迹之间的相似性,在保留高分检测结果的同时,从低分检测结果中去除背景,挖掘出真正的物体(遮挡、模糊等困难样本),从而降低漏检并提高轨迹的连贯性。BYTE能轻松应用到9种state-of-the-art的MOT方法中,并取得1-10个点不等的IDF1指标的提升。基于BYTE我们提出了一个跟踪方法ByteTrack,首次以30 FPS的运行速度在MOT17上取得80.3 MOTA,77.3 IDF1和63.1 HOTA,目前位居MOTChallenge榜单第一。我们还在开源代码中加入了将BYTE应用到不同MOT方法中的教程以及ByteTrack的部署代码。
Paper: http://arxiv.org/abs/2110.06864
纵轴是MOTA,横轴是FPS,圆的半径代表IDF1的相对大小
1. Motivation
Tracking-by-detection是MOT中的一个经典高效的流派,通过相似度(位置、外观、运动等信息)来关联检测框得到跟踪轨迹。由于视频中场景的复杂性,检测器无法得到完美的检测结果。为了处理true positive/false positive的trade-off,目前大部分MOT方法会选择一个阈值,只保留高于这个阈值的检测结果来做关联得到跟踪结果,低于这个阈值的检测结果直接丢弃。但是这样做合理吗?答案是否定的。黑格尔说过:“存在即合理。”低分检测框往往预示着物体的存在(例如遮挡严重的物体)。简单地把这些物体丢弃会给MOT带来不可逆转的错误,包括大量的漏检和轨迹中断,降低整体跟踪性能。
2.BYTE
为了解决之前方法丢弃低分检测框的不合理性,我们提出了一种简单、高效、通用的数据关联方法BYTE (each detection box is a basic unit of the tracklet, as byte in computer program)。直接地将低分框和高分框放在一起与轨迹关联显然是不可取的,会带来很多的背景(false positive)。BYTE将高分框和低分框分开处理,利用低分检测框和跟踪轨迹之间的相似性,从低分框中挖掘出真正的物体,过滤掉背景。整个流程如下图所示:
(1)BYTE会将每个检测框根据得分分成两类,高分框和低分框,总共进行两次匹配。
(2)第一次使用高分框和之前的跟踪轨迹进行匹配。
(3)第二次使用低分框和第一次没有匹配上高分框的跟踪轨迹(例如在当前帧受到严重遮挡导致得分下降的物体)进行匹配。
(4)对于没有匹配上跟踪轨迹,得分又足够高的检测框,我们对其新建一个跟踪轨迹。对于没有匹配上检测框的跟踪轨迹,我们会保留30帧,在其再次出现时再进行匹配。
我们认为,BYTE能work的原因是遮挡往往伴随着检测得分由高到低的缓慢降低:被遮挡物体在被遮挡之前是可视物体,检测分数较高,建立轨迹;当物体被遮挡时,通过检测框与轨迹的位置重合度就能把遮挡的物体从低分框中挖掘出来,保持轨迹的连贯性。
3. ByteTrack
ByteTrack使用当前性能非常优秀的检测器YOLOX得到检测结果。在数据关联的过程中,和SORT一样,只使用卡尔曼滤波来预测当前帧的跟踪轨迹在下一帧的位置,预测的框和实际的检测框之间的IoU作为两次匹配时的相似度,通过匈牙利算法完成匹配。这里值得注意的是我们没有使用ReID特征来计算外观相似度:
(1)第一点是为了尽可能做到简单高速,第二点是我们发现在检测结果足够好的情况下,卡尔曼滤波的预测准确性非常高,能够代替ReID进行物体间的长时刻关联。实验中也发现加入ReID对跟踪结果没有提升。
(2)如果需要引入ReID特征来计算外观相似度,可以参考我们开源代码中将BYTE应用到JDE,FairMOT等joint-detection-and-embedding方法中的教程。
(3)ByteTrack只使用运动模型没有使用外观相似度能在MOT17,20取得高性能的本质原因是MOT数据集的运动模式比较单一
具体代码
UI界面设计
历史记录
完整代码实现+UI界面
视频,笔记和代码,以及注释都已经上传网盘,放在主页置顶文章