TOOD: Task-aligned One-stage Object Detection(阅读笔记)

目标检测的两个子任务:

分类和定位

研究现状

最近的单阶段目标检测器试图通过关注目标的中心来预测两个独立任务的一致输出。

例:FCOS 和 ATSS 都使用 centerness 分支。以提高从对象中心附近的锚点预测的分类分数,并为相应锚点的定位损失分配更大的权重。

目前存在的问题:

(1) 分类和定位的独立性。即,并行使用两个独立的分支执行对象分类和定位。

(2) 与任务无关的样本分配。即,样本分配方案与是分类任务还是定位任务无关,因此可能难以对这两个任务做出准确而一致的预测,因此,在非极大值抑制 (NMS) 期间,精度较低的边界框可能会抑制精确的边界框。

anchor-free检测器使用基于几何的分配方案来选择目标中心附近的锚点进行分类和定位

anchor-based的检测器通常通过计算anchor boxs和ground truth之间的 IoU 来分配锚框

提出的方案 - TOOD

task-aligned One-stage Object Detection (TOOD)

 1. 任务对齐头-Task-aligned head.

它计算任务的交互特征,并通过 任务对齐预测器 Task-Aligned Predictor(TAP) 进行预测。 然后它根据任务对齐学习Task alignment learning(TAL)提供的学习信号对齐两个预测的空间分布。

上图,3(a)为常规设计,3(b)为T-Head 结构,他拥有一个简单的特征提取器和两个任务对齐预测器 (TAP)。TAP的结构如 3(c)所示。

 X^{fpn} \in \mathbb{R}^{H*W*C}表示 FPN 特征,其中 H、W 和 C 分别表示高度、宽度和通道数。

 conv_k和 δ 分别指第 k 个 conv 层和一个 relu 函数。 因此,我们使用头部中的单个分支从 FPN 特征中提取丰富的多尺度特征。 然后,计算出的任务交互特征将被输入到两个 TAP 中,用于对齐分类和定位。

1.1 任务对齐预测器 (TAP)

 w_k是学习的注意力层w\in \mathbb{R}^N的第 k 个元素。  w是从跨层任务交互特征计算出来的,并且能够捕获层之间的依赖关系。

 其中fc_1fc_2 指的是两个全连接层。 \sigma是一个 sigmoid 函数,并且 X^{inter}是通过对 X^{inter} 应用平均池化来获得的,X^{inter}X^{inter}_k 的连接特征。最后,分类或定位结果从每个X^{task} 预测:

 然后使用 sigmoid 函数Z^{task}转换为密集分类分数P\in\mathbb{R}^{H*W*80},或使用 [27、31] 中应用的距离到 bbox 转换的对象边界框B\in\mathbb{R}^{H*W*4}

使用空间概率图M\in\mathbb{R}^{H*W*1},来调整分类预测:

 使用空间偏移图 O\in\mathbb{R}^{H*W*8},用于调整每个位置的预测边界框,(M和O利用TAL学习)

对于B 值得注意的是,每个通道的偏移量都是独立学习的,这意味着对象的每个边界都有自己的学习偏移量。这允许对四个边界进行更准确的预测,因为它们中的每一个都可以单独从其附近最精确的锚点学习。因此,不仅协调了这两个任务,而且通过为每边确定一个精确的锚点来提高定位精度。  

T-Head是一个独立的模块,可以在没有TAL的情况下正常工作。它可以方便地以即插即用的方式应用于各种一级物体检测器,以提高检测性能。 

对齐图 M 和 O 是从交互式特征中自动学习的:

2. 任务对齐学习-Task alignment learning.

用途:拉近分类和定位任务的两个最佳锚点

方法:(1)样本分配方案,通过计算每个锚点的任务对齐程度来收集正负样本

           (2)任务对齐损失,逐渐统一最佳锚点,用于在训练期间预测分类和定位。

2.1 样本分配方案-Task-aligned Sample Assignment

(1)锚点对齐指标:对齐良好的anchor应该能够预测高分类分数和精确定位;

新的锚对齐指标 t

其中 s 和 u 分别表示分类分数和 IoU 值。 α 和 β 用于控制两个任务在锚对齐度量中的影响。

(2)训练样本分配:未对齐的anchor应该有一个低分类分数并随后被抑制。

对于每个实例,我们选择m个t值最大的anchor作为正样本,而使用剩余的 锚定为负样本。

2.2 任务对齐损失-Task-aligned Loss

为了显式增加对齐锚的分类分数,同时降低未对齐锚的分数(即具有较小的 t),我们在训练期间使用 t 替换正锚的二进制标签(即是否包含物体的软标签)。

又发现当 t 随着 α 和 β 的增加而变小时,网络无法收敛。因此,使用归一化的 t,即 \hat{t},来代替正锚的二进制标签。 \hat{t}的最大值等于每个实例内的最大 IoU 值 (u)。

分类任务的loss:

 引入focal loss 减轻正负样本不平衡。

加权\hat{t},边界框回归损失 loss:

 TAL = L_{cls} + L_{reg}

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
TOOD目标检测算法是一种用于目标检测的算法,它在MS-COCO数据集上进行了实验,并取得了很好的性能。该算法通过设计一个用于评价anchor对齐指标的值来优化目标检测的结果。这个指标通过预测类别的置信度和预测边界框的IoU来计算,同时通过调整参数α和β来控制两个任务对于对齐指标的影响。TOOD算法通过动态地关注任务对齐的anchor来提高目标检测的准确性。相比于其他单阶段检测算法,TOOD具有更高的AP指标,并且参数量和计算量更少。此外,TOOD还能更好地对目标分类和定位两个任务进行对齐。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* [二维目标检测sota---TOOD任务对齐的一阶目标检测算法](https://blog.csdn.net/qq_41621517/article/details/122130470)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [51.1 AP!TOOD:刷新单阶段目标检测新纪录!ICCV 2021 Oral](https://blog.csdn.net/amusi1994/article/details/120073068)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [目标检测TOODTask-aligned One-stage Object Detection](https://blog.csdn.net/qq_41950533/article/details/124094016)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值