第三章Reid

这个任务就是深度学习最擅长的。颜色、亮度体现在图像数据第3维,以数值来体现,CNN可以完美捕捉到这种特征。人所担心的“体型相似”并不是神经网络怕的,因为通过损失反向传播得来的权重自然而然会把“颜色”这种特征组合的权重调高,而其他特征不影响。所以只要数据够多、标签标对了,CNN几乎可以完美处理。



作者:番茄射手
链接:https://www.zhihu.com/question/391774138/answer/1191919036
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

2023/7/31

开启论文的最后一章 “针对未佩戴安全帽人员目标追踪及身份识别的方法研究

导师让我最后一章也提一下人脸  

用reid

初步想法是 改进一下特征提取网络    IOU

报警策略: 没办法做到谭要求的 发现他没带 然后去追踪他 只能说更精准的追没带帽子的人 对于带的人不care


突然想到 之前很多MOT可是用到了Reid

deepsort中的reid 去除最后分类用的全连接层,即只利用该网络做特征提取不进行后续分类

1.有一个问题  匈牙利算法和IOU匹配什么关系

深入浅出——零基础一文读懂DeepSORT(原理篇)_YouOnlyLookOnemiotms的博客-CSDN博客

炮哥:目标追踪---deepsort原理讲解_炮哥带你学的博客-CSDN博客

IOU匹配的结果计算其代价矩阵(cost matrix ,代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果

每次只要Tracks匹配上都会保存Detections其的外观特征和运动信息,默认保存前100帧,利用外观特征和运动信息和Detections进行级联匹配

级联匹配: (利用之前保存的外观特征(之前reid提取的吗?),基于之前KF预测的运动信息 和当前帧的Detections 的外观特征(reid) 和当前帧的 运动信息) 匹配

应该是only reid  , 运动信息的权重为0     有空研究下Deep sort算法论文解读_deepsort论文解读_mini猿要成长QAQ的博客-CSDN博客

而与马氏距离做融合机制会有一个好处就是它会限制reid的匹配距离

   对于bytetrack 最好的也是第一次匹配 only reid  第二次only 运动   ,这一点两个算法是一样的


下面开始看如下方法的Reid

在这里插入图片描述

FairMoT:

论文阅读-FairMOT:《A Simple Baseline for Multi-Object Tracking》_高斯核函数是哪篇论文提出的_DJames23的博客-CSDN博客

两阶段:将目标检测和re-ID作为两个分开的任务。首先使用基于CNN的目标检测器比如Faster R-CNN[8]和YOLOv3[11]来定位输入图片感兴趣的所有物体。然后在另一个步骤中,根据检测框来裁剪图片并把它们喂到一个身份嵌入网络来提取re-ID特征,用于随着时间推移来链接检测框。链接步骤通常遵循标准的做法,首先根据bbox的re-ID特征和交并比(IoU)计算成本矩阵,然后使用卡尔曼滤波[34]和匈牙利算法[35]来完成链接任务。

这两个任务需要单独完成而没有共享  所以 慢 浪费计算资源

一阶段

核心思想是在单个网络中同时完成目标检测和身份嵌入(re-ID特征),以通过共享大部分计算来减少推理时间。例如,Track-RCNN [15]在Mask-RCNN [9]的顶部添加了一个Re-ID头,并为每个proposal回归了边界框和一个re-ID特征。 **JDE [14]是在YOLOv3 [11]**上构建的,该框架可实现接近视频速率的推断。

但是,一阶段方法的跟踪精度通常低于两阶段方法的跟踪精度。

在这里插入图片描述


Bot-Sort(以ByteTrack为基础)、Strong、GIAO

【文献阅读笔记】BoT-SORT: Robust Associations Multi-Pedestrian Tracking_朝-的博客-CSDN博客

BoT-SORT与Strong-SORT论文对比及思考总结_botsort 和strongsort哪个更新_mumuxi_c的博客-CSDN博客

GIAOTracker in VisDrone 2021_Fwenxuan的博客-CSDN博客

pipeline

EMA Bank

起源于GIAO

时间序列预测基本方法--移动平均(SMA、EMA、WMA) - 知乎 (zhihu.com)

小组会8.8ppt

第一页:reid是没有全连接的特征提取网络

deepsort、bytetrack中是如何权衡运动和外观的 

第二页: 

FairMot中的二阶段和一阶段  

所以现在大家用的都是几阶段? (还是两阶段) 

第三页:

deepsort中的gallery和  新的EMA Bank

每次更新特征都会将特征放入其中,按照队列形式,此处会出现一个问题,当目标在一个位置长时间不动的时候,特征池里面的特征可能都几乎为相同的特征,而当快速变化时,由于特征池来不及更新,会导致自身特征匹配不上导致id变换,轨迹丢失。而EMA方式可能长时间的不动也仍然存在之前特征的影子,并不是单一的姿态特征。

原文链接:https://blog.csdn.net/ganbelieve/article/details/126664525

第四页 

iou和reid结合的方法   Bot-Sort的

高分 iou+reid  低分只有IOU (没有reid 也没有iou

距离度量对短期的预测和匹配效果很好,但对于长时间的遮挡的情况,使用外观特征的度量比较有效。


如何融合我第四章的工作

第四章KF不可信 不用KF 但是REID还要继续更新


2023/9/23 

之前8.8大组会的研究没有保存

大论文框架

下周一要去找谭argue 以及周二讲 

第二章没什么问题 

三四章的区别与联系

1. 方法上: 第三章是Reid  2. 第四章是KF 轨迹插值 

2. 关注的特征: 第三章是外观  第四章是运动信息 

3. 逻辑: 第三章是针对未佩戴的人员讲的  第四章是针对所有人 或者说是为了更好的追未戴帽子的 

关于reid的创新点&论文

1.EMA Bank

详情看上面 这里只有创新点 

1.1DEEP-oc sort 

消融实验的baseline是ocsort

deepocsort源码详解_Mort_al的博客-CSDN博客

DeepSORT再升级 | Deep OC-SORT引入目标外观信息,大幅领先SOTA - 热点 - 科研解读 - AMiner

1.1.1DA 动态外观

1.1.2AW 自适应加权

自适应的外观特征比重

2. Reid & IOU

deepsort的做法是 马氏距离做保险 几乎就是reid 加 第二次的IOU

bytetrack(reid版)  第一次纯reid  第二次纯iou

2.1  这是BOT-SORT提出来的

2.2  Deep -oc sort中的AW

在本周ppt提到了  但是没有实验

IOU&Re-Id
方法描述
DeepSort aIou+(1-a)cos
ByteTrackone:cos ; two:iou
BOT-SORTone:min{iou,0.5cos(满足阈值)}  ; two:iou
AW

deep oc sort的 计算差异度

ACM bytetrack改进混合运动特征+自适应计算混淆矩阵 

3. 藏辉

藏晖_深度学习,目标跟踪,ReID-CSDN博客

CVPR2023 多目标跟踪(MOT)汇总_藏晖的博客-CSDN博客

3.1 cvpr2023 的二《MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking》

对于密集的人群,我们设计了一个新的交互模块,从短期轨迹中学习交互感知运动,它可以估计每个目标的复杂运动。对于极端遮挡,我们建立了一个新的重寻模块(和reid无关),从目标的历史轨迹中学习可靠的长期运动,它可以将中断的轨迹与相应的检测联系起来。

基于ByteTrack的改进,用网络来强化其运动预测

3.2 CVPR2023的九 《Simple Cues Lead to a Strong Multi-Object Tracker》

将我们的外观特征与一个简单的运动模型相结合,可以得到强大的跟踪结果。

文中要解的问题是在目标丢失之后,appearance特征的区分性并不强,影响跟踪性能。
因此,本文提出了两种设计选择,以使外观模型更强: (i)以不同的方式处理active和inactive的轨迹,简单来说就是对active轨迹计算了前后两帧之间的距离,对于inactive轨迹计算了当前帧与轨迹消失前所有帧的距离,并求了平均;(ii)我们添加了动态的域自适应,即一种归一化方式让ReID特征可以更自适应不同的场景,如遮挡等(与ECCV2022一篇paper思路相似 就是下面的3.3)
 

ECCV2022 多目标跟踪(MOT)汇总_mot跟踪_藏晖的博客-CSDN博客

3.3  ECCV的三 《Robust Multi-Object Tracking by Marginal Inference》

本文作者提出了一种归一化的方式,能保证不同的视频序列可以用相同的REID阈值,以提高算法性能。

CVPR2022 多目标跟踪(MOT)汇总_20202 多目标跟踪_藏晖的博客-CSDN博客

3.4   cvpr2022的一 《DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse Motion》   一篇数据集文章  

我们实际中通常跟踪的目标不具有相同的外观表征,同时其运动姿态也会更多样。为此,本文作者提出了一个“DanceTrack”的数据集,希望其能提供一个更好的平台来开发更多的MOT算法,更少地依赖于视觉辨别,更多地依赖于运动分析

DanceTrack: 相似外观和复杂运动的多目标追踪数据集 (CVPR2022) - 知乎 (zhihu.com)

为了实现这个目标,我们收集了100段视频,内容包括集体舞蹈、功夫、体操等,他们共同的特点是:(1)目标人物穿着相似甚至一致;(2)目标之间有大量的遮挡和位置交错;(3)目标的运动模式非常复杂多样,呈现明显的非线性,并且时常伴随多样的肢体动作。

3.5 它的reid系列

reid- CSDN搜索

4.赵炎给的两篇还剩一篇没有看过  

bytetrack改进混合运动特征+自适应计算混淆矩阵

4.1Hybrid Motion Feature    HMF

4.2ACM   Adaptive Calculation Method (ACM)  

感觉不如3中的 

两个等式对应——对应两个阶段 

IoU-constrained appearance  cost matrix

use the IoU as a constraint to prevent the similar-looking but too distant objects

2023/10/14 

有一个很重要的问题 why需要追踪

Deep -oc sort中的AW   或者4中的ACM

1. 这次组会需要给帅哥画个流程图    第三四章的关联

第三章适用的场景:   

bytetrack分为高分匹配和低分匹配,但是轨迹只要是满足条件(上面的1、2 无论找回还是匹配上的)都会在两次中使用

所以,第三章适用 高分的检测框(无遮挡、检测条件非常好) ,并且满足如下阈值

否则 低分匹配(遇到了遮挡、检测条件没有那么好) 就用纯第四章

2. 还答应帅哥 给改进的思路    主要是关于reid和iou的融合吧

dancetrack数据集 

2023/11/20小组会

重点是关于IOU和Re-ID的融合 

基于AW 

余弦相似度的取值范围在 -1 到 1 之间,值越接近 1 表示两个向量越相似,越接近 -1 表示两个向量越不相似,接近 0 表示两个向量之间没有明显的相似性或差异。

首先 作者说的是使用 standard cosine similarity,不知道这个标准的意思是取值0到1吗? 先默认它是-1到1 。 但是另外一个问题 第一和第二差异度大不是个好事吗? 为什么要min限制呢?“where is a hyper-parameter to cap(限制) the boost where there's a large difference in appearance cost between the first and second best matches. ”

那么当E的值为0.75  Wb的最大值是0.75,最小值 是0,

对于外观成本矩阵必须要用iou来限制

明早过来 先把知云这个文献研究明白   然后把实验编出来,

下次组会需要再完善下第三章的实验  需要尽快动笔了  第三章写完才能第四章 

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值