总结
FairMOT: 一个全新的One-Shot Online MOT 框架,构建 DLA-34 backbone 提取特征随后平行进行Detection 和 ReID 两个分支任务,之后将两个分支的 Loss 合并均衡优化,以达到精度和速度的最优结果。
背景
传统的 MOT 框架,如DeepSORT,是两步走,先 Detection 再 在Detction 给的 BBX 上提取特征进行 Re-ID 进而匹配关联前后出现的物体。但是,这种模式存在一些难以克服的难题:
- 两个模型,太重,时间太长,难以实现实时MOT。若用精简模型,精度又下降太快。
- ReID 匹配部分,严重依赖 Detection给的 BBX,但是BBX 通常含有过多周边环境的干扰因素。
有一些方法,像 Track-RCNN 尝试用同一个模型同时做 Det 和 ReID, 但是简单的合并并不如意:
- Det 需要的是深层的高度抽象的低维度特征,而 ReID 需要的初始浅层的具象可判别的高纬度特征,二者并不同路
同时,在模型的训练上,普遍偏袒 Det 任务,ReID 并未得到应有的重视。协同作用发挥的并不好。
创新点
Fair:Det 和 ReID 的平衡协同。
基于背景中提到的痛点,FairMOT 的创新点体现在
- OneShot:以 ResNet-34 作为 backbone 来逐层提取特征,随后加一层 DLA(Deep Layer Aggregation)来合并各层特征
- Two Branches:Detection & ReID 平行并重,各取所需
- Anchor-free Detection
(未完待续。。。 )