Collaborative Attention Network for Person Re-identification

10 篇文章 0 订阅
8 篇文章 1 订阅

       今天推一篇我们组内image-based reid的工作。《Collaborative Attention Network for Person Re-identification》,paper:arxiv:https://arxiv.org/abs/1911.13008,code:https://github.com/lwplw/reid_CAN

       在行人重新识别(Re-ID)问题中,使用global和local feature来增强model性能是一种主流的方法,比如大家公认的MGN,就是通过采用切片和copy、cat等操作得到一个concat的feature,但我们认为由于定义了规则和策略局部切片,因此仍无法充分利用部分模式。所以我们提出了一种协作注意网络(CAN)学习结合邻域的局部特征,可以进一步改善最终Re-ID的特征表示。在几个公开数据集上的实验结果证明,我们提出的方法优于许多现有的SOTA。

模型结构大致是这样的:

                       

   我们把backbone出来的global feature copy四份,分1,3,5,7切分,然后邻域local feature间concat然后经过maxpooling,最后把所有的global和local全部送loss。

大概出来在三大数据集上的精度这样:

        

   可以看到,基本比现有很多SOTA的paper精度要高,当然我们也用了很多训练中的Trick,这得感谢罗浩大神的Strong baseline。

对于结构有感兴趣的,或者觉得哪里可以改进的欢迎跟我讨论。

评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值