Mixed High-Order Attention Network for Person Re-Identification

动机:
作者认为目前attention的操作都太过于粗糙,工作主要集中在粗糙的或一阶的注意力设计上,例如 spatial attention 和 channel attention ,需要高阶的操作以获取更多local之间的关系。

贡献:
1.提出了高阶注意分配(HOA)模块来捕获和利用高阶注意分配。
2.将ReID重新考虑为零样本学习任务,并提出了混合高阶注意力网络(MHN),以有效利用多个HOA模块,从而通过明确抑制“深度模型的偏向学习行为”来增强注意力的丰富性。 并引入了对手学习约束条件,以进一步防止秩序崩溃的问题。
在这里插入图片描述

作者对三个机制的对比。

框架:
1.提出的HOA模块
在这里插入图片描述
在第N个order采用了N个1×1的卷积核,之后得到的N个等尺寸的feature再相互乘,得到不同阶的mask。
在这里插入图片描述
在得到不同阶的feature后,作者又设计了一个对抗损失adversary coefficient:
1.特征由FC层输出后,期望各个feature之间的差异性缩小
2.Mixed High-Order Attention Network期望不同阶的attention模块可以学习到更有区分性的的特征,即不同阶学到的特征不同。

2.提出的MHN的框架
在这里插入图片描述
R=1,R=2,R=3,代表图中嵌入了1、2、3阶注意力模型。作者称这种结构为混合高阶注意力网络Mixed High-Order Attention Network(MHN)。

值得注意的是,这种网络结构是与模型解偶的,所以该模块可与任何行人重识别网络结合。
该模型框架为resnet50 使用PCB框架,有单一的分支,加入了加入Mixed High-Order Attention Network,使用了CE loss+adversary coefficient损失函数。
实验结果:
在Market-1501 , DukeMTMC-ReID and CUHK03-NP数据集上进行实验
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
注意力阶数对最终结果的影响,由下表可知,阶数越高,最终的结果越好。
在这里插入图片描述
该注意力机制也可以应用于其他任务,代码链接https://github.com/chenbinghui1/MHN

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值