AlignedReID论文学习

本文深入探讨了AlignedReID论文,该研究引入局部特征对齐到行人重识别任务,结合全局和局部特征,使用TriHard loss实现超越人类识别水平的效果。文章详细解释了框架、距离计算方法及交互学习的概念。
摘要由CSDN通过智能技术生成

AlignedReID论文学习

论文:《AlignedReID: Surpassing Human-Level Performance in Person Re-Identification》
下载链接:https://arxiv.org/abs/1711.08184v1

这篇论文将局部特征对齐引入到行人重识别的任务中,结合局部特征和全局特征计算损失函数,得到了非常好的结果(据说超越人类识别水平!!!)

需要提前掌握的知识点:

  • 度量学习(Metric Learning)
  • 特征对齐(Feature Alignments)
  • 交互学习(Mutual Learning)
  • 重排(Re-Ranking)

AlignedReID 框架

直接上图:
在这里插入图片描述
首先 N 张图进入到卷积神经网络(ResNet50),得到 2048 × \times × 7 × \times × 7 的特征图,此时开始分化:特征图经过全局池化得到 2048 × \times × 1 的全局特征(图中下面一路);特征图经过水平池化+ 1 × \times × 1 的卷积层后得到 128 × \times × 7 的局部特征(图中上面一路),这里 1 × \times × 1 的卷积层是为了改变输出特征的通道数。
距离计算:
全局特征:L2距离
局部特征:对两个特征图在水平方向上进行划分,然后通过从顶部到底部的搜索方法来进行特征匹配,如下图所示:

即第一张图像的第 i i i 个垂直部分与第二张图像的第 j j j 个垂直部分之间的距离 d i , j d_{i, j} di,j 计算为:
d i , j = e ∥ f i − g j ∥ 2 − 1 e ∥ f i − g j ∥ 2 + 1 i , j ∈ 1 , 2 , 3 …

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值