1705.IAN- The Individual Aggregation Network for Person Search 论文阅读笔记

本论文工作量不大,只是把A Discriminative Feature Learning Approach for Deep Face Recognition这篇论中的中心loss迁移了过来,对xiao tong的端到端的行人框架做了一些改进,不过作者改进工作是在港中文xiao tong最早先发布在axiv上的老版论文进行的,那篇论文用的是RSS随机采样loss,来解决训练问题。不过,文中也提到了与基于IOMloss的检测+reid框架的比较。

在这里总结一下:检测+识别的reid研究:
首先检测+reid问题的研究更贴切的应该叫—person search
包括:
1.PRW数据集
Person reidentification in the wild 主要是一些detector+reid的组合,验证的是DPM-Alex +IDE(detection)组合效果最优

2.CUHK-SYSU数据集
End-to-end deep learning for person search 采用RSSloss实现端到端的训练
Joint detection and identification feature learning for person search 采用OIMloss实现端到端的训练,具有更好性能和更低的计算复杂度。

论文介绍:
这里写图片描述
这里写图片描述

作者贡献:
1.Individual Aggregation Network (IAN)采用res-net101结合faster RCNN的RPN/新增中心loss+RSSloss实现了最好的mAP和rank性能。中心loss是的训练得到的类内同ID的特征表达更紧凑,提升不同ID的区分性。
2.简单举例并通过实验得出dropout和作者引入的中心loss不兼容。

这里写图片描述
其他:由于训练时,输入框架是整张图像,而不同ID行人显示在各图像中是随机的,稀疏的和不均衡中,很难组织等量的正负样本对,不能在基于faster RCNN的框架里直接引入验证对比loss项,所以作者引入了中心loss实现一定的约束,通过减小类的intra-variance 优化模型训练。

在CUHK-SYSU数据集上
新加loss以加权的形式整合到之前的四个loss之和中,实现联合优化,加权参数取值采用训练集交叉验证得到,如下:
这里写图片描述

模型方法实验对比:
这里写图片描述

对Occlusion and Resolution的鲁棒性实验:
这里写图片描述

Effects of Gallery Size:
这里写图片描述

Input of Center Loss:
这里写图片描述

Center Loss with VGGNet对dropout和中心loss兼容性验证实验:
这里写图片描述
这里写图片描述
分析:dropout不是必须的,只对训练防过拟合有益,移除后,训练得到的性能反而会更好证明当网络既有dropout又有中心loss时,两者是不兼容的,而IAN 移除dropput,再加上中心loss显示了更好的性能

实验效果ranking比较:
这里写图片描述
这里写图片描述

在PRW 数据集上

这里写图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值