2017 AAAI-A Multi-task Deep Network for Person Re-identification

论文地址

  • 和之前一篇笔记思路比较像,也是考虑用多任务来做Re-ID来学到相对鲁棒的特征(多个损失),本文方法中根据不同loss的特点在不同层使用不同的loss来优化感觉很有意思,简单总结下本文的方法部分

Motivation

  • rank loss与binary classification loss各有优缺点
  • 对于深度学习方法来说,re-id数据集规模太小,难以在小数据集上训练深度网络

Contribution

  • 新的多任务学习模型,两个任务针对不同的层来联合优化
  • 针对有效的数据集,提出基于联合特征图的跨领域结构
  • 在5个数据集上做了实验表明本文方法的优于大多数SOTA方法

Introduction

  • binary cls loss目标是使所有的正例距离小于所有负例,这与在query时目标不一样(只需要正例距离小于其对应的负例子),randk loss可以解决这个问题
  • rank loss会将正样本对在特征空间里有更近的距离,但是正样本对不一定是外观上最相似的?


  • 数据集规模小问题 ==> 跨领域学习:借助较大的数据集辅助小数据集训

  • 特征提取:
    • 传统方法
    • CNN提取
  • 度量学习

The propsed network

The multi-task network:

  • 根据两个任务的不同点设计的网络:
    • rank任务需要根据全局特征(low-level features)得到相似性分数
    • 分类任务根据局部特征(semantic local features)来进行区分
    • 根据上述两个loss的特点用在了网络不同的层来优化,得到对任务更加有利的特征。


rank部分:

  • 三元输入模型:两个卷积层(shared) – > fc(shared) –> triple loss,公式如下:

    Ltrp=i=1N[||fA1fA2||22||fA1fB2||22+α]+ L t r p = ∑ i = 1 N [ | | f A 1 − f A 2 | | 2 2 − | | f A 1 − f B 2 | | 2 2 + α ] +

    cls部分:

  • 第三个卷积层的输入是三个input image经过前面两个卷积层256 * 13 * 13的feature map重组成两种类型的图像对,每一对特征图大小为512 * 13 * 13,图像对接着依次送入三个卷积网络输出得到joint feature map,再送入fc网络计算相似性,cls损失使用binary logistic regression loss,公式如下:(感觉少了log?)

    Lcls=i=1N[(1y)p(y=0|x)+yp(y=1|x)] L c l s = − ∑ i = 1 N [ ( 1 − y ) p ( y = 0 | x ) + y p ( y = 1 | x ) ]

  • 训练阶段triplet loss优化前两个卷积层,分类loss优化整个网络
  • 测试阶段只使用分类结构

Cross-domain architecture

  • 主要用在辅助数据集上,多任务模型训练目标数据集,这个半监督的方法不是特别理解,思路很有意思,后面接着看
  • input图像对 –> 两个卷积层(输出Concatate) –> 三个卷积层(输出joint feature map) –> contrastive loss
  • 两个模型上输入图像对的label设计:对两个图像对的label作XNOR操作作为Contrastive loss的label,当两个图像对相同时,拉近两个数据集的joint feature map。
    labelp=labelalabelbLcts=i=1N[y12d2w+(1y)12max(0,md2)2]dw=||FaFb||2 l a b e l p = l a b e l a ⊙ l a b e l b L c t s = − ∑ i = 1 N [ y 1 2 d w 2 + ( 1 − y ) 1 2 m a x ( 0 , m − d 2 ) 2 ] d w = | | F a − F b | | 2
  • 训练阶段仍然是个多任务,contrastive loss用来将不同数据集同类的joint feature map尽可能的相似
  • 测试阶段只使用在目标数据集上训练的模型
  • 该方法的主要目的是让不同数据集比较相似性的方式可以共享

Experiments

Setup

Implementation:

  • Caffe
  • input:224 x 224 水平翻转与其他数据增强加数据扩增4倍
  • pre-train AlexNet权重来初始化前两个卷积层
  • lr 10-3
  • CMC

DataSet and settings:

  • CUHK03
  • CUHK01
  • VIPrR
  • iLIDS
  • PRID2011
Results for the multi-task network

Multi vs. single task: 对比了测试使用rank loss、训练只用binary logistic classification loss或者triplet loss性能

Cross-domain architecrue: 使用CUHK03作为源数据,将其他四个小数据集作为目标数据集进行实验

Comparison with the state of the arts: 与SOTA结构比较




Conclusion

  • cls与rank loss的互补
  • cross-domain结构对小数据集的提高
  • 优于SOTA方法的性能
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值