Learning Disentangled Representation Implicitly via Transformer for Occluded Person Re-Identificatio

题目:Learning Disentangled Representation Implicitly via
Transformer for Occluded Person Re-Identification
作者:Mengxi Jia

一、研究背景
带有遮挡的行人图片会造成图片匹配时的误对齐。
由于遮挡物类型众多且遮挡的位置不固定,会造成行人外观的巨大变化,带来类内匹配错误;与身体部位外观相似的遮挡物会使学到的特征不准确。
目前主流的应对措施是用额外的语义提示或局部特征进行对齐,然而这些对齐方式对噪声敏感且不能很好区分行人躯体和遮挡物。
因此,这篇论文提出了不需要严格对齐和额外监督的DRL-Net(解纠缠表示学习网络),并实现了用遮挡图片的局部特征实现全局推理。

二、研究目标
在这里插入图片描述

(1)在语义偏好目标序列的指导下,通过对未定义语义成分的特征进行解纠缠,实现图片的相似性度量
(2)设计去相关约束,使目标序列更好地关注不同语义组件
(3)设计对比特征学习(CFL),分离遮挡特征和鉴别性特征,来更好地消除遮挡的影响

三、技术路线
在这里插入图片描述

A. Semantic Representation Extraction and Disentanglement
按照语义成分提取特征
(1)CNN特征提取器
(2)encoder:可学习的位置编码
(3)decoder:可学习的输入嵌入(semantic
preferences object queries)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
1)identity loss
在这里插入图片描述
2)Object Query Decorrelation Constraint
在这里插入图片描述
B. Semantic Preferences guided Contrast Feature Learning(语义偏好引导的对比特征学习)

  1. Occluded Sample Augmentation (OSA):
    在这里插入图片描述
    希望目标序列生成的语义成分只关注身体部位而不受遮挡影响
    在这里插入图片描述
    希望遮挡目标序列只关注遮挡物或噪声
    在这里插入图片描述
    C. Training and Inference
    在这里插入图片描述
    在这里插入图片描述
    四、实验结果
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二苏旧局吖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值