paperweekly

Margin Sample Mining Loss: A Deep Learning Based Method for Person Re-identification

1. 文章提出了一种新的度量学习方法 Margin sample mining loss - MSML。Triplet loss 是一种非常常用的度量学习方法,Quadruplet loss 和 Triplet hard batch loss(TriHard loss)是它的两个改进版本,而 MSML 是吸收了 Quadruplet loss 和 TriHard loss 两个优点的综合体,实验证明 MSML 能够在 person ReID 的公开数据集上取得很好的结果;

2. 这个方法不止可以应用于 person ReID,而是一种通用的度量学习方法,进一步可以延伸到图像检索等相关的各个领域。

Scale-adaptive Convolutions for Scene Parsing

ICCV'17 Poster。 简而言之,文章提出了一个 scale-adaptive 的 dilation conv层。

1. 与 fixed coefficient 的 dilation conv 相比,本文提出的 scale-adaptive conv 层通过前一层的 feature 对于每一个位置预测一个 variant coefficient。对于大物体,我们应该需要更大的感受野,因此得到一个大的系数;对于小物体,我们应该关注细节而忽略背景,则缩小感受野更加强调细节的 feature。可以参考文章图 3 理解;

2. dilation 系数非整数时,使用常见的 STN 中的 bilinear interpolation 做到可以 e2e 的学习;

3. 合理的初始化系数回归层的参数,并在训练时进行对其 clip,使得 dilation 系数位于一个合理的范围内;

4. 文章提到在高层使用效果较好;

5. 即插即用,较小的额外参数和计算开销。相比 baseline 不加多尺度训练的情况下可以在 cityscape 上涨 2 个多点。





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值