极简笔记 segmentation + transfer learning survey第二弹

极简笔记 segmentation + transfer learning survey第二弹

@(academic)[极简笔记]

Deep Extreme Cut: From Extreme Points to Object Segmentation

本文的思路非常简单,标注分割对象的极点(最上方点,最下,最左,最右),生成4 channel的极点位置高斯响应图,与输入图片concatenate之后送入网络学习。实验发现这样的学习方式比利用bbox+50px margin进行cut出来继续分割的效果好。
这里写图片描述
这里写图片描述

Residual Parameter Transfer for Deep Domain Adaptation

本篇文章的工作是为了做domain adaption,即在一个库上训练,换一个只有少量标注的数据集,保证识别率。
这里写图片描述

网络架构如上图,采用two-stream结构,分别用于source domain和target domain数据特征的提取,target domain网络的参数由source domain对应层经过一个residual block的结构(identity map+autoencoder)学得。训练过程中包括三部分loss:1.分类loss,包括source domain分类误差和少部分target domain的分类误差;2. Discrepancy Loss,目标是使得两个网络输出的特征尽量一致。利用一个预训练分类器和对抗误差实现这个效果;3. 正则化误差,因为target domain标注极小,residual-block参数过多会导致严重过拟合,因此在residual-block采用多种正则化方法减少参数量。
这里写图片描述

文章提到pseudo-label(用source domain网络预测target domain结果之后做监督学习)非常有效,是未来的方向。

Large Scale Fine-Grained Categorization and Domain-Specific Transfer Learning

本篇文章研究的问题是细粒度分类,主要有两个贡献:1. 利用二阶段训练方法解决分类问题long-tailed数据分布问题;2. 利用Earth Mover’s Distance(EMD)来度量source domain(粗粒度分类)中的类别与target domain(细粒度分类)中类别的相似度。利用贪心的方式选取与target domain类别最相关的source domain类别集合进行预训练,之后再在target domain上进行fine-tuning。
这里写图片描述

long-tailed分布问题是因为自然界中总是有一些物体出现次数少,这类物体在训练集中出现次数也很少,这就会导致训练不平衡的问题。文章提出二阶段法,第一阶段正常训练,第二阶段选取那些出现次数少的样本做一个训练集,用较小学习率进行fine-tuning,能取得效果提升。文章还提到提高输入图像resolution也能提高性能。

在迁移学习方面,文章的研究思路是pretrain粗粒度网络(数据量大),之后迁移到细粒度训练集进行fine-tuning。记source domain样本 sS s ∈ S ,target domain样本 tT t ∈ T ,样本特征间的欧氏距离 d(s,t)=||

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值