论文阅读笔记《Boosting Few-Shot Visual Learning with Self-Supervision》

小样本学习&元学习经典论文整理||持续更新

核心思想

  本文提出一种利用额外自监督任务提高小样本学习能力的算法,自监督学习是指模型在训练时只需要图像本身的信息,而不需要额外的标注信息。本文的核心思想就在于将额外的自监督学习任务与小样本分类任务结合起来,二者共用一个特征提取网络,利用自监督学习任务提高特征提取网络的表征能力,从而改善小样本分类任务的效果,该算法的实现方式如下图所示。
在这里插入图片描述
  本文选择的小样本分类算法有PN和CC(基于余弦相似性的方法,如DynamicImprinting),本文选择的自监督学习任务有图像旋转预测和图块相对位置预测(图中表示的是图像旋转预测任务)。小样本学习部分不再详述了,不了解的话可以点击超链接阅读之前的论文解析。下面简单介绍以下两个自监督学习任务:
图像旋转预测。作者将原始图像分别旋转0°,90°,180°和270°后输入到特征提取网络 F θ F_{\theta} Fθ中,再利用一个旋转分类器 R ϕ R_{\phi} Rϕ预测当前输入图像的旋转角度,损失函数如下
在这里插入图片描述
图块相对位置预测。作者将图像分成3*3的九个图块,将外围的八个图块分别与中间图块级联后,输入到特征提取网络 F θ F_{\theta} Fθ中,再利用一个相对位置分类器 P ϕ P_{\phi} Pϕ输出当前图块与中间图块的相对位置,损失函数如下
在这里插入图片描述
  将小样本分类损失函数与自监督损失函数相加就得到了最终的混合损失函数
在这里插入图片描述
值得注意的是,因为自监督学习任务不需要额外的标注信息,因此对于自监督学习任务可以拓展到其他的大规模无标记数据集中,与带有标注的数据集共同构成一个半监督学习过程,损失函数如下
在这里插入图片描述

实现过程

网络结构

  特征提取网络可采用4-Conv或WRN-28-10.

损失函数

  见上文

创新点

  • 将小样本分类任务与自监督学习任务相结合,通过提高特征提取网络的表征能力,来改善小样本分类效果

算法评价

  本文在本质上讲就是一个多任务融合的方法,将小样本分类任务与自监督学习任务相结合,两个任务共用一个特征提取网络,一个混合损失函数。在对自监督学习任务进行训练的过程中可以提高特征提取网络的表征能力,而且自监督任务不需要标注信息,因此这也解决了数据集缺少多个任务标注信息的问题(如果与语义分割任务结合,那么就要求数据集既有分类标注,又有分割标注,但自监督任务就不存在这个问题),并且可以进一步拓展到半监督学习中,利用大规模的无标注图像对网络进行训练。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。在这里插入图片描述

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深视

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值