19-Self-supervised-Visual-Feature-Learning-with-Deep-Neural-Networks-A-Survey

本文详细探讨了自我监督学习方法在无标注数据中学习图像和视频特征的重要性,通过预设任务(如图像恢复、上下文预测等)生成伪标签,训练深度卷积网络。这种方法避免了大量标注数据的需求,提高了模型在下游任务(如图像分类)中的性能。文章总结了自我监督学习的创新点和不同学习方法,为研究者提供了全面的调查。
摘要由CSDN通过智能技术生成

who

  • Longlong Jing and Yingli Tian ∗ , Fellow, IEEE
  • 2019-

what

  • 为了避免收集和注释大规模数据集的大量成本,作为无监督学习方法的子集,提出了自我监督学习方法,以从大规模未标记数据中学习一般图像和视频特征,而无需使用任何人工标注的标签。

一些术语

1. Pseudo label:
  • 伪标签是基于pretext tasks的数据属性自动生成的标签。
2. Pretext Task
  • Pretext tasks 是网络要解决的预先设计的任务,通过学习Pretext tasks 的目标函数来学习视觉特征。
3. Downstream Task
  • 用于评估自我监督学习所学习的特征的质量。
  • 需要人工标注的标签来解决Downstream Task。
  • 在某些应用程序中,Downstream Task可以与Pretext tasks 一样不使用任何人工注释标签。
4. Self-supervised Learning
  • 无监督学习方法的一个子集。
  • 学习方法,其中使用自动生成的标签明确训练ConvNets;

本综述仅关注视觉特征的自我监督学习方法

where

动机

1. 经过预先训练的模型,并针对其他任务进行了调整,主要有两个原因
  1. 从大规模不同数据集中学习的参数提供了一个很好的起点,因此,对其他任务的网络训练可以更快地收敛;
  2. 在大规模数据集上训练的网络已经学习了层次结构特征,这有助于减少其他任务训练期间的过拟合问题,特别是当其他任务的数据集很小或者训练标签很少时。
2. 要从未标记的数据中学习视觉特征
  • 为了避免耗时且昂贵的数据标注;
  • 一种流行的解决方案是提出网络要解决的各种pretext tasks,同时通过学习pretext tasks的目标函数来训练网络,并通过该过程学习特征。
3. pretext tasks共享两个共同属性
  1. ConvNets需要捕获图像或视频的视觉特征来解决pretext tasks,
  2. 可以基于图像或视频的属性自动生成用于pretext tasks的伪标签。

整体思路框架

image-20190505130546656

创新

  1. 据我们所知,这是第一个关于深度ConvNets的自我监督视觉特征学习的全面调查,这将有助于该领域的研究人员。
  2. 深入审查最近开发的自我监督学习方法和数据集。
  3. 提供了定量性能分析和现有方法的比较。

不同学习方法的函数

1. 监督学习函数

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值