Self-supervised Learning 自监督学习

自监督学习是无监督学习的一种,通过构造预训练任务从大量无标签数据中学习通用特征表示。主要方法包括基于上下文、时序和对比的学习。自监督学习面临的挑战在于无标签数据的表示学习、有效辅助任务的设计和表征效果的评估。预训练-微调流程在监督学习和自监督学习中都起着关键作用,尤其在减少标注成本和加速训练方面具有优势。
摘要由CSDN通过智能技术生成

一般机器学习分为监督学习,无监督学习、半监督学习、强化学习。而 self-supervised learning 是无监督学习里面的一种(自监督学习,可以自动构造监督信号进行学习,不需要人工标注,可以认为是无监督学习,主要是希望能够学习到一种通用的特征表达用于下游任务。其主要的方式就是通过自己监督自己,比如把一段话里面的几个单词去掉,用他的上下文去预测缺失的单词,或者将图片的一些部分去掉,依赖其周围的信息去预测缺失的 patch。

 

自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。(也就是说自监督学习的监督信息不是人工标注的,而是算法在大规模无监督数据中自动构造监督信息,来进行监督学习或训练。因此,大多数时候,我们称之为无监督预训练方法或无监督学习方法,严格上讲,他应该叫自监督学习)

 

对于自监督学习来说,存在三个挑战:

  1. 对于大量的无标签数据,如何进行表征/表示学习
  2. 从数据的本身出发,如何设计有效的辅助任务 pretext
  3. 对于自监督学习到的表征,如何来评测它的有效性

对于第三点,评测自监督学习的能力,主要是通过 Pretrain-Fintune 的模式

监督学习中的 Pretrain - Finetune 流程:我们首先从大量的有标签数据上进行训练,得到预训练的模型,然后对于新的下游任务(Downstream task),我们将学习到的参数(比如输出

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值