机器学习中的相关概念【监督,半监督,无监督,弱监督,自监督】

机器学习中大体可以把任务分为监督学习,无监督学习。在我们的学习和资料查阅中会出现,半监督,自监督,弱监督这样的词汇,让人心生疑惑,在此进行一个梳理。以上各个概念的分类并不是严格互斥的。

监督和无监督

  • 有监督:用有标签的数据训练;
  • 无监督:用无标签的数据训练;

这两者其最主要的区别在于模型在训练时是否需要人工标注的标签信息。监督学习利用大量的标注数据来训练模型,模型的预测和数据的真实标签产生损失后进行反向传播,通过不断的学习,最终可以获得识别新样本的能力。
无监督学习不依赖任何标签值,通过对数据内在特征的挖掘,找到样本间的关系,比如聚类相关的任务。

  • 半监督:同时用有标签和无标签的数据进行训练。也就是数据集中小部分数据是带标签的;先前通常是两阶段的训练,先用(较小规模的)有标签数据训练一个Teacher模型,再用这个模型对(较大规模的)无标签数据预测伪标签,作为Student模型的训练数据;目前已经有很多直接end-to-end地训练,大大减少半监督训练的工作;

自监督学习

  • 自监督:在无标注数据上训练,通过一些方法让模型学习到数据的inner representation,再接下游任务,例如加一个mlp作为分类器等。但接了下游任务之后还是需要在特定的有标签数据上finetune,只是有时候可以选择把前面的层完全固定,只finetune后面接的网络的参数。

    自监督学习是监督学习的一个特例,它与众不同,值得单独分为一类。自监督学习是没有人工标注标签的监督学习,可以将它看作没有人类参与的监督学习。标签仍然存在(因为总要有什么东西来监督学习过程),但它们是从输入数据中生成的,通常使用启发式算法生成的。

和无监督学习不同,自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。换句话说自监督学习的监督信息不是人工标注的,而是算法在大规模无监督数据中自动构造监督信息,来进行监督学习或训练。

弱监督学习

  • 弱监督:用包含噪声的有标签数据训练。弱监督学习是机器学习领域中的一个分支,与传统的监督学习相比,其使用有限的、含有噪声的或者标注不准确的数据来进行模型参数的训练。

也就是说这种监督学习的数据的缘故,是一种有限有瓶颈的学习。来描述一个任务比较困难,并在这种学习任务中将其统称为弱监督学习。

按照数据的标注程度可以分为以下三类:不完全监督、不确切监督、不准确监督。

1.不完全监督
若样本中存在部分数据具有标注信息,而剩余部分则不具备有效的标注,这种为不完全监督。进一步,如果对于选定的未标注数据,存在一个系统能够给出数据的正确标签,即具备查询功能,则为不完全监督中的主动学习,其余的可划分为半监督学习的范围。
在半监督学习中,对于数据的分布存在两种基本假设:聚类假设和流行假设。前者假设样本空间存在内在的聚类结构,因此同一聚类中样本的标签应该相同;而后者则认为数据分布在一个流行上,在流行上相近的样本具有相似的预测结果。

2.不确切监督
当数据只具有粗粒度的标签时,被称为不确切监督。例如在人脸识别任务中,只对样本中是否含有人脸进行说明,但不提供人脸的具体位置,便是一种典型的不确切监督的问题。

3.不准确监督
即样本虽有具有标签,但并不准确。造成这种现象的原因有很多,例如标注难度大、标注人员自身水平有限等。

弱监督学习在医学影像中的应用

医学影像因标注要求高、数据收集困难等特点,很难收集具有大量有效标注的医学影像,因此很多医学影像分析的工作均采用弱监督学习的思路尝试解决问题。弱监督学习在标签有限的情况下,进行医学影像的处理,进而实现疾病的分类、病灶的定位及分割多种任务。

强化学习

  • 强化学习一直以来被人们所忽视,但随着google的DeepMind公司将其成功应用于学习玩Atari游戏(以及后来学习下围棋并达到最高水平),机器学习的这一分支开始受到大量关注。

在强化学习中,智能体(agent)接收有关环境的信息,并学会选择使某种奖励最大化的行动。例如,神经网络会“观察”视频游戏的屏幕,并输出游戏操作,目的是尽可能得高分,这种神经网络可以通过强化学习来训练。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值