李宏毅机器学习笔记(8)—半监督学习

分类

直推学习:训练过程中使用待测试数据,目的是提高对这些数据分类的正确率。
归纳学习:训练过程的目的是提出一个能够泛用的模型,而不是单单为了某些待测试数据。

常用方法

self-training

自我训练:方法非常直观
①根据有标签的data训练出一个模型;
②把无标签的data代入模型,得到可能性最大的标签
③选择②中一些表现比较好的数据(指得到的最大可能性与其他可能性差距较大,即这个label大概率是对的),重新带入①中,继续训练
④重复直至收敛

Entropy-based Regularization

在这里插入图片描述
如上图,介绍一种称为Entropy-based Regularization的方法。
首先,Entropy是用于衡量生成标签的可能性的分散程度,如果可能性十分集中,这个值E就会越小,而我们希望他是更集中的。
所以在设计Loss函数的时候,我们在一般的item后面加了一项在这里插入图片描述
用于描述我们期

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值