李宏毅机器学习P24——semi-supervised learning半监督学习

在这里插入图片描述

  • 首先初始化参数θ
  • 然后计算无标签数据的后验概率
  • 然后更新模型的参数θ

这种方法相当直觉,没有很特别的理论解释

这个方法理论上会收敛,但是初始值会影响结果

在这里插入图片描述

  • 原始的标注数据加上后面的无标签数据
  • 一次一次进行循环(solved iteratively)

在这里插入图片描述

  • 训练有标签数据得出一个model,然后使用这个model来跑无标签的数据得到一批Pseudo-label,再将无标签数据的一部分移除,加到有标签数据集里面(ppt有勘误),怎么选择这部分数据没有固定要求(还可以给这部分数据赋予权值)
  • regression是不能用这种方法的,因为标签数据得出来的function来处理无标签数据得到的y本身就符合这个function,再进行迭代更新毫无意义。

在这里插入图片描述

  • 在neural network应用中,从labelled data中得到一组network parameter,将这组参数用于对无标签数据进行label,有hard label和soft label两种方式,这里需要采取非黑即白的方法,即采用hard label的方法是有效的,而soft label是不会work的(我理解为参数不会更新)

在这里插入图片描述

  • 一般希望unlabel data的output的分布distribution越集中越好
  • 可以用unlabelled data的output的熵entropy来衡量output的集中程度distribution
  • 然后重新定义损失函数为:labelled data的判断结果与实际结果的距离+unlabelled data的output的熵

在这里插入图片描述

  • 过渡性假设smoothness assumption
  • 更精确的假设不只是说x具有相似度,还具体的说是在一个high density region上的x具有相同的label
  • 比如虽然x1和x3更接近,但是x1和x2才是在同一个集中区域内,因此x1和x2有相同的label

在这里插入图片描述

  • 定义点之间的相似度可以使用KNN和e-Neighborhood来划分
  • 效果更好的方法有Gaussian Radial Basis Function,引入了一个指数

在这里插入图片描述

  • 定义label的smoothness,计算式中labelled data和unlabelled data都要参与计算
  • 公式前面的二分之一是为了后面方便计算,没有特别的意义
  • 公式还有下面的表达形式

在这里插入图片描述

  • 可以表示成矩阵相乘的形式,y是一个(R+U)维的矩阵,L是一个(R+U)×(R+U)维的矩阵
  • L=D-W,D的对角线的值是由W的每一行的加和得到的

在这里插入图片描述

  • S的值其实是取决于网络的参数的,因此可以参考正则化的表达式,将S考虑到损失函数中
  • S作为正则项,然后对L做梯度下降进行参数更新,这样既考虑了点分类的误差,又考虑了smoothness的因素
  • S作为正则项,然后对L做梯度下降进行参数更新,这样既考虑了点分类的误差,又考虑了smoothness的因素
  • smooth的操作可以加入到网络的任何一层中
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值