12、【李宏毅机器学习(2017)】Semi-supervised Learning(半监督学习)

这篇博客介绍了半监督学习的概念,与监督学习的区别,并探讨了在概率生成模型中的应用。文章详细阐述了半监督学习中的概率生成模型算法及其迭代过程,以及低密度分离假设在Self-training和Entropy-based Regularization中的作用。同时,还讨论了Semi-supervised SVM和基于平滑假设的聚类与图模型方法,强调了更好地表示数据的重要性。
摘要由CSDN通过智能技术生成

在前面的博客中主要介绍的算法全部都是监督学习的算法,接下来的博客将开始介绍半监督学习算法。


目录


半监督学习介绍

半监督学习与监督学习

  • 监督学习中的样本中的是已知的,所以监督学习算法可以在训练集数据中充分使用数据的信息
  • 半监督学习的样本中只有R个样本的是已知,U个样本的未知,且通常U远大于R
    – Transductive learning :将未知标签的数据作为测试集数据(用了未知标签的数据的feature)
    – Inductive learning:未知标签的数据不作为测试集数据

半监督学习的用处

一个直观的例子,假设蓝色点代表“猫”,橙色点代表“狗”,灰色点代表未知标签的点,尽管灰色点的标签未知,但是也能帮助我们构建模型。
这里写图片描述

Semi-supervised Learning for Generative Model

监督学习中的概率生成模型(Supervised Generative Model)

在监督学习中,可以之间计算样本中的类别比率、先验分布,从而计算出后验概率。
这里写图片描述

半监督学习中的概率生成模型(Semi-supervised Generative Model)

假设绿色为未知标签的数据,蓝色、橘色各表示一类,此时由已知标签的样本数据估计出来的 u1,u2,Σ u 1 , u 2 , Σ 显然是不合理的,以已知标签样本计算 P(C1)>P(C2) P ( C 1 ) > P ( C 2 ) ,而如果考虑未知标签的样本数据则有可能 P(C1)<P(C2) P ( C 1 ) < P ( C 2 ) ,因此半监督学习中的概率生成模型要比监督学习中的概率生成模型要复杂得多。
这里写图片描述

半监督学习中的概率生成模型算法

  1. 初始化 θ:=P(C1),P(
  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值