机器学习教程 之 半监督学习 Tri-training方法 (论文、数据集、代码)

最近因为项目需要研究了一下半监督学习,稍经了解以后发现当存在大量未标签数据时,这确实是一种非常好用的方法,可以很好的提升分类精度。这里介绍一下周志华教授的Tri-triaining方法,在实现上非常的简单好用,在文末会有代码、数据集的链接
原文在这里
Tri-training: exploiting unlabeled data using three classifiers

博主关于图神经网络的文章
DeepLearning | 图卷积神经网络(GCN)解析(论文、算法、代码)
DeepLearning | 图注意力网络Graph Attention Network(GAT)论文、模型、代码解析
DeepLearning | 图卷积网络基于拓扑结构的分类(T-GCN)

关于半监督学习
基于分歧的半监督学习方法
机器学习教程 之 半监督学习 Tri-training方法 (论文、数据集、代码)
机器学习教程 之 半监督学习 Co-training 协同训练 (论文、算法、数据集、代码)
机器学习教程 之 半监督学习 Coreg 协同回归算法 (论文、算法、数据集、代码)
机器学习教程 之 半监督学习 基于图正则项的半监督极限学习机

这些博客都提供了算法的讲解和python的代码复现,感兴趣的可以了解一下

一、Tri-training

Tri-traing 是对 co-training (协同训练)的一种改进,它也是一种基于分歧的方法。简单来说,Tri-training 的训练过程分为以下几步

  1. 利用bootstrap方法从有标签数据集里采样三个子数据集。利用三个子数据集训练三个有差异的基分类器
  2. 对于其中一个分类器i,另外两个分类器预测所有未标注数据集,挑选出其中预测结果相同的样本,作为新的有标签数据,加入到分类器i的训练集中
  3. 为三个分类器分别执行步骤2,并利用三个扩增的数据集更新分类器
  4. 重复执行2,3,直到模型收敛

在为无标签数据贴上伪标签的过程中,是有可能贴错标签,即在数据集中增加噪声的。但是周教授在论文中证明了,当新增加的数据足够多时,噪声带来的影响是可以被抵消的。Tri-trianing的理论基础其实是相当坚实的,详细的可以具体见论文

二、Implementation

代码数据集等 https://github.com/LiangjunFeng/Tri-training (写博客不容易,欢迎点赞关注,感谢支持)

三、资源下载

微信搜索“老和山算法指南”获取更多下载链接与技术交流群
在这里插入图片描述
有问题可以私信博主,点赞关注的一般都会回复,一起努力,谢谢支持。

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Liangjun_Feng

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值