第十章 模型独立的学习方式

第十章 模型独立的学习方式

在前面的章节中,我们已经介绍了机器学习的几种学习方式,包括监督学 习、无监督学习等。这些学习方式分别可以由不同的模型和算法实现,比如神经 网络、线性分类器等。针对一个给定的任务,首先要准备一定规模的训练数据,这 些训练数据需要和真实数据的分布一致,然后设定一个目标函数和优化方法,在 训练数据上学习一个模型。此外,不同任务的模型往往都是从零开始来训练的, 一切知识都需要从训练数据中得到。这也导致了每个任务都需要准备大量的训 练数据。在实际应用中,我们面对的任务往往难以满足上述要求,比如训练任务 和目标任务的数据分布不一致,训练数据过少等。这时机器学习的应用会受到很 大的局限。并且在很多场合中,我们也需要一个模型可以快速地适应新的任务。 因此,人们开始关注一些新的学习方式。

本章介绍一些“模型独立的学习方式”,比如集成学习、协同学习、自训练、多 任务学习、迁移学习、终身学习、小样本学习、元学习等。这里“模型独立”是指这 些学习方式不限于具体的模型,不管是前馈神经网络、循环神经网络还是其它模 型。然而,一种学习方式往往会对符合某种特性的模型更加青睐,比如集成学习 往往和方差大的模型组合时效果显著。

集成学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

从定理10.1可知,为了得到更好的集成效果,要求每个模型之间具备一定的差异性。并且随着模型数量的增多,其错误率也会下降,并趋近于 0。

集成学习的思想可以用一句古老的谚语来描述:“三个臭皮匠赛过诸葛亮”。 但是一个有效的集成需要各个基模型的差异尽可能大。为了增加模型之间的差 异性,可以采取 Bagging 和 Boosting 这两类方法。

在这里插入图片描述

AdaBoost 算法

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

自训练和协同训练

监督学习往往需要大量的标注数据,而标注数据的成本比较高。因此,利用 大量的无标注数据来提高监督学习的效果有着十分重要的意义。这种利用少量 标注数据和大量无标注数据进行学习的方式称为半监督学习(Semi-Supervised L

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值