【周志华机器学习】集成学习

第八章 集成学习个体与集成BoostingBagging 与随机森林个体与集成个体与集成集成学习通过构建并结合多个学习器来完成学习任务,也被称为多分类器系统。集成学习的一般结构:先学习一组个体学习器,再用某种策略将他们结合起来。若集成中只包含同种类型的个体学习器,则这样的集成是同质。同质集成中的个体学习器亦称为基学习器。相应的学习算法称为基学习算法。不同的称为异质,称为组件学习器。那么集成学习如何获得比最好的单一学习器更好的性能呢?集成学习器的结果通过投票法产生,少数服从多数。因此,要获得好的
摘要由CSDN通过智能技术生成

个体与集成

集成学习通过构建并结合多个学习器来完成学习任务,也被称为多分类器系统
集成学习的一般结构:先学习一组个体学习器,再用某种策略将他们结合起来。

若集成中只包含同种类型的个体学习器,则这样的集成是同质。同质集成中的个体学习器亦称为基学习器。相应的学习算法称为基学习算法。不同的称为异质,称为组件学习器
在这里插入图片描述
那么集成学习如何获得比最好的单一学习器更好的性能呢?
集成学习器的结果通过投票法产生,少数服从多数。因此,要获得好的集成,个体学习器应该好而不同。即个体学习器要有一定的准确性,并且有多样性。而因为训练数据相同,多样性和准确性相斥。

根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类。即个体学习器问存在强依赖关系、必须串行生成的序列化方法,以及个体学习器
间不存在强依赖关系、可同时生成的并行化方法;前者的代表是 Boosting ,后者的代表是 Bagging 和"随机森林"。

Boosting

Boosting是一族可以将弱学习器提升为强学习器的算法。这族算法的工作机制类似:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续收到更多的关注,然后基于调整后的样本分布来训练下一个基学习器,如此重复直到基学习器数目达到事前指定的T,最终将这T个基学习器进行加权结合。

Boosting族算法中最著名的是AdaBoost。
AdaBoost算法有多种推导方式,比较容易理解的是基于加性模型,即基学习器的线性组合:
在这里插入图片描述来最小化指数损失函数:
在这里插入图片描述
看到这里回想一下之前的机器学习算法,不难发现机器学习的大部分带参模型只是改变了最优化目标中的损失函数:如果是Square loss,那就是最小二乘了;如果是Hinge Loss,那就

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值