机器学习-集成学习

在机器学习中,很多算法都是单打独斗的英雄,而集成学习就是这些英雄组成的团队,实现“三个臭皮匠顶个诸葛亮”的效果。

什么是集成学习

集成学习是机器学习的一种训练思路,并不是某种具体的方法或算法。集成学习的核心就是“人多力量大”,他把已有的算法就行结合,从而得到更好的效果。
在这里插入图片描述
本文主要介绍集成学习的2种思路:Bagging,boosting.

bagging

baggibg的核心思路是民主,它对所有基础模型都一致对待,每个基础模型手里只有一票,然后使用民主投票的方式得到最终结果。大部分情况下,经过bagging得到的结果方差更小。
在这里插入图片描述
具体过程:
1.从原始样本集中抽取训练集,每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中有些样本可能多次被抽到,而有些样本可能一次都没有抽中)。共进行k轮抽取,得到k个训练集(k个训练集相互独立的)
2.每次使用一个训练集得到一个模型,k个训练集共得到k个模型(这里并没有具体的分类算法或者回归算法,我们可以根据具体问题采用不同的分类或回归方法,如:决策树,感知机)
3.对分类问题,将上步得到的k个模型采用投票的方式得到分类结果。对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)

在bagging方法中,最广为熟知的就是随机森林了:bagging+决策树=随机森林

boosting

在这里插入图片描述
boosting的核心思路是挑选精英,boosting和bagging最本质的区别在于它对基础模型不是一致对待的,而是经过不停的考验和筛选出“精英”,然后给精英更多的投票权,表现不好的基础模型则给较少的投票权,然后综合所有人的投票得到最终结果。
大部分情况下经过boosting得到的结果偏差更小。
在这里插入图片描述
具体过程:
1.通过加法模型将基础模型进行线性组合
2.每一轮训练都提升那些错误率小的基础模型权重,同时减少错误率高的模型权重
3.在每一轮改变训练数据的权值或概率分布,通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样例的权值,使分类器对误分数据有较好效果。
在boosting方法中,比较主流的是Adaboost和Gradient boosting

bagging和boosting的4点区别

样本选择上:
bagging:训练集是在原始集中有放回选取的,从原始集中选出各轮训练集之间是独立的
boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中权重发生变化,而权值是根据上一轮分类结果调整。
样例权重:
bagging:使用均匀取样,每个样例权重相等
boosting:根据错误率不断调整样例权值,错误率越大权重越大
预测函数:
bagging:所有预测函数的权重相等
boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大权重
并行计算:
bagging:各个预测函数可以并行生成
boosting:各个预测函数只能顺序生成,后一个模型参数需要前一轮模型结果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值