集成学习①——集成学习原理、分类和结合方法

本文介绍了集成学习的基本原理,包括弱学习器的选择标准。接着,根据弱学习器之间的依赖性,详细讲解了Boosting(如Adaboost和GBDT)和Bagging(如随机森林)两种主要分类。最后,讨论了集成学习的结合方法,如投票法、平均法和stacking,并阐述了它们在分类和回归问题中的应用。
摘要由CSDN通过智能技术生成

集成学习系列目录
集成学习②——Adaboost算法原理及python实现
集成学习③——Sklearn-Adaboost库参数及实战

一、集成学习的原理

集成学习就是"博采众长",将一组弱学习器通过一定方法给合在一起得到强学习器,这个强学习器的泛化能力相对任何一个弱学习器都要好,甚至还有起到三个臭皮匠,赛过诸葛亮的效果

这里有2个问题,有哪些弱学习器可以用?怎么结合?

弱学习器:以分类来说,分类效果要优于随机分类,也就是准确率高于50%的学习器,且计算速度快,通常以决策树神经网络为主,一组弱学习器可以是一样的,也可以不一样,目前常用的算法还是以同样的为主。

二、集成学习的分类

如何结合:根据弱学习器之间是否存在依赖性,分为Boosting和Bagging。
Boosting:使增长,顾名思义,后训练的学习器会比前一个要更强,代表算法有 Adaboost和Gradient Boosting Tree(GBDT);
Bagging:袋子,源于从袋子里有放回性取样,是说各学习器基于随机样本独立训

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值