集成算法
数据小斑马
浙大硕士毕业,互联网数据分析师,喜欢深入业务,也喜欢挖掘技术,希望和大家可以多多交流
展开
-
集成学习①——集成学习原理、分类和结合方法
一、集成学习的原理集成学习就是"博采众长",将一组弱学习器通过一定方法给合在一起得到强学习器,这个强学习器的泛化能力相对任何一个弱学习器都要好,甚至还有起到三个臭皮匠,赛过诸葛亮的效果这里有2个问题,有哪些弱学习器可以用?怎么结合?弱学习器:以分类来说,分类效果要优于随机分类,也就是准确率高于50%的学习器,且计算速度快,通常以决策树和神经网络为主,一组弱学习器可以是一样的,也可以不一样,目...原创 2019-07-06 11:41:48 · 5121 阅读 · 0 评论 -
集成学习②——Adaboost算法原理及python实现
一、AdaBoost算法原理上一偏博客总结过,集成学习基于弱学习器之间是否依赖分为Boosting和Bagging两类, Adaboost就是Boosting中的典型代表。AdaBoost是英文"Adaptive Boosting"(自适应增强)的缩写,它的自适应在于:基于每一个分类器的误差率,来更新所有样本的权重,前一个分类器被错误分类的样本的权值会增大,而正确分类的样本的权值会减小,并再次...原创 2019-07-06 15:22:14 · 2016 阅读 · 0 评论 -
集成学习③——Sklearn-Adaboost库参数及实战
一、Adaboost库参数介绍Adaboost库分为AdaBoostClassifier(分类)和AdaBoostRegressor(回归),两者的参数相近,均包括Adaboost框架参数和使用的弱学习器参数,详细如下:1、框架参数① base_estimator: 弱学习器,AdaBoostClassifier和AdaBoostRegressor都有。理论上可以选择任何一个分类或者回归...原创 2019-07-06 17:05:36 · 7702 阅读 · 5 评论