10.集成学习

集成学习通过结合多个学习算法的预测来提高整体性能,如随机森林、梯度提升和Bagging。本文深入探讨了集成学习的基本原理,比较了不同的集成策略,并展示了它们在实际问题中的高效应用。
摘要由CSDN通过智能技术生成
#####10 集成学习#####
#集成学习是近年来机器学习领域中的研究热点之一。经典的两个集成算法是Bagging和
#AdaBoost,它们分别以某种巧妙的方式将若干基分类器的预测结果进行综合,已达到显
#著提示分类效果的目的。

#####10.2.2 核心函数#####
#1. bagging函数
#bagging(formula,data,mfinal=100,control)
#formula表示用于建模的公式,格式为y~x1+x2+x3;data中放置待训数据集;mfinal表示
#算法的迭代次数,即基分类器的个数,可设置为任意整数,缺失值为100;这里的
#control参数与rpart()函数中的相同,用于控制基分类器的参数。

#2. boosting函数
#函数boosting()中的Adaboost算法以分类树为基分类器,其基本格式为
#boosting(formula,data,boos=TRUE,mfinal=100,coeflearn='Breiman',control)
#其中formula、data、mfinal及control参数与bagging()中完全相同,不再解释;boos参数
#用于选择在当下的迭代过程中,是否用各种观测样本的相应权重来抽取boostrap样本,其默
#认值为TRUE,如果取FALSE,则每个观测样本的相应权重在迭代过程中被使用;coeflearn用
#于选择权重更新系数alpha的计算方式,默认取Breiman,即alpha=1/2ln((1-err)/err),另外
#也可更改设置为"Freund"或"Zhu"。

#####10.2.3 数据集#####
#本章使用UCI Machine Learning Repository数据库中的Bank Marketing数据集,该数据集来
#自于某葡萄牙银行机构的一个基于电话跟踪的商业
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值