统计学习方法——CART, Bagging, Random Forest, Boosting

本文深入探讨了CART、Bagging、Random Forest和Boosting四种统计学习方法,重点介绍了它们的原理与应用场景。CART通过迭代选择变量建立分类树;Bagging通过Bootstrap采样构建多个分类器并进行投票决定分类;Random Forest在每个节点随机选择属性分割,形成多棵树;Boosting则通过调整样本权重,构建多个弱分类器的加权组合。文中还提到了AdaBoost和RealBoost的权值更新过程,并对多类分类进行了讨论。文章末尾列举了数据挖掘十大算法,鼓励进一步学习。
摘要由CSDN通过智能技术生成

本文从统计学角度讲解了CART(Classification And Regression Tree), Bagging(bootstrap aggregation), Random Forest Boosting四种分类器的特点与分类方法,参考材料为密歇根大学Ji Zhu的pdf与组会上王博的讲解。


  • CART(Classification And Regression Tree
         Breiman, Friedman, Olshen & Stone (1984), Quinlan (1993)
         思想:递归地将输入空间分割成矩形
         优点:可以进行变量选择,可以克服missing data,可以处理混合预测
         缺点:不稳定

     example:
对于下面的数据,希望分割成红色和绿色两个类,原本数据生成是这样的:
Red class: x1^2+x2^2>=4.6
Green class: otherwise










经过不断分割可以得到最后的分类树:



  • 那么怎么分割才是最好的呢?即怎样
评论 25
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值