集成学习与随机森林

集成学习通过结合多个决策器提升整体性能。Voting分为hard Voting和soft Voting,前者少数服从多数,后者考虑权重。随机森林和extra-trees是基于决策树的集成方法,通过样本和特征的随机取样实现差异化。Boosting如AdaBoost和Gradient Boosting则通过调整错误样本权重或连续修正来优化结果。
摘要由CSDN通过智能技术生成

最基本的思路:
 一、 voting - hard voting soft voting    =>区别在于少数服从多数带不带权重

 二、大批量集成学习克服voting模型少    1.对于samples方面 baging pasting   随机取样
                                                                 2.也可以用于features方面(random subspaces)   特征空间采样           

                                                                 3.二者兼备(random patches) 
                                                                 具体例子有: random forest extra-trees 


三、其他集成学习思路
           boosting - adaboosting gredient-boosting             驱动

                  区别: Adaboosting  尝试给分错的样本增加权重  使其他模型学习到这些样本  从而使所有样本被子模型学到

                            gredient-boosting后面模型 只学习前面错误的样本依次使错误样本得到正确分类
         

           stacking ->神经网络 深度学习 把前面模型预测的输出作为下一层的输入  并用一部分测试数据训练后面的子模型

                            堆叠直到最后输出

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值