随机森林与集成方法学习笔记(2)

本文介绍了集成学习中的投票分类器、bagging、pasting和随机森林,强调了当模型单一性可能导致效果不佳时,提升法的重要性。Adaboost通过改变错误实例权重来迭代改进模型。此外,解释了梯度提升法,它通过针对残差进行迭代训练。还提到了提前停止法以防止过拟合。最后,简述了堆叠法,即利用多个预测器的输出作为新特征进行再次训练。文章以MNIST数据集为例,展示了不同集成方法的性能对比。
摘要由CSDN通过智能技术生成

上一篇文章中提到了投票分类器,bagging方法,pasting方法,随机森林等机器学习方法,对于这一类集成方法来说可以称之为使用相同的弱学习模型的集成方法,这会导致模型的单一,与如果模型不合适导致效果不好,所以引入了提升法,提升法是指通过几个弱学习器组合成为一个强学习器的集成方法。

总体思路是对循环训练预测器,每一次都对前序进行一些改变。

Adaboost:它是通过改变分类错误的实例权重后再进行分类,由于全中的改变,模型会偏向于选择权重较大的实例,以此进行循环,直至达到最优情况。

在sklearn.AdaboostClassifier中存在超参数algorithm,用于调整算法,为SAMME时,是基于多类指数损失函数的逐步添加模型,而为SAMME.R为基于概率。

##Adaboost
from sklearn.ensemble import AdaBoostClassifier
from sklearn.tree import DecisionTreeClassifier
ada_clf =AdaBoostClassifier(DecisionTreeClassifier(max_depth=1),n_estimators=200,
                           algorithm='SAMME.R',learning_rate=0.5)
ada_clf.fit(x_train,y_train)

另一个集成方法,梯度提升。类似于最速下降法。它是通过针对上一个预测结果的残差值进行计算的。推导过程如下。

##梯度提升
tree_reg1 =DecisionTreeClassifier(max_depth=2)
tree_reg1.fit(x,y)
y2 =
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值