随机森林算法梳理

  1. 集成学习:通过构建并结合多个学习器来完成学习任务。先产生一组“个体学习器”,再用某种策略将它们结合起来。集成学习的核心是个体学习器以及集成策略,通常集成学习能够获得比单一学习器具有更优越的泛化性能;
  2. 个体学习器:个体学习器是传统机器学习或者神经网络训练学习的学习器,按照个体的性质将集成学习分成同质与异质集成。
    (1)同质集成:个体学习器均为同一类个体学习器,比如均为决策树或者均为神经网络;
    (2) 异质集成:个体学习器为不同类型个体学习器,比如决策树与神经网络一起构成新的学习器;异质集成:个体学习器为不同类型个体学习器,比如决策树与神经网络一起构成新的学习器;
    常见的集成学习方法:boosting(个体学习器存在强依赖关系,必须串行生成的序列化方法),bagging(比如随机森林(Random Forest))(个体学习器不存在强依赖关系,可以并行生成);
    3.Boosting是一族可将弱学习器提升为强学习器的算法。先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本后续得到更多关注。常用的算法是AdaBoost和GradientBoostingboosting算法原理图
    关于Boosting的两个核心问题:
    A)在每一轮如何改变训练数据的权值或概率分布?
    通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样例的权值,来使得分类器对误分的数据有较好的效果。
    B)通过什么方式来组合弱分类器?
    通过加法模型将弱分类器进行线性组合,比如AdaBoost通过加权多数表决的方式,即增大错误率小的分类器的权值,同时减小错误率较大的分类器的权值。而提升树通过拟合残差的方式逐步减小残差,将每一步生成的模型叠加得到最终模型。

4.bagging是并行集成学习著名代表,采取放回采样的方式抽取数据训练多个个体学习器,可以采样出T个含有m个训练样本的学习器,每个学习可以并行训练。Bagging主要关注的是降低方差,并且自助采样的方式会使得其具有一部分的验证样本,这样就使得泛化效果更好。其算法过程如下:
A)从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的)
B)每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等)
C)对分类问题:将上步得到的k个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值