决策树系列之提升

0、由决策树和随机森林的关系的思考
随机森林的决策树分别 采样建立,相对独立
思考:
1、假定当前一定得到了m-1棵决策树,是否可以通过现有的样本和决策树信息,对第m棵决策树的建立产生有益的影响?
2、各个决策树组成的随机森林后,最后的投票过程可否在简历决策树时确定?

1、提升的概念
提升是一个机器学习技术,可以用到回归和分类的问题,它每一步产生一个弱分类器,并加权累加到总模型中;
如果每一步的弱分类器生成都是根据损失函数的梯度方向,称之为 梯度提升 。( Gradient boosting

梯度提升算法,首先给定一个目标损失函数,它的定义域是所有可行的弱函数集合(基函数);
提升算法通过 迭代选择一个负梯度方向上的基函数 来逐渐局部极小值。

提升的理论意义 :如果一个问题存在弱分类器,则可以通过提升的方法得到强分类器。

2、提升的算法
输入向量x和输出变量y组成的若干训练样本:(x1,y1),(x2,y2)...(xn,yn)
目标:找到近似函数F(x),是的损失函数L(y,F(x))的损失值最小
损失函数典型定义:L(y,F(x))=0.5(y-F(x))^2
L(y,F(x))=|y-F(x)|
若寻找到最优函数,设定为F(x),即F(x)=argmin E(x,y)[L(y,F(x))]
又假定了F(x)是一族基函数f(x)的加权和,
F(x)=

如何得到基函数的组合,是梯度提升的算法内容


3、提升的算法框架
梯度提升方法寻找最优解F(x),使得损失函数在训练集的期望最小。
方法如下:
3.1、给定常函数F0(x):

3.2、以贪心算法得到新增的f(x)
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值