boosting 方法

boosting方法

1. AdaBoost

样本集: {(x1,y1),,(xm,ym)} , where xiX,yi{1,+1}

初始化样本权重: D1(i)=1m,i=1,,m
遍历 T 棵树:

for t=1,,T:

  1. t 个分类器为 ht:X{1,1} 。分类器的损失定义为误分类的(加权)个数:

    ϵ[h]=iDt(i)|yih(xi)|

    找到最小化这个误差的分类器:
    ht=argminhϵt[h]

    这样得到的分类误差为 ϵt=ϵ[ht]

  2. t 的分类器权重:

    αt=12ln1ϵtϵt

  3. 更新每个样本权重(为下一轮使用)( Zt 是归一化因子):

    Dt+1(i)=1ZtDt(i)exp[αtyiht(xi)]

输出最终分类器:

sign(H(x)=tαtht(x))

2. Gradient boost Regression Tree

预测函数: F(x)
损失函数: L(yi,F(xi))

Gradient Boost

类目: k=1K 初始化: Fk0(x)=0 依次生成 M 棵树: for m=1M:

  1. k 类的预测值:

    pk(x)=eFk(x)leFl(x).k=1K

  2. 遍历 K 个分类: for k=1K:
    2.1 计算梯度(残差):

    gik=yikpk(xi).i=1N

    2.2 以上面的残差为目标,生成 J 个叶子节点的树:
    {Rjkm}Jj=1=Jterminal nodetree({gik,xi}Nn)

    2.3 计算每个叶子的增益:
    γjkm=K1KxiRjkmgikxiRjkm|gik|(1|gik|).j=1J

    2.4 更新预测函数:
    Fkm(x)=Fk,m1(x)+j=1JγjkmI(xRjkm)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值