【笔记】《统计学习方法》(8)提升方法

简书:https://www.jianshu.com/p/eb9d50312de8

第8章 提升方法

  1. 强可学习与弱可学习式等价的,在概率近似正确(probably approximately correct, PAC)学习的框架下
  2. 提升(boosting)要解决的两个问题:
    (1)每一轮如何改变训练数据的权值和概率分布
    (2)弱分类器如何组合成一个强分类起
  3. AdaBoost的做法
    (1)提高被前一轮弱分类器错误分类样本的权值,而降低哪些被正确分类样本的权值
    (2)弱分类器的组合,采用加权多数表决的方法
    4.AdaBoost算法(略)P138
  4. AdaBoost的两个特点:
    (1)不改变所给的训练数据,而不断改变训练数据权值的分布,使得训练数据在基本分类器的学习中起不同的作用
    (2)利用基本分类器的线性组合构建最终的分类器
  5. AdaBoost的训练误差分析P142
  6. AdaBoost算法的另一种解释模型为加法模型、损失函数为指数函数、学习算法为前向分布算法时的二分类学习方法
  7. 前向分布算法P144
  8. 提升树是以分类树或回归树为基本分类器的提升方法
    fM(x)=m=1MT(x;Θm) f M ( x ) = ∑ m = 1 M T ( x ; Θ m )
  9. 提升树算法
    fm(x)=fm1(x)+T(x;Θm)Θ^m=argminΘmI=1NL(yi,fm1(xi)+T(xi;Θm)) f m ( x ) = f m − 1 ( x ) + T ( x ; Θ m ) Θ ^ m = arg ⁡ min Θ m ∑ I = 1 N L ( y i , f m − 1 ( x i ) + T ( x i ; Θ m ) )
  10. 提升树利用加法模型和前向分步算法实现学习的优化过程,当损失函数是平方损失误差时,每一步优化时很简单的。但是对于一般的损失函数而言比较复杂。Freidman提出了梯度提升(gradient boosting)算法,利用最速下降法的近似方法,关键是利用损失函数的负梯度在当前模型的值作为回归问题提升树算法的近似值你和回归树
    [L(y,f(xi))f(xi)]f(x)=fm1(x) − [ ∂ L ( y , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x )
  11. 梯度提升算法P151
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值