统计学习方法(八):提升方法

AdaBoost算法
  • 判别模型,是前向分步加法算法的特例,损失函数为指数函数。
  • 思想:多个弱分类器(分类规则粗糙简单)合成一个强分类器。
  • 简要:多个弱分类器对实例进行分类,对多个结果加权计算(相当于投票表决,只不过每个人投票的权重不同)得到最终结果。
  • 两个关键点:1、如何获得多个弱分类器。2、多个弱分类器的结果如何加权?
  • 步骤:
    • 1.首先初始化训练数据权值(对每一个训练数据赋予权值)
    • 2.对具有权值分布的数据集进行训练,得到一个分类器。
      • a.计算该分类器在训练集上的分类误差率
      • b.根据误分类率计算该分类器的系数(误差率大的分类器系数小)
      • c. 更新训练数据的权值分布(误分的数据点权值加大)
    • 3.重复2,迭代得到M个分类器
    • 4.根据M个分类器以及其系数合成一个最终的分类器。
  • 具体:
    在这里插入图片描述
    在这里插入图片描述
提升树
  • 提升树模型可以表示为决策树的加法模型,不是有n个树投票选择(随机森林),而是将输入值输入到每个树中,然后将每个树的结果累加。这也就意味着,除第一颗树外,之后所加的树的值应该都是一种差值。
  • 当采用平方误差损失时,第一个树之后的树拟合的是残差。
  • 具体步骤:
    • 先初始化所有输入的输出结果,假设为a。
    • 计算实际的结果( Y i Y_{i} Yi)与a差值,累加所有样本的这个差值。得到损失函数。求出使该损失函数最小的a。
    • 在确定了a的基础上,将所有样本输出值与a做差,得到残差1,作为新的树的样本依据。
    • 初始化第二颗树的输出结果为b,以得到的残差1为基础,将b与残差1做差并类和,得到这一次的损失函数,然后求出使损失函数最小的输出结果b。
    • 不断重复类似的流程直到满足要求。
    • 最终的模型应该是a+b+…
      在这里插入图片描述
梯度提升树(GBDT)
  • 与提升树类似,将残差变为了损失函数的负梯度。
    在这里插入图片描述
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值