模型融合-学习笔记

模型融合

是最后的冲刺手段,可以一定程度的提高线上分数

简单加权融合

回归题一般是将不同模型的结果进行加权,多次尝试后找到最优的权重。
分布问题就是投票,按照不同的权重尝试,找到最优结果。
推荐问题的加权融合我是真不会。

stacking/blending

stacking:当初始训练数据学习出若干个基学习器后,将这几个学习器的预测结果作为新的训练集,来学习一个新的学习器。
在这里插入图片描述

boosting/bagging

  1. bagging为什么能减小方差?
    首先从方差的定义来看,是各预测值与期望预测之差平方的期望,那Bagging输出结果为不同分类器预测结果的平均值/多数表决,也就是这个最终输出结果更接近期望预测,也就意味着方差的减小。

  2. bagging为什么不能减小偏差?
    随机采样(数据间具有重叠)+训练的都是同一类模型+最终结果为多数表决或者取平均值,因此,整体模型的偏差近似于各基模型偏差。

  3. boosting为什么能

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值