sklearn--集成学习(理论)

【转】

目录

南京大学的周志华教授对集成学习有深入的研究,其在09年发表的一篇概述性论文http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/springerEBR09.pdf

1 前言
2 集成学习是什么?
3 偏差和方差
  3.1 模型的偏差和方差是什么?
  3.2 bagging的偏差和方差
  3.3 boosting的偏差和方差
  3.4 模型的独立性
  3.5 小结
4 Gradient Boosting
  4.1 拟合残差
  4.2 拟合反向梯度
    4.2.1 契机:引入损失函数
    4.2.2 难题一:任意损失函数的最优化
    4.2.3 难题二:无法对测试样本计算反向梯度
  4.3 常见的损失函数
  4.4 步子太大容易扯着蛋:缩减
  4.5 初始模型
  4.5 Gradient Tree Boosting
  4.6 小结
5 总结
6 参考资料

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值