XGBoost算法的主要知识点梳理

      XGBoost的全称 eXtreme Gradient Boosting,2014年2月诞生的专注于梯度提升算法的机器学习函数库,作者为华盛顿大学研究机器学习的大牛——陈天奇。他在研究中深深的体会到现有库的计算速度和精度问题,为此而着手搭建完成 xgboost 项目。xgboost问世后,因其优良的学习效果以及高效的训练速度而获得广泛的关注,并在各种算法大赛上大放光彩……

     本文主要对XGBoost的原理进行了一个简要梳理,方便大家能从中捕获一些知识点,同时在此特别感谢北大的wepon同学的分享。在阅读此篇之前,建议参读顺序为:最优化算法(梯度下降和牛顿法)->GBDT->XGBoost。

     

      

      

     

       

           

    到此,XGboost的主要内容已全部梳理完,对于其算法的其他特性,大家可以参读原文《XGBoost: A Scalable Tree Boosting System 》,对于希望交流讨论的同学,可以先在评论区留言。同时也欢迎大家访问我的github主页 http://coladrill.github.io/ColaDrill/ 交流学习。



  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值