- 博客(2)
- 资源 (2)
- 收藏
- 关注
转载 机器学习中的范数规则化之(一)L0、L1与L2范数
引用地址https://blog.csdn.net/zouxy09/article/details/24971995 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理...
2018-07-25 10:56:44 224 1
转载 lightgbm,xgboost,gbdt的区别与联系
转载链接https://www.cnblogs.com/mata123/p/7440774.htmlGBDT梯度提升树实在提升树的基础上发展而来的一种使用范围更广的方法,当处理回归问题时,提升树可以看作是梯度提升树的特例(分类问题时是不是特例?)。 因为提升树在构建树每一步的过程中都是去拟合上一步获得模型在训练集上的残差。后面我们将会介绍,这个残存正好是损失函数的梯度,对应于GBDT每一步要拟合的...
2018-07-12 00:22:07 1092
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人