集成学习入门
文章平均质量分 83
x___xxxx
这个作者很懒,什么都没留下…
展开
-
DataWhale集成学习(下)——Task14 案例分析1幸福感预测
幸福感预测原创 2021-05-18 21:40:04 · 210 阅读 · 0 评论 -
DataWhale集成学习(下)——Task13 Stacking集成学习算法
Stacking集成学习算法原创 2021-05-13 22:36:45 · 305 阅读 · 0 评论 -
DataWhale集成学习(下)——Task12 Blending集成学习算法
blending原创 2021-05-11 17:35:10 · 188 阅读 · 0 评论 -
DataWhale集成学习(中)——Task11 XGBoost算法分析与案例调参实例
XGBoost算法LightGBM算法原创 2021-04-26 20:43:43 · 236 阅读 · 0 评论 -
DataWhale集成学习(中)——Task10前向分布算法与梯度提升决策树
GBDT是回归树而不是分类树,它使用加法模型+前向分步算法的框架实现回归问题。和AdaBoost的主要区别就在于AdaBoost是在每一次迭代中修改样本权重来使得后一次的树模型更加关注被分错的样本,而GBDT则是后一次树模型直接去拟合残差。原创 2021-04-23 22:43:04 · 156 阅读 · 0 评论 -
DataWhale集成学习(中)——Task09提升(Boosting)方法和Adaboost
Boosting是与Bagging截然不同的思想,Boosting方法是使用同一组数据集进行反复学习,得到一系列简单模型,然后组合这些模型构成一个预测性能十分强大的机器学习模型。显然,Boosting思想提高最终的预测效果是通过不断减少偏差的形式,而Bagging是减少方差,二者有着本质的不同。原创 2021-04-20 18:18:58 · 235 阅读 · 0 评论 -
DataWhale集成学习(中)——Task08 Bagging
Bagging原创 2021-04-17 21:59:34 · 145 阅读 · 0 评论 -
DataWhale集成学习(中)——Task07投票法
投票法的原理和案例分析原创 2021-04-13 16:51:48 · 94 阅读 · 0 评论 -
DataWhale集成学习(上)——基于SVM的人脸识别
基于SVM,对Labeled Faces in the Wild 数据集,分类原创 2021-03-30 22:39:07 · 220 阅读 · 0 评论 -
DataWhale集成学习(上)——Task06
分类问题的评估及超参数调优原创 2021-03-29 21:09:42 · 185 阅读 · 1 评论 -
DataWhale集成学习(上)——Task05基本分类模型
基本的分类模型原创 2021-03-27 22:09:36 · 341 阅读 · 0 评论 -
DataWhale集成学习(上)——Task04
超参数调优原创 2021-03-23 19:58:06 · 163 阅读 · 2 评论 -
DataWhale集成学习(上)——Task02
基本的回归模型原创 2021-03-18 21:52:41 · 337 阅读 · 0 评论 -
DataWhale集成学习(上)——Task01
机器学习的三大主要任务原创 2021-03-15 22:35:57 · 188 阅读 · 1 评论