集成学习
文章平均质量分 96
集成学习
「 25' h 」
梦很远,她很优秀。
展开
-
特征工程实战篇
当然,如果能获取更多的实际业务背景知识,则能够进行更加深入的数据分析与用户挽留策略的制定。不过需要知道的是,无论是作为实际建模预测项目,还是结合实际业务进行数据分析,在完成数据清洗后对变量进行相关性分析,都是了解数据情况的重要手段,也是所有建模过程中必备的环节。在后续的内容中,我们也将在此基础上进一步来进行特征工程以及模型训练的相关工作,最终借助模型,来进行实时的用户流失预测,并且根据最终的模型结果来更精确的判别变量重要性,以及根据模型方程来判断变量影响流失概率的量化结果。.....原创 2022-07-30 10:03:17 · 709 阅读 · 0 评论 -
深度剖析集成学习Xgboost(续)
深度剖析集成学习Xgboost(续)原创 2022-07-27 09:54:39 · 20893 阅读 · 0 评论 -
超参数优化(网格搜索和贝叶斯优化)
超参数优化1 超参数优化1.1 网格搜索类1.1.1 枚举网格搜索1.1.2 随机网格搜索1.1.3 对半网格搜索(Halving Grid Search)1.2 贝叶斯超参数优化(推荐)原理1.2.1 BayesOpt实现高斯过程GP(较慢)1.2.1.1 定义目标函数1.2.1.2 定义参数空间1.2.1.3 定义优化目标函数和具体流程1.2.1.4 验证(非必要)1.2.1.5 执行1.2.2 hyperopt贝叶斯方法(推荐)1.2.2.1 导包--导入数据--init原创 2022-07-26 08:59:02 · 20608 阅读 · 1 评论 -
机器学习问题笔记
机器学习细节问题原创 2022-07-19 08:52:15 · 502 阅读 · 0 评论 -
机器学习之特征工程
机器学习之特征工程原创 2022-02-22 21:31:53 · 16552 阅读 · 0 评论 -
sklearn.ensemble模型融合
sklearn.ensemble模型融合原创 2022-03-19 19:52:42 · 18472 阅读 · 1 评论 -
集成学习boosting算法:Adaboost&GBDT&Xgboost&LightGBM&CatBoost
boosting算法:Adaboost&GBDT&Xgboost&LightGBM&CatBoost原创 2022-03-20 23:23:00 · 18308 阅读 · 0 评论 -
深度剖析集成学习Adaboost
1 Adaboost1.1 基本原理和参数概况1.2 n_estimators和learning_rate1.3 参数algorithm与loss1.3.1 algorithm1.3.2 loss1.4 Adaboost算法流程原创 2022-07-26 18:47:33 · 19709 阅读 · 0 评论 -
深度剖析集成学习GBDT
GBDT2 GBDT2.0 参数概述和迭代过程特点参数概述迭代过程2.1 init2.1.1 model2.1.2 zero2.1.3 None(sklearn默认)2.1.4 测试2.2 loss2.2.1 分类loss2.2.2 回归loss2.2.3 回归损失的选择2.2.4 探究离群值对不同的loss的影响2.3 criterion&min_impurity_decrease2.3.1 criterion(friedman_mse)2.3.2 min_impuri原创 2022-07-26 18:43:46 · 26726 阅读 · 0 评论 -
深度剖析集成学习Xgboost
Xgboost3.0 原理概述3.0.1 基本思想和特点3.1 参数概况3.1.0 参数建议3.1.1 Xgboost实现的sklearn接口3.1.2 Xgboost原生库3.2 objective损失函数3.3 迭代过程参数3.3.1 num_boost_round&eta3.3.2 base_score3.3.3 max_delta_step3.4 目标函数3.5 三大评估器与DART树3.2 学习曲线(没啥用)3.3 n_estimators参数对于模型的影响3.3.原创 2022-07-26 23:08:44 · 28025 阅读 · 0 评论