建模
yyyyyyyyyyang
这个作者很懒,什么都没留下…
展开
-
lgb--贝叶斯调参及代码
lgb--贝叶斯调及代码概述1.目标函数 objective():注:2.域空间 space:注:3.优化算法 algo注:4.结果历史记录 result:总结:概述贝叶斯优化问题有四个部分:目标函数 objective():我们想要最小化的内容,在这里,目标函数是机器学习模型使用该组超参数通过交叉验证计算损失值。域空间 space:要搜索的超参数的取值范围。优化算法 algo:构造替代...转载 2019-04-26 14:53:03 · 4356 阅读 · 1 评论 -
xgb+网格调参流程及代码
xgb+网格调参流程及代码XGB简介网格调参简介网格调参代码总结Xgb的特点:XGB简介XGBoost是一个优化的分布式梯度增强库,旨在实现高效,灵活和便携。 它在Gradient Boosting框架下实现机器学习算法。 XGBoost提供了并行树提升(也称为GBDT,GBM),可以快速准确地解决许多数据科学问题。 相同的代码在主要的分布式环境(Hadoop,SGE,MPI)上运行,并且可以...原创 2019-04-26 15:03:27 · 1662 阅读 · 0 评论 -
lgb+随机搜索流程及代码
lgb+随机搜索流程及代码LightGBM简介随机搜索简介lgb+RandomSearchCV使用代码:LightGBM简介LightGBM是一个梯度Boosting框架,使用基于决策树的学习算法,他的特点是分布和高效的,他主要有以下优势:1)更快的训练效率2)低内存使用3)更高的准确率4)支持并行化学习5)可以处理大规模数据随机搜索简介随机搜索的思想和网格搜索比较相似,只是不再...原创 2019-04-26 15:06:36 · 1418 阅读 · 0 评论 -
F检简介及代码
F检简介及代码1.介绍2.计算3.代码:1.介绍名叫做联合假设检验(英语:joint hypotheses test),此外也称方差比率检验、方差齐性检验。它是一种在零假设(null hypothesis, H0)之下,统计值服从F-分布的检验。2.计算(1)样本标准偏差的平方,即:两组数据就能得到两个S2值。(2)F=S2/S2’(3)然后计算的F值与查表得到的F表值比较,如果...原创 2019-04-26 15:14:22 · 1112 阅读 · 0 评论 -
从源码的角度解释调用sklearn.metrics中roc_curve()方法的疑惑
关于roc_curve的疑惑和解释前言疑惑1:len(thresholds)的长度为什么比len(y_pre_pro)大1?疑惑2:其返回一个大于1的阈值,如何不影响最终roc和auc曲线图疑惑3:对于多个阈值相近,为了使图像更加清楚,可以使用什么技巧?总结前言模型训练完成后,在计算ks值以及绘制roc曲线和auc曲线时候,我们方便的调用sklearn.metrics中的ric_curve(y...原创 2019-05-06 16:56:00 · 2486 阅读 · 2 评论