自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 逻辑回归详解

(Cross-Entropy Loss),它衡量的是模型输出概率和真实标签之间的差异。逻辑回归的损失函数通常指的是。(Log Loss)或。一、逻辑回归模型公式。二、如何优化损失函数。

2024-05-17 19:45:21 190 1

原创 python面试题

找出列表中元素的所有可能组合中的最大值,可直接考虑5个原组合在一起的情况,最大值应该是 9534330。各位有好的想法,欢迎评论。

2024-05-17 16:03:41 860 1

原创 Xgboost介绍

XGBoost的基本组成元素是:决策树。这些决策树即为“弱学习器”,它们共同组成了XGBoost;并且这些组成XGBoost的决策树之间是有先后顺序的:后一棵决策树的生成会考虑前一棵决策树的预测结果,即将前一棵决策树的偏差考虑在内,使得先前决策树做错的训练样本在后续受到更多的关注,然后基于调整后的样本分布来训练下一棵决策树。

2024-05-13 14:12:35 578 1

原创 决策树和集成学习介绍

(1)基尼值Gini(D)反映了从数据集D中随机抽取两个样本,其类别标记不一致的概率,表示数据集整体的不确定性。Gini(D)越小,数据集D的纯度越高,不确定性越小。(2)基尼指数表示经a分割后数据集D的不确定性。

2024-05-12 16:24:47 843 1

原创 评分卡入模变量系数都是正的

WoE(Weight of Evidence)转换是一种将分类变量的每个类别映射到一个连续的数值,这个数值反映了该类别相对于参考类别(通常是目标事件发生率最低的类别)对于目标事件发生概率的影响强度。经过WoE转换后的变量系数都是正的,这是为了确保模型的输出能够正确反映不同类别对目标事件发生概率的影响,并且保持模型的解释性和一致性。这种设计使得评分卡模型更容易被业务理解和接受,同时也有助于模型在实际应用中的有效性。

2024-04-07 15:18:25 300

原创 绘制直方图

【代码】绘制直方图。

2024-04-07 09:43:25 170

原创 如何获取xgboost原生库默认参数值

【代码】如何获取xgboost原生库默认参数值。

2024-03-08 09:06:01 554 1

原创 Python删除字典中的一个值,并赋值给一个变量

删除指定的键(key)及其对应的值,并返回被删除的值。

2024-03-06 21:13:57 362

原创 如何获取df某列(Series)单一值次数占比最大值以及对应值

1、使用value_counts()函数计算每个值出现次数,"normalize=True"参数可将次数转化为占比,返回Series对象(value_counts )3、idxmax()方法获取Series对象最大值对应索引,即占比最大对应特征值。2、max()方法获取Series对象最大值。

2024-03-01 16:27:06 484 1

原创 判断Series是否为空

Series不包含任何元素在pandas中,当且仅当一个Series不包含任何元素,才被认为是“空”的,而Series内元素全为NaN或None也会被认为非空。

2024-02-29 14:58:48 861 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除