自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 ValueError: Classification metrics can‘t handle a mix of binary and multilabel-indicator targets

:它是在一个子节点中所需的所有观察权重之和的最小值。较高的值防止模型学习可能对特定样本选定的树高度特定的关系。这些参数中的每一个控制XGBoost算法的各个方面,影响其性能和行为。10. `scale_pos_weight`:它是负类权重与正类权重的比率。`:它指定要在树的叶节点上进行进一步分割所需的最小损失减少量。11. `num_class`:它指定问题中的类数。在这种情况下,设置为2。9. `nthread`:它指定用于运行XGBoost的并行线程数。:它指定要构建的提升轮数(或决策树)的数量。

2024-04-29 11:46:30 573

原创 LIME模型可解释

假设对于需要解释的黑盒模型,取关注的实例样本,在其附近进行扰动生成新的样本点,并得到黑盒模型的预测值,使用新的数据集训练可解释的模型(如线性回归、决策树),得到对黑盒模型良好的局部近似。随着深度学习的发展,越来越多的模型诞生,并且在训练集和测试集上的表现甚至于高于人类,但是深度学习一直被认为是一个黑盒模型,我们通俗的认为,经过训练后,机器学习到了数据中的特征,进而可以正确的预测结果,但是,对于机器到底学到了什么,仍然是个黑盒模型,我们迫切想要知道机器所学习到的特征,这就需要对模型的可解释性进行研究。

2024-04-29 11:20:00 1057

原创 python缺失值处理办法

首先:将一维数组转为二维。“”显示添加缺失值得方法。其次:实例化并添加参数。

2023-06-25 16:48:06 84

原创 fit_transform

解释:在Fit的基础上,进行标准化,降维,归一化等操作(看具体用的是哪个工具,如PCA,StandardScaler等)。解释:简单来说,就是求得训练集X的均值啊,方差啊,最大值啊,最小值,这些训练集X固有的属性。可以理解为一个训练过程。解释:fit_transform是fit和transform的组合,既包括了训练又包含了转换。的作用就是先拟合数据,然后转化它将其转化为标准形式。合并,一步到位的结果。

2023-06-25 16:32:07 2030

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除