sklearn的DecisionTreeClassifier的目标权重参数 :class_weight & min_weight_fraction_leaf

刚刚使用SKLearn学习机器学习进行数据分析,分享一些概念和想法,希望可以大家一起讨论,如果理解或者表达有不准确的地方,请多多指点,不吝赐教,非常感谢~~

本文将继续介绍sklearn的决策树模块的其他参数

涉及决策树其他参数:
请转至《DecisionTreeClassifier的criterion参数 与 使用红酒数据集创建一个树)》:https://blog.csdn.net/weixin_42969619/article/details/98884082
以及《sklearn的DecisionTreeClassifier的 random_state & splitter 参数》:
https://blog.csdn.net/weixin_42969619/article/details/99301017
以及《sklearn的DecisionTreeClassifier的5个剪枝参数》:


  • DecisionTreeClassifier及重要参数:

class sklearn.tree.DecisionTreeClassifier (criterion=’gini’, splitter=’best’, max_depth=None,
min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None,
random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None,
class_weight=None, presort=False)

  1. class_weight:平衡样本标签比例

默认None,即函数自动给与数据集中的所有标签相同的权重。
样本不平衡是指在一组数据集中,标签的一类天生占有很大的比例。分类结果就会受样本比例的影响,因此我们要使用class_weight参数对样本标签进行一定的均衡,给少量的标签更多的权重,让模型更偏向少数类,向捕获少数类的方向建模。

  1. min_weight_fraction_leaf:基于权重的剪枝参数

有了权重之后,样本量就不再是单纯地记录数目,而是受输入的权重影响了;min_weight_
fraction_leaf 将比参数 min_samples_leaf 更少偏向主导类。
如果样本是加权的,则使用基于权重的预修剪标准来更容易优化树结构,这确保叶节点至少包含样本权重的总和的一小部分。

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值