控制决策树的深度

控制决策树的深度

min_samples_split=2,
叶子节点需要的最下样本数
min_samples_leaf=1,
min_weight_fraction_leaf=0,
最大叶子节点数
max_leaf_nodes=None,
执行分裂所需最小不纯度减少量
min_impurity_decrease=0)

# 控制决策树的规模  树的深度
from sklearn.tree import DecisionTreeClassifier
from sklearn import datasets
# 加载数据
iris = datasets.load_iris()
features = iris.data
target = iris.target
# 
# 创建决策树分类器对象
decisiontree = DecisionTreeClassifier(random_state=0,
                                     max_depth=None,
#                                       节点分裂前,节点上最小样本数
                                     min_samples_split=2,
#                                       叶子节点需要的最下样本数
                                     min_samples_leaf=1,
                                     min_weight_fraction_leaf=0,
# 最大叶子节点数
                                     max_leaf_nodes=None,
#                                       执行分裂所需最小不纯度减少量
                                     min_impurity_decrease=0)
# 训练模型
model = decisiontree.fit(features, target)
  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值