决策树sklearn实现(2)

本文介绍了如何使用sklearn库实现决策树模型,通过3步核心代码:声明模型、训练模型和预测分类结果。以红酒数据集为例,讨论了模型参数如criterion、max_depth、min_samples_leaf等的作用。
摘要由CSDN通过智能技术生成

上一篇文章已经讲了决策树的原理:模拟 人决策过程,按因素影响程度 从大到小,依次决策,得出最终结论。也讲了如何判断因素的影响程度的一种方法:信息增益越大,影响程度越大。也大致讲了递归构建决策树的过程,今天我们来使用sklearn实现决策树。

我不建议重复造轮子,除非当前轮子无法满足需求。sklearn实现决策树的核心代码就3句:

1.声明决策树模型

model=tree.DecisionTreeClassifier(
                                                         criterion="entropy"  #这里使用entropy的方式,默认是gini
                                                        ,random_state=30   
                                                        ,splitter="random"    #随机划分属性,sklearn里面默认按属性的重要程度划分。
                                                        ,max_depth=5         #层级数,有效解决过拟合的套路之一
                                                        ,min_samples_leaf=10   #同上
                             

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值