sklearn —决策树—基本原理

目录
1.决策树原理
1.1 运作原理
1.2 构建决策树
2.分类树DecisionTreeClassifier
2.1 重要参数
2.2 建一颗分类树
2.3 剪枝参数

在这里插入图片描述
1.决策树原理
1.1决策树运作原理

决策树(Decision Tree)是一种非参数的有监督学习方法,能从有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。

tips:
①非参数,指不限制数据的结构和类型。有监督学习指的是必须有标签,告诉算法答案。
②决策树算法核心在于解决两个问题:
如何找出最佳节点和分枝
如何让决策树停止生长,防止过拟合

1.2构建决策树

1.2.1决策树模块—sklearn.tree
在这里插入图片描述
1.2.2 sklearn建模流程
在这里插入图片描述

from sklearn import tree
#random_state = 30 控制随机性,每次返回的结果一样
clf = tree.DecisionTreeClassifier(criterion="entropy",
                                  random_state = 30,
                                  spliter = 'random')
clf = clf.fit(X_train,y_train)
result = clf.score(X_test,y_test
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值