机器学习(3):决策树 Decision Trees

目录

一、决策树基础

二、scikit-learn中的决策树

2.1 回归决策树DecisionTreeRegressor

2.1 分类决策树DecisionTreeClassifier


 

一、决策树基础


1.1决策树:

从根节点开始一步步走到叶子节点(决策)决策树,所有的数据最终都会落到叶子节点,既可以做分类也可以做回归。

1.2根节点:

第一个选择点决策树。非叶子节点与分支:中间过程。叶子节点:最终的决策结果


1.3训练阶段:

从给定的训练集构造出来一棵树(从跟节点开始选择特征,
如何进行特征切分)决策树
1.4测试阶段:

根据构造出来的树模型从上到下去走一遍就好了
一旦构造好了决策树,那么分类或者预测任务就很简单了,只需要走一遍就可以了,那么难点就在于如何构造出来一颗树,这就没那么容易了,需要考虑的问题还有很多的!

1.5总结决策树的3个算法:

 

1.6决策树剪枝策略:
为什么要剪枝:决策树过拟合风险很大,理论上可以完全分得开数据(想象一下,如果树足够庞大,每个叶子节点不就一个数据了嘛)决策树
剪枝策略:预剪枝,后剪枝
预剪枝:边建立决策树边进行剪枝的操作(更实用)
后剪枝:当建立完决策树后来进行剪枝操作

 

二、scikit-learn中的决策树

 

2.1 回归决策树DecisionTreeRegressor

 

官方文档

 

from sklearn.tree import DecisionTreeRegressor
'''
回归决策树
'''
DecisionTreeRegressor(criterion="mse",
                         splitter="best",
                         max_depth=None,
                         min_samples_split=2,
                         min_samples_leaf=1,
                         min_weight_fraction_leaf=0.,
                         max_features=None,
                         random_state=None,
                         max_leaf_nodes=None,
                         min_impurity_decrease=0.,
                         min_impurity_split=None,
                         presort=False)

参数含义:

参数含义:
1.criterion: string, optional (default="mse")
            它指定了切分质量的评价准则。默认为'mse'(mean squared error)。
2.splitter: string, optional (default

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值