机器学习算法之决策树(Decision Tree)

决策树是一种非参数监督学习方法,常用于分类和回归。它通过特征选择、生成和剪枝步骤建立规则和决策路径。熵和信息增益是评估节点纯度和选择划分特征的关键概念,用于构建高效决策树。
摘要由CSDN通过智能技术生成

决策树

决策树是一系列相关选择的可能结果的映射,,是一种非参数的监督学习方法,常用来进行分类和回归。它首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上,决策树是通过一系列规则对数据进行分类的过程。常用的决策树算法:ID3、C4.5和CART.

决策树通常从单个节点开始,到该节点分支可能的结果;每一个结果又会产生额外的节点,这些节点会延伸到其他的可能性中;如此下去直到叶子结点。


                 

由上面两个例子可以看出,决策树主要由叶子节点和非叶子节点组成;非叶子节点主要是做决策选择的,叶子结点是决策的结果。

实现过程:

第一步,特征选择:如果特征数量很多,在决策树学习开始时对特征进行选择,只留下对训练数据有足够分类能力的特征

第二步,决策树的生成:由训练样本集生成决策树的过程。一般情况下,训练样本数据集是根据实际需要有历史的、有一定综合程度的,用于数据分析处理的数据集。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值