[机器学习-3.1]决策树之基础

本文介绍了决策树的基础知识,包括分类决策树的构建过程和节点划分标准。讨论了ID3算法及其信息增益概念,指出了其偏好多值属性的缺点。接着介绍了C4.5,它通过信息增益率解决了这一问题,并能处理连续型属性。最后提到了CART算法,用于分类和回归,利用基尼系数或MSE进行数据划分。
摘要由CSDN通过智能技术生成

决策树之基础

一句话概括决策树

决策树就是按照一定的规则构建出的树形结构,实现分类或者回归的功能。

分类决策树

分类决策树的构建

对train set按照其中一个feature在根节点处进行分类,数据被划分到根节点的子节点中,根节点的每一个子节点代表划分数据的feature的一个取值,比如feature有n个取值,那么就分出n个子节点。如果子节点中的子数据集中的每一条数据都对应相同的label,那么这个子节点就停止划分,如果子节点中的数据对应的label不同,那么就按照之前的划分方法,选取另一个feature再进行划分,如此的递归下去,直到每个叶子节点中的数据都拥有相同的label。至此,分类决策树构建完成。

节点划分标准

在上一节构建决策树的内容中,我们只说选取feature进行树的分支处理,但是feature是如何选取的呢?
我们知道,构建决策树的最终目标,就是希望每个叶子节点中的数据都是同一个label。也就是说,我们希望按照某个feature划分后的数据,以label为参考系时候是整整齐齐的,比如我们分西瓜,就是说,我们希望把熟透的分在一支,没熟的分在一支。那么我们口语中的整整齐齐,就对应了一个划分数据的衡量标准,我们希望数据的混乱度是下降的,也就是希望数据的减的。我们定义了一种计算数据按照某个feature划分前后熵值变化大小的方法,即为信息增益。这种按照信息增益作为划分标准的决策树构建方法叫做ID3(Iterative Dichotomiser 3)。

ID3

ID3就是以信息增益作为树构建标准的决策树方法。
一句话解释信息增益:
信息增益表示得知特征A的信息而使得类X的信息的不确定性减少的程度。
定义 :
特征A对训练数据集D的信息增益g(D,A),定义为集合D的熵H(D)与特征A给定条件下D的条件熵H(D|A)之差,即:
g ( D , A ) = H ( D ) − H ( D ∣ A ) g(D,A)=H(D)-H(D|A) g(D,A)=H(D)H(DA)
1.设训练数据集是 D D D, ∣ D ∣ |D| D表示样本个数。
2.设有数据集有K个label,也就是说数据集有K个类 C k , k = 1 , 2 ⋯ K { C }_{ k },k=1,2\cdots K Ck,k=1,2K, ∣ C k ∣ |C_k| Ck为属于类 C k C_k Ck的样本个数,有 ∑ k = 1 K ∣ C k ∣ = ∣ D ∣ \sum _{ k=1 }^{ K }{ |{ C }_{ k }| } =|D| k=1KCk=D
3.设特征A有n个不同的取值 { a 1 , a 2 ⋯ a n } \left\{ { a }_{ 1 },{ a }_{ 2 }\cdots { a }_{ n } \right\} { a1,a2a

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值