1. 信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度)
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190403210754386.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2VyY2l5dWFuXw==,size_16,color_FFFFFF,t_70)
联合熵:联合熵就是度量一个联合分布的随机系统的不确定度,下面给出两个随机变量的联合熵的定义:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190403210658715.png)
信息增益:信息增益在决策树算法中是用来选择特征的指标,信息增益越大,则这个特征的选择性越好,在概率中定义为:待分类的集合的熵和选定某个特征的条件熵之差(这里只的是经验熵或经验条件熵,由于真正的熵并不知道,是根据样本计算出来的),公式如下:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190403211037306.png)
基尼不纯度:将来自集合中的某种结果随机应用于集合中某一数据项的预期误差率。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190403211123305.png)
2.决策树
决策树生成的过程就是将数据集不断划分成为纯度更高,不确定更小的子集的过程。
ID3算法&#x