在之前的决策树算法中我们已经讲解了从数据集构造决策树算法的功能模块。
首先是创建数据集,然后计算香农熵,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在大于两个分支的数据集划分。第一次划分好之后,数据将被向下传递到树分支的一个节点,在这个节点上我们可以再次划分数据,所以我们可以采用递归的原则处理数据集。
递归的结束条件是:遍历完所有划分的数据集的属性,或者每个分支下的所有实例都具有相同的分类。如果所有实例具有相同的分类,则得到一格叶子节点或者终止块。
根据特征来划分属性,我们知道每划分一次分类就会消耗一格特征值,如果我们使用完所有的特征但是类别还没有划分完那么我们就采用多数表决的方法来确定叶子节点。
比如说我们使用完所有的特征值之后划分,得到的最后的数据集是下面这个样子的:
[[‘yes’],[‘yes’],[‘maybe’]]
但是我们现在已经没有特征值了,那么我们就不能用计算香农熵的方法计算最大信息增益,这个时候就用投票表决的方式来分类。
那么我们发现 我们的数据集中 ‘yes’是两个,’maybe’是一个那么我们就按照这个来把它们分开。
下面我们来完成代码:
def majorityCnt(classList): # 传入的参数是已经划分完所有特征之后剩余的数据集,