书籍信息
Hands-On Machine Learning with Scikit-Learn and Tensorflow
出版社: O’Reilly Media, Inc, USA
平装: 566页
语种: 英语
ISBN: 1491962291
条形码: 9781491962299
商品尺寸: 18 x 2.9 x 23.3 cm
ASIN: 1491962291
系列博文为书籍中文翻译
代码以及数据下载:https://github.com/ageron/handson-ml
此为6.1得到的决策树
默认情况下,scikit-learn的决策树使用基尼不纯度评估结点分裂。通过设置criterion=”entropy”,可以使用熵评估结点分裂。熵度量体系的混乱程度,定义如下:
Hi=−∑k=1,pi,k≠0npi,klog2(pi,k)
其中 pi,k 是结点 i 样本中类别
如果样本集合只含有特定类别的样本,那么熵是0。
以左下角的结点为例,熵是 −4954log(4954)−554log(554)≈0.31
译者注:
实际上,划分决策树的依据是信息增益,即熵减少的数值。
那么我们应该使用基尼不纯度还是信息增益呢?大部分时候,他们会得到相似的结果。基尼不纯度的速度相对较快,所以被用作默认值。相比之下,基尼不纯度倾向于将频繁出现的类别单独安排在特定分支,熵产生的决策树相对比较平衡。