文章目录
决策树与随机森林
一、决策树
1.决策树之信息论基础
信息熵的概念
案例:每猜一次给一块钱,告诉我是否猜对了,那么我需要掏多少钱才能知道谁是冠军?
我可以把球编上号,从1到32,然后提问:冠 军在1-16号吗?依次询问,只需要五次,
就可以知道结果。
该案例中信息熵为:
H = -(p1logp1 + p2logp2 + ... + p32log32)
信息和消除不确定性是相联系的,即信息熵越大,不确定性越大
H的专业术语称之为信息熵,单位为比特。
公式:
2.决策树的划分依据- 信息增益
注:信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度
特征A对训练数据集D的信息增益g(D,A),定义为集合D的信息熵H(D)与特征A给定条件下D
的信息条件熵H(D|A)之差,即公式为:
信息增益计算
3.常见决策树使用的算法
ID3
信息增益 最大的准则
C4.5
信息增益比 最大的准则
CART
回归树: 平方误差 最小
分类树: 基尼系数 最小的准则 在sklearn中可以选择划分的原则
4.sklearn决策树API
# 决策树分类器
class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,
random_state=None)
# 参数介绍
criterion:默认是’gini’系数,也可以选择信息增益的熵’entropy’
max_depth:树的深度大小
random_state:随机数种子
# 方法
decision_path:返回决策树
5.决策树案例-泰坦尼克号乘客生存分类
泰坦尼克号乘客生存分类模型流程:
1、pd读取数据
2、选择有影响的特征,处理缺失值(age数据存在缺失)
特征值pclass-社会经济阶层的代表-字符串
特征值age-年龄-浮点数
特征值sex-性别
目标值survived-存活-布尔类型(0、1)
3、进行特征工程,pd转换字典,特征抽取;x_train.to_dict(orient="records")
4、决策树估计器流程
决策树的结构、本地保存:
1、sklearn.tree.export_graphviz() 该函数能够导出DOT格式
tree.export_graphviz(estimator,out_file='tree.dot’,feature_names=[‘’,’’])
2、工具:(能够将dot文件转换为pdf、png)
安装graphviz(这个模块不好安装)
这个功能太鸡肋了。所以这个包都没人用了,停止维护好久了。还是停留在很老的版本。和很多内置的包都不匹配了。
3、运行命令
然后我们运行这个命令
$ dot -Tpng tree.dot -o tree.png
# 决策树对泰坦尼克号乘客生存进行分类
import pandas as pd
from sklearn.feature_extraction import DictVectorizer
from sklearn.model_selection import train_test_split
from sklearn