【决策树】-泰坦尼克号实战

一、数据集和资料

参考博客
数据集 提取码: 0i0v
训练集是标准的,泛化数据集是我手动添加的标注 只有20条

二、代码实现

# -*- coding: utf-8 -*

import pandas as pd
import numpy as np
from sklearn.feature_extraction import DictVectorizer
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import cross_val_score
from sklearn.tree import export_graphviz
import matplotlib.pyplot as plt

# 数据加载
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 数据探索
# print(train_data.info())
# print(train_data.describe())
# print(train_data.describe(include=['O']))
# print(train_data.head())
# print(train_data.tail())

# 数据清洗
# 使用平均年龄来填充年龄中的Nan值
train_data['Age'].fillna(train_data['Age'].mean(), inplace=True)
test_data['Age'].fillna(test_data['Age'].mean(),inplace=True)
# 使用票价的均值填充票价中的Nan值
train_data['Fare'].fillna(train_data['Fare'].mean(), inplace=True)
test_data['Fare'].fillna(test_data['Fare'].mean(),inplace=True)

# 使用登录最多的港口来填充登录港口的nan值
# print(train_data['Embarked'].value_counts())
train_data['Embarked'].fillna('S', inplace=True)
test_data['Embarked'].fillna('S',inplace=True)

# 特征选择
features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked']
train_features = train_data[features]
train_labels = train_data['Survived']
test_features = test_data[features]
test_labels = test_data['Survived']

dvec = DictVectorizer(sparse=False)
train_features = dvec.fit_transform(train_features.to_dict(orient='record'))
test_features = dvec.fit_transform(test_features.to_dict(orient='record'))

# 构造ID3决策树
clf = DecisionTreeClassifier(criterion='entropy')

# 构造CART决策树
#clf = DecisionTreeClassifier(criterion='gini')

# 决策树训练
clf.fit(train_features, train_labels)

# # 模型预测 & 评估
# test_features=dvec.transform(test_features.to_dict(orient='record'))
# # 决策树预测
# pred_labels = clf.predict(test_features)

# 得到决策树准确率
acc_decision_tree = round(clf.score(test_features, test_labels), 6)
print(u'score准确率为 %.4lf' % acc_decision_tree)

# 使用K折交叉验证 统计决策树准确率
print(u'cross_val_score准确率为 %.4lf' % np.mean(cross_val_score(clf, test_features, test_labels, cv=10)))


#用学习曲线确定最优剪枝参数取值
test = []
for i in range(10):
    clf = DecisionTreeClassifier(max_depth=i+1,criterion="gini")
    clf.fit(train_features, train_labels)
    score = np.mean(cross_val_score(clf, test_features, test_labels, cv=10))
    test.append(score)
plt.plot(range(1,11),test,color="red",label="max_depth")
plt.legend()
plt.show()



#可视化决策树
export_graphviz(clf, out_file="titanic_tree.dot" , feature_names=dvec.get_feature_names())

三、剪枝参数取值

实现思路

#用学习曲线确定最优剪枝参数取值
test = []
for i in range(10):
    clf = DecisionTreeClassifier(max_depth=i+1,criterion="gini")
    clf.fit(train_features, train_labels)
    score = np.mean(cross_val_score(clf, test_features, test_labels, cv=10))
    test.append(score)
plt.plot(range(1,11),test,color="red",label="max_depth")
plt.legend()
plt.show()

常见参数

剪枝参数 max_depth
限制树的最大深度max_depth,超过设定深度的树枝全部剪掉。这个是用的最广的。
剪枝参数 min_impurity_decrease
min_impurity_decrease限制信息增益的大小,信息增益小于设定数值的分支不会发生。(这个是课上讲的预剪枝)
剪枝参数 max_features
max_features限制分支时考虑的特征个数,超过限制个数的特征都会被舍弃。
剪枝参数 min_samples_split
限定一个结点必须要包含至少min_samples_split个训练样本,这个结点才允许被分支,否则分支就不会发生。
剪枝参数 min_samples_leaf
限定一个结点在分支后的每个子结点都必须包含至少min_samples_leaf个训练样本,否则分支就不会发生,或者,分支会朝着满足每个子结点都包含min_samples_leaf个样本的方向去
发生。

四、一些笔记

Pandas

fillna()函数

用于缺失数据的填充
参考博客 这里

value_counts()函数

用于确认数据出现的频率
参考博客 这里

DataFrame操作

原来还能这么操作 长见识了

features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked']
train_features = train_data[features]

使用to_dict将pandas.DataFrame转换为Python中的字典列表

>>> df
   col1  col2
0     1     3
1     2     4
>>> [df.to_dict(orient='index')]
[{0: {'col1': 1, 'col2': 3}, 1: {'col1': 2, 'col2': 4}}]
>>> df.to_dict(orient='records')
[{'col1': 1, 'col2': 3}, {'col1': 2, 'col2': 4}]

sklearn 特征选择中的 DictVectorizer 类

处理符号化的对象,将符号转成数字 0/1 进行表示。

from sklearn.feature_extraction import DictVectorizer
dvec=DictVectorizer(sparse=False) # 不创建稀疏矩阵
# fit_transform 这个函数,它可以将特征向量转化为特征值矩阵
train_features=dvec.fit_transform(train_features.to_dict(orient='record'))

sklearn 特征选择中的 cross_val_score的方法

进行K 折交叉验证

from sklearn.model_selection import cross_val_score
# 使用 K 折交叉验证 统计决策树准确率
print(u'cross_val_score 准确率为 %.4lf' % np.mean(cross_val_score(clf, train_features, train_labels, cv=10)))

其他

  1. graphviz的安装及环境变量配置
    安装graphviz(运行stable_windows_10_cmake_Release_x64_graphviz-install-2.47.0-win64.exe,选择添加环境变量,重启Anaconda)
  2. Titanic.py产生.dot文件之后,可以用如下graphviz命令生成PNG文件:
    dot -Tpng titanic_tree.dot -o titanic_tree.png
    graphviz资源:这里 提取码:5ldw
  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值