决策树算法详解:从构造到剪枝,实战Titanic生存预测

目录

相关概念

什么是决策树,它的工作原理是什么

构造剪枝

策树的构造过程中,有哪些重要的问题需要解决

如何对决策树进行剪枝,避免过拟合现象的发生

决策树算法分类

 ID3 、C4.5和 CART 算法分类对比

简述CART 算法

Titanic 乘客生存预测

业务流程

​编辑

数据解释​编辑

 代码实现

问题思考

数据可视化

实战总结


相关概念

什么是决策树,它的工作原理是什么

决策树是一种基于树结构的分类算法,它通过构造一棵树来模拟决策过程。在决策树中,每个节点代表一个属性或特征,每个分支代表一个可能的取值,而每个叶子节点代表一个分类结果。决策树的工作原理是通过对数据集进行递归分割,将数据集划分为不同的子集,直到每个子集都属于同一类别或达到预定的停止条件。在分类时,将待分类样本从根节点开始,按照属性值依次向下遍历,直到到达叶子节点,即可得到分类结果。

构造剪枝

策树的构造过程中,有哪些重要的问题需要解决

有三个重要的问题需要解决:

  1. 将哪个属性作为根节点?
  2. 选择哪些属性作为后继节点?
  3. 什么时候停止并得到目标值?

对于第一个问题,我们需要选择一个最优的属性作为根节点,使得该属性能够最好地区分不同类别的样本。

对于第二个问题,我们需要选择一组最优的属性作为后继节点,使得每个子节点能够更好地区分不同类别的样本。

对于第三个问题,我们需要设置停止条件,以避免过拟合现象的发生,常见的停止条件包括达到预定的树深度、样本数量不足等。

如何对决策树进行剪枝,避免过拟合现象的发生

为了避免决策树出现过拟合现象,我们可以对决策树进行剪枝。剪枝可以分为预剪枝后剪枝两种方法。

预剪枝是在决策树构造时就进行剪枝。方法是在构造的过程中对节点进行评估,如果对某个节点进行划分,在验证集中不能带来准确性的提升,那么对这个节点进行划分就没有意义,这时就会把当前节点作为叶节点,不对其进行划分。

后剪枝是在生成决策树之后再进行剪枝,通常会从决策树的叶节点开始,逐层向上对每个节点进行评估。如果剪掉这个节点子树,与保留该节点子树在分类准确性上差别不大,或者剪掉该节点子树,能在验证集中带来准确性的提升,那么就可以把该节点子树进行剪枝。方法是用这个节点子树的叶子节点来替代该节点,类标记为这个节点子树中最频繁的那个类。

无论是预剪枝还是后剪枝,剪枝的目的都是为了减少决策树的复杂度,避免过拟合现象的发生,提高决策树的泛化能力。

决策树算法分类

 ID3 、C4.5和 CART 算法分类对比

  • 节点划分指标:

    • ID3算法:信息增益
    • C4.5算法:信息增益率
    • CART算法:分类树使用基尼系数,回归树使用最小二乘偏差或最小绝对偏差
  • 树的结构:

    • ID3和C4.5算法:多叉树
    • CART算法:二叉树
  • 数据类型:

    • ID3算法:仅处理离散型数据
    • C4.5算法:处理连续型和离散型数据
    • CART算法:处理连续型和离散型数据,同时适用于多分类和回归问题
  • 应用场景:

    • ID3算法:基本的决策树算法,适用于简单的分类问题
    • C4.5算法:改进了ID3算法,适用于更复杂的分类问题,可以处理连续型数据和缺失值
    • CART算法:更加通用的决策树算法,适用于分类和回归问题,可以处理连续型数据和多分类问题

简述CART 算法

CART算法是一种决策树算法,全称为Classification And Regression Tree,中文叫做分类回归树。CART算法可以生成二叉树,同时可以作分类树和回归树。CART算法的核心思想是通过对样本数据进行递归的二元分裂,构建一棵二叉树,使得每个叶子节点对应一个类别或一个数值。在构建决策树的过程中,CART算法采用基尼系数作为属性选择的指标,选择基尼系数最小的属性进行划分。CART算法的优点是可以处理连续型和离散型的数据,同时可以处理多分类和回归问题。CART算法的缺点是容易过拟合,需要进行剪枝处理。

决策树的纯度概念是指在某个节点上,样本的类别越单一,纯度越高。选择最佳属性进行划分的方法是通过计算属性的纯度增益或纯度减少程度,选择纯度增益或减少程度最大的属性作为划分属性。在CART算法中,属性选择的指标采用的是基尼系数

Titanic 乘客生存预测

业务流程

数据解释

 代码实现

import pandas as pd
from sklearn.feature_extraction import DictVectorizer
from sklearn.tree import DecisionTreeClassifier
import numpy as np
from sklearn.model_selection import cross_val_score

# 数据加载
train_data = pd.read_csv('./train.csv')
test_data = pd.read_csv('./test.csv')
# 数据探索
print(train_data.info())
print('-'*30)
print(train_data.describe())
print('-'*30)
print(train_data.describe(include=['O']))
print('-'*30)
print(train_data.head())
print('-'*30)
print(train_data.tail())
# 数据清洗
# 使用平均年龄来填充年龄中的 nan 值
train_data['Age'].fillna(train_data['Age'].mean(), inplace=True)
test_data['Age'].fillna(test_data['Age'].mean(),inplace=True)
# 使用票价的均值填充票价中的 nan 值
train_data['Fare'].fillna(train_data['Fare'].mean(), inplace=True)
test_data['Fare'].fillna(test_data['Fare'].mean(),inplace=True)
print(train_data['Embarked'].value_counts())

# 使用登录最多的港口来填充登录港口的 nan 值
train_data['Embarked'].fillna('S', inplace=True)
test_data['Embarked'].fillna('S',inplace=True)

# 特征选择
features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked']
train_features = train_data[features]
train_labels = train_data['Survived']

# test_features已经从test_data中提取出来了
test_features = test_data[features]

dvec=DictVectorizer(sparse=False)

# dvec.fit_transform 用于训练和转换数据,将数据转换为字典形式并进行特征提取和向量化处理。这个方法会返回处理后的特征矩阵。
# dvec.transform 方法只进行数据转换,即将新数据转换为字典形式并进行特征提取和向量化处理,这个方法只返回转换后的特征矩阵,不进行训练

train_features=dvec.fit_transform(train_features.to_dict(orient='records'))
print(dvec.feature_names_)

# 构造 ID3 决策树
clf = DecisionTreeClassifier(criterion='entropy')
# 决策树训练
clf.fit(train_features, train_labels)

# 将其转换为NumPy数组或字典格式
# dvec.transform是将数据集进行特征向量化的方法,它将数据集中的非数值型特征转换为数值型特征,以便于分类器等机器学习算法的处理
test_features=dvec.transform(test_features.to_dict(orient='records'))
# 决策树预测
pred_labels = clf.predict(test_features)


# 得到决策树准确率
acc_decision_tree = round(clf.score(train_features, train_labels), 6)
print(u'score 准确率为 %.4lf' % acc_decision_tree)


# 使用K折交叉验证  统计决策树准确率
# 使用score函数对训练集的准确率进行统计,正确率会接近于100%(如上结果为98.2%),但是这并不能代表决策树分类器的准确率。
# 因为我们没有测试集的实际结果,所以无法用测试集的预测结果与实际结果做对比。
# 而使用K折交叉验证可以更好地评估模型的性能,因为它可以使用所有的数据来进行训练和测试,从而更好地反映模型的性能。
print(u'cross_val_score准确率为 %.4lf' % np.mean(cross_val_score(clf, train_features, train_labels, cv=10)))

问题思考

构造特征向量时使用了 DictVectorizer 类,使用fit_transform 函数将特征向量转化为特征值矩阵。DictVectorizer 类同时也提供 transform 函数,那么这两个函数有什么区别?

transform和fit_transform虽然结果相同,但是不能互换。转换过程中,fit_transform函数会学习特征的取值范围,并将特征转换为数值型特征。transform函数不会在转化过程中学习特征的取值范围,而是使用之前学习到的特征取值范围进行转换。

数据可视化

Graphviz 可视化工具帮我们把决策树呈现出来

Python可视化工具库实战_数据与后端架构提升之路的博客-CSDN博客

实战总结

1.   特征选择是分类模型好坏的关键。选择什么样的特征,以及对应的特征值矩阵,决定了分类 
模型的好坏。通常情况下,特征值不都是数值类型,可以使用 DictVectorizer 类进行转 
化;
2.   模型准确率需要考虑是否有测试集的实际结果可以做对比,当测试集没有真实结果可以对比 
时,需要使用 K 折交叉验证 cross_val_score;
3. Graphviz 可视化工具可以很方便地将决策模型呈现出来,帮助你更好理解决策树的构建。 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
决策树(Decision Tree)是一种基于树状结构的机器学习算法,可用于解决二分类问题。在Titanic数据集中,我们可以使用决策树预测乘客是否生还。 决策树通过逐步分割数据的特征,将数据分为不同的类别。为了构建决策树模型,我们需要选择一个合适的特征作为根节点,在Titanic数据集中,例如"性别"、"年龄"等特征可以作为根节点。根据不同特征的取值,递归地划分数据,并生成一个树状结构。最终我们可以使用这个决策树来对新的乘客进行生还预测。 神经网络(Neural Network)是一种模拟人脑神经元的计算模型,也可以用于二分类问题。在Titanic数据集中,我们可以通过训练神经网络来预测乘客是否生还。 神经网络由输入层、隐藏层和输出层组成。输入层接收Titanic数据集中的特征,隐藏层根据权重和激活函数进行计算,输出层产生二分类的预测结果。通过反向传播算法,我们可以调整网络中的权重和偏差,以最小化预测错误。 逻辑回归(Logistic Regression)是用于解决二分类问题的广义线性回归模型。在Titanic数据集中,我们可以使用逻辑回归来预测乘客是否生还。 逻辑回归通过使用逻辑函数(也称为Sigmoid函数)将线性回归结果映射到0到1之间的概率值。对于Titanic数据集中的每个特征,我们可以使用逻辑回归建立一个模型,该模型可以根据乘客的特征值来预测其生还概率。 以上三种方法都可以用于解决Titanic数据集中的二分类问题。根据实际情况,我们可以根据特征的不同选择合适的算法,并根据模型的性能进行调整和优化,以提高预测的准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

数据与后端架构提升之路

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值