mysql可以做决策树吗_决策树算法简单总结

前言

李航老师《统计学习方法》详细的描述了决策树的生成和剪枝。根据书的内容,做总结如下。

目录

决策树不确定性的度量方法

决策树的特征筛选准则

决策函数的损失函数评估

决策树最优模型的构建步骤

决策树的优缺点分析

a. 决策树不确定性的度量方法

1. 不确定性理解

下图为事件A是否发生的概率分布,事件发生记为1,讨论事件A的不确定性。

17a1a9b21b40272d2fe145395b7639dd.png

(1)一种极端情况,若p=1或p=0,表示为事件A必定发生或事件A不可能发生。

(2)若p>1/2,即事件A发生的概率大于事件A不发生的概率,我们倾向于预测事件A是发生的;若 p<1/2,即事件A不发生的概率小于事件A发生的概率,我们倾向于预测事件A是不发生的;若 p=1/2,即事件A发生的概率等于事件A不发生的概率,我们无法作出预测。

2. 决策树不确定性的度量方法

这里用熵和基尼指数去衡量数据集的不确定性,假设数据集包含K类,每个类的大小和比例分别为Di和pi,i = 1,2,...,k。

(1)熵的不确定性度量方法

信息论和概率统计中,熵是表示随机变量不确定性的度量,令熵为H(p),则:

8f8365d761253825c61240ccd3844cc4.png

熵越大,数据集的不确定性就越大。

(2)基尼指数的不确定度量方法

数据集的基尼指数定义为:

09a136c80f511a1c2c60d817e4a86d32.png

基尼指数越大,数据集不确定性越大。

b. 决策树特征筛选准则

假设数据集A共有K个特征,记为xi,i = 1,2,...,K。数据集A的不确定性越大,则数据集A包含的信息越多。假设数据集A的信息为H(A),经过特征xi筛选后的信息为H(A|xi),定义信息增益g(A, xi)为两者的差值,即:

g(A, xi) = H(A) - H(A|xi)

选择使数据集A信息增益最大的特征作为决策树当前节点,数学表示为:

x = max( g(A,xi) ) = max( H(A) - H(A|xi) )

C. 决策树的损失函数评估

令决策树的叶节点数为T,损失函数为:

2a0d587a8a405eb23e7b5a03d9993098.png

其中C(T)为决策树的训练误差,决策树模型用不确定性表示,不确定性越大,则训练误差亦越大。T表示决策树的复杂度惩罚,α参数权衡训练数据的训练误差与模型复杂度的关系,意义相当于正则化参数。

考虑极端情况:当α趋于0的时候,最优决策树模型的训练误差接近 0,模型处于过拟合;当α趋于无穷大的时候,最优决策树模型是由根节点组成的单节点树。

d. 决策树最优模型的构建步骤

将数据集A通过一定的比例划分为训练集和测试集。

决策树的损失函数:

17c47cee6290c58440b9bcc4ca5e7d00.png

决策树最优模型的构建步骤包括训练阶段和测试阶段:

训练阶段:

(1)最小化决策树的不确定性值得到的生成模型,即决策树生成;

(2)通过决策树剪枝,得到不同的正则化参数α下的最优决策树模型,即决策树剪枝。

下面重点讨论训练阶段的决策树生成步骤和决策树剪枝步骤。

决策树生成步骤:

(1) 根据决策树的特征筛选准则,选择数据集信息增益最大的特征;

(2) 重复第一个步骤,直到所有叶节点的不确定性为0 。

决策树剪枝步骤:

(1)将正则化参数α从小到大分成不同的区间

e. 决策树优缺点

优点:模型很强的解释性

缺点:容易过拟合。即训练误差很小,测试误差很大。为避免过拟合,使用时结合集成算法。如:bagging算法、boosting算法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值