『数据挖掘十大算法 』笔记一:决策树

数据挖掘Top 10算法

C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART


决策树模型与学习

决策树是一种基本的分类与回归方法。误以为决策树就只是分类,它是一种树形结构,有结点和有向边构成,结点有内部结点和叶节点,内部结点代表一个特征或者属性,叶节点代表一个类。

决策树算法包含特征选择、决策树生成、决策树剪枝过程。

特征选择

即选取对训练数据具有分类能力的特征。如何选取特征呢,可以通过信息增益,信息增益率,Gini指数等。

信息增益

熵(entropy)

熵表示随机变量不确定性度量,对于X它为有限取值的离散随机变量

P(X=xi)=pi,i=1,2,3,...,n

则其熵定义为:

H(X)=i=1npilogpi

其中若 pi =0,则定义 0log0=0 ,其中熵与X的值无关,只和X的分布有关。

熵越大,随机变量的不确定性越大, 0H(p)logn

条件熵

条件熵定义为X给定条件下Y的条件概率分布对X的期望:

H(Y|X)=i=1npiH(Y|X=xi)

其中 pi=P(X=xi) , H(Y|X=xi)=nj=1P(X=xi,Y=yj)logP(X=xi,Y=yj)

信息增益

信息增益表示得知特征A的信息而使得类Y的信息的不确定性减少的程度。信息增益定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即:

g(D,A)=H(D)H(D|A)

信息增益算法
  1. 计算数据集D的经验熵:

    H(D)=k=1K|Ck||D|log|Ck||D|

  2. 计算特征A对数据集D的经验条件熵:

    H(D|A)=i=1n|Di||D|H(Di)=i=1n|Di||D|k=1K|Dik||Di|log2|Dik||Di|

  3. 计算信息增益:

    g(D,A)=H(D)H(D|A)

信息增益比

信息增益作为划分数据集的特征,存在偏向与选择取值较多的特征的问题。信息增益比可以改进改问题。

特征A对训练数据集D的信息增益比 gR(D,A) 定义为其信息增益g(D,A)与训练数据集D关于特征A的值得熵 HA(D) 之比,即:

gR(D,A)=g(D,A)HA(D)

其中 HA(D)=ni=1|Di||D|log2|Di||D| , n为特征A的取值个数。

决策树生成

ID3算法

ID3算法核心是在决策树各个节点上应用信息增益准则选择特征,递归构建决策树。

输入:给定训练数据集D, 特征集A, 阈值 ϵ

输出:决策树.

  1. 若D中所有实例属于同一类 Ck ,则T为单结点树,并将类 Ck 作为该结点的类标记,返回T.
  2. 若A= ,则T为单结点树,并将D中实例数最大的类 Ck 作为该结点的类标记,返回T;
  3. 否则,计算A中各特征对D的信息增益,选择信息增益最大的特征 Ag
  4. 如果 Ag 的信息增益小于阈值 ϵ ,则置T为单结点树,并将D中实例数最大的类 Ck 作为该结点的类标记,返回T;
  5. 否则,对 Ag 的每一个可能值 ai ,将D分割为若干个非空子集 Di ,将 Di 中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树T,返回T.
  6. 对第i个子节点,以 Di 为训练集,以 AAg 为特征集,递归调用步(1)-(5),得到字数 Ti ,返回 Ti

C4.5算法

C4.5是ID3的改进算法,只是它用信息增益比准则选择特征,递归构建决策树。

输入:给定训练数据集D, 特征集A, 阈值 ϵ

输出:决策树.

  1. 若D中所有实例属于同一类 Ck ,则T为单结点树,并将类 Ck 作为该结点的类标记,返回T.
  2. 若A= ,则T为单结点树,并将D中实例数最大的类 Ck 作为该结点的类标记,返回T;
  3. 否则,计算A中各特征对D的信息增益比,选择信息增益比最大的特征 Ag
  4. 如果 Ag 的信息增益比小于阈值 ϵ ,则置T为单结点树,并将D中实例数最大的类 Ck 作为该结点的类标记,返回T;
  5. 否则,对 Ag 的每一个可能值 ai ,将D分割为若干个非空子集 Di ,将 Di 中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树T,返回T.
  6. 对第i个子节点,以 Di 为训练集,以 AAg 为特征集,递归调用步(1)-(5),得到字数 Ti ,返回 Ti

决策树剪枝

决策树生成算法可能产生过于复杂的树结构,发生过拟合的现象,解决此问题的方法就是对其简化,即剪枝。

先验设定控制复杂度

  • 设置树的最大深度,防止过深。
  • 设置节点的熵的最小阈值。
  • 设置每个节点所包含的最小样本数量。

决策树剪枝一种方法是通过极小化决策树整体损失函数代价函数实现。

损失函数

设数T的叶节点个数为 |T| ,对于叶节点t,其有 Nt 个样本点,其中k类有样本点 Ntk 个, Ht(T) 为叶节点t上的经验熵, α0 为参数,损失函数定义为:

Cα(T)=t=1|T|NtHt(T)+α|T|

经验熵为:

Ht(T)=kNtkNt

C(T)=|T|t=1NtHt(T)=|T|t=1|K|k=1NtklogNtkNt

得到:

Cα(T)=C(T)+α|T|

其中, C(T) 表示模型对训练数据的误差,即拟合度。|T|表示模型复杂度,参数 α0 控制两者之间的影响。

剪枝算法

剪枝,就是在确定α情况下,选择损失函数最小的模型。

输入:生成算法产生的整个数T,参数α

输出:修剪之后的子树 Tα

  1. 计算每个节点的经验熵

  2. 递归的从树的叶节点向上回缩。对比回缩到其父节点前后的树 TB,TA ,比较其损失函数,若 Cα(TA)Cα(TB) ,则进行剪枝,父节点变为新的节点。

  3. 返回2,直到不能继续为止,获得损失函数最小的子树 Tα

CART算法

分类与回归树(CART)同样由特征选择、树的生成和剪枝组成。但CART还在给定输入随机变量X条件下输出随机变量Y的条件概率分布的学习方法。

CART假设决策树是二叉树,递归地二分每个特征,将输入空间划分为有限个单元,并在这些单元上预测概率分布。
CART由两步组成:
1. 树生成:基于训练集生成决策树,生成决策树尽量地大。
2. 树的剪枝:用验证集对已生成的树进行剪枝并选择最优子树。

CART生成

CART生成就是递归地构建二叉决策树过程,特征选择有两种标准:回归树用平方误差最小、分类树用Gini指数最小化准则

最小二乘回归树生成算法

输入:训练数据集;

输出:回归树f(x);

在训练数据集所在输入空间中,递归地将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树。

  1. 选择最优切分变量j与切分点s,求解

    minj,s[minc1xiR1(j,s)(yic1)2+minc2xiR2(j,s)(yic2)2]

    其中, R1(j,s)={x|x(j)s},  R2(j,s)={x|x(j)s} ,遍历变量j,对固定切分变量j扫描切分点s,选择是上式达到最小值的对(j,s)。

  2. 用选定的对(j,s)划分区域并决定相应的输出值。

    R1(j,s)={x|x(j)s},  R2(j,s)={x|x(j)s}

    ĉ =1NmxiRm(j,s)yi,xRm,m=1,2

  3. 继续对两个子区域调用步骤1,2,直到满足停止条件。

  4. 将输入空间划分为M个区域, R1,R2,···Rm ,生成决策树。

    f(x)=m=1Mĉ I(xRm)

分类树的生成

Gini指数

分类问题中,假设K个类,样本点属于第k类的概率为 pk ,则概率分布的基尼指数为:

Gini(p)=k=1Kpk(1pk)=1k=1Kp2k

对于二分类问题,K=2, Gini(p)=2p(1p)

实际情况中,对于给定样本集合D,并没有 pk 值,令 pk=|Ck||D| ,其基尼指数为:

Gini(D)=1k=1K(|Ck||D|)2

其中 Ck 是D中属于第k类的样本子集,K是类的个数。

如果样本集合D根据特征A是否取某一可能值a被分割成 D1,D2 两部分,即

D1={(x,y)D|A(x)=a},D2=DD1

则在特征A的条件下,集合D的基尼指数定义为:

Gini(D,A)=|D1||D|Gini(D1)+|D2||D|Gini(D2)

CART生成算法

输入:数据集D,停止计算的条件;

输出:CART决策树。

根据训练数据集合,从根节点开始,递归地对每个结点进行如下步骤:

  1. 设结点的悬链数据集为D,计算现有特征对该数据集的Gini指数,对于每一个特征A,对其每个取值a,将其分割为“是”和“不是”两部分,计算A=a时的Gini指数。
  2. 所有可能的特征A以及他们所有可能的切分点a中,选择Gini指数最小的特征及其对应的切分点作为最优特征与最优切分点。然后依最优特征和切分点切分结点为两个子结点,将其对应的数据集依特征分配到两个子节点中取。
  3. 对两个子结点递归地调用1,2,直到满足停止条件。
  4. 生成CART决策树。

算法停止条件是结点中的样本个数小于预定阈值,或样本集的基尼指数小于预定阈值,或没有更多的特征。

CART剪枝

定义损失函数:

Cα(T)=C(T)+α|T|

其中C(T)为对训练数据的预测误差(可以是Gini指数,或者平方差),|T|为树的叶结点个数, α 为参数,参数 α 权衡训练数据的拟合程度与模型的复杂度

CART剪枝算法

输入:CART算法生成的决策树 T0

输出:最优决策树 Tα ;

  1. k=0,T=T0 ,设 α=+

  2. 自上而下地对各内部结点t计算 C(Tt),|T| 以及

    g(t)=C(t)C(Tt)|Tt|1

    α=min(α,g(t))

    其中 Tt 表示以t为根节点的子树, C(Tt) 是对训练数据的预测误差, |Tt| Tt 的叶结点个数。

  3. g(t)=α 的内部结点t进行剪枝,并对叶结点t以多数表决法决定其分类,得到树T。

  4. k=k+1,αk=α,Tk=T

  5. 如果 Tk 不是由根节点及两个叶结点构成的树,则回到步骤2,否则 Tk=Tn

  6. 采用交叉验证法在子树序列 T0,T1,···Tn 中选取最优子树 Tα

附录

算法分类

机器学习算法按照学习方式分为监督学习、非监督学习、半监督学习、强化学习

监督学习:从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。训练集中的目标是由人标注的。

非监督式学习:与监督学习相比,训练集没有人为标注的结果。常见的非监督式学习算法有聚类。

半监督式学习:输入数据部分被标识,部分没有被标识,介于监督式学习与非监督式学习之间。常见的半监督式学习算法有支持向量机。

强化学习:在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。常见的强化学习算法有时间差学习。


按照算法类似性分为决策树学习、回归、聚类、人工神经网络

决策树:根据数据的属性采用树状结构建立决策模型。决策树模型常常用来解决分类和回归问题。常见的算法包括 CART (Classification And Regression Tree)、ID3、C4.5、随机森林 (Random Forest) 等。

回归算法:试图采用对误差的衡量来探索变量之间的关系的一类算法。常见的回归算法包括最小二乘法 (Least Square)、逻辑回归 (Logistic Regression)、逐步式回归 (Stepwise Regression) 等。

聚类算法:通常按照中心点或者分层的方式对输入数据进行归并。所有的聚类算法都试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。常见的聚类算法包括 K-Means 算法以及期望最大化算法 (Expectation Maximization) 等。

人工神经网络:模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络算法包括感知器神经网络 (Perceptron Neural Network) 、反向传递 (Back Propagation) 和深度学习等。

CSDN博客:http://blog.csdn.net/shine19930820/article/details/62233166

参考资料

《统计学习方法》
《The Elements of Statistical Learning 》
《Machine Learning A Probabilistic Perspective》
Top 10 algorithms in data mining

相似算法:

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

百川AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值