2.22 朴素贝叶斯法、决策树

朴素贝叶斯

朴素贝叶斯:对于给定的训练数据集,首先是基于特征条件独立假设学习输入输出的联合概率分布,然后基于此模型,对给定的输入x,利用朴素贝叶斯定理求出后验概率最大的输出y

p(A|B) = P(AB)/P(B) = P(B|A)P(A)/P(B)

决策树

判断每个内部节点的特征选取时,用信息增益来判断

给定训练数据集D与特征A,经验熵H(D)表示对数据集进行分类的不确定性。而经验条件熵H(D|A)表示在特征A给定的条件下对数据集D进行分类的不确定性。那么他们的差,即信息增益就表示由于特征A而使得对数据集D的分类的不确定性减小的程度。

例子

选择信息增益熵最大的D3

信息增益的判断有时候不够准确,采用信息增益比进行判断

决策树的构建ID3算法

决策树的构建C4.5算法,就是将ID3中使用的信息增益判断改为信息增益比

决策树的枝剪

当决策树过于复杂可能出现过拟合的状况,适当的对树枝剪可以减轻过拟合的状况

在损失函数的基础上加上一个正则项。α|T|,其中T表示节点的数目。

这样在即要求经验熵最小的同时还要考虑叶子节点的数目

后剪枝:先进行枝剪再比较Cα(T)判断是否进行枝剪

注意一点就是:在进行枝剪的时候,没有进行枝剪的一侧不影响Cα(T),只需要进行被枝剪部分的Cα(T)可以减小计算量

预剪枝:就是在构建树的时候,直接将正则项加入构造函数里,生成的树就不会太大

CART算法

仅用于学习 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值