决策树C4.5算法 c语言实现,决策树之ID3、C4.5、C5.0

决策树之ID3,说一个例子,就会明白,拿

Tom M .mitchen 的《Machine Learing》第三章中的例子。

a4c26d1e5885305701be709a3d33442f.png

我们先解释一下这张表,表中有14条实例数据,就是我们的训练数据,其中Outlook,Temperature,Humidity

,Wind称作条件属性,PlayTennis 称作是决策属性(标签)。

每一个属性都有各自的值记做:Value(Outlook)={Sunny,OverCast,Rain},Value(Temperature)={Hot,Mild,Cool},Value(Humidity)={High,Normal},Value(Wind)={Strong,Weak},Value(PlayTennis)={NO,Yes}。

第一个重要的概念:Entropy。

我们数一下 决策属性PlayTennis,一共有两个类别:Yes,No。Yes的实例数是

9,No的实例数是 5。计算决策属性的Entropy(熵):

a4c26d1e5885305701be709a3d33442f.png,

计算结果为:0.940286

这里的决策属性S的值只有两个值(Yes,No),当然可以有多个值(s1,s2,s3,...,sk),这些决策属性的值的概率分别为:p1,p2,p3,...,pk所以决策属性的Entroy的计算公式:

a4c26d1e5885305701be709a3d33442f.png

第二个重要的概念:information

gain(信息增益)

我们只拿Outlook条件属性举例,其他的属性一样:

Value(Outlook)={Sunny,OverCast,Rain}:

Outlook是sunny的实例数为5(其中Yes的个数为2,No的个数为3),占总的实例数为5/14,那么针对sunny的Entropy,

a4c26d1e5885305701be709a3d33442f.png

计算结果为:0.97095

Outlook是OverCast的实例数为4(其中Yes的个数为4,No的个数为0),占总的实例数为4/14,那么针对Overcast的Entropy,

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值