机器学习——信息熵

信息熵在信息论中代表的是随机变量的不确定度的度量
  1、熵越大,数据的不确定性越高,无规则运动越剧烈
  2、熵越小,数据的不确定性越低

 

信息熵公式:
  

式子表示这个样本中有k类,pi表示第i类数据在总体中的占比。

负号是因为pi属于0到1之间,那么log(pi)就小于零,所以加一个负号。

 

举个栗子:

  

 

 

  

  可以看到后一个的熵要小,后一个数据比前一个数据更加确定。

 

分的目的:
  使得划分后信息熵降低

  对所有的划分可能性进行搜索,找到最优划分方式,生成决策树

转载于:https://www.cnblogs.com/miaoqianling/p/11441460.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值