时序数据的信息熵计算

跟着谢老师学机器学习的第三章,用信息论来推导对数几率回归,比较有心得的是信息熵和相对熵。
信息熵度量随机变量的不确定性,信息熵越大则越不确定;
相对熵度量两个分布的差异性,相对熵越大则差异越大。
感觉这个在功率预测方面可以用一下
比如用信息熵衡量功率的不确定性,用相对熵衡量特征与功率之间的变化的差异性。

于是网上搜了信息熵的计算方法,有用sampen函数,但sampen函数不太会用,所以只好自己写了一个计算信息熵的代码,如有问题请批评指正:

def calculation_entropy(y):
    #统计每个类别的出现次数
    class_count = {}  #字典,字典通过‘键’来索引
    total_count = len(y)
    for i in y:
        if i in class_count:
            class_count[i] += 1  # i为字典的索引‘键’
        else:
            class_count[i] = 1
    #计算信息熵
    entropy = 0
    for i in class_count.values():
        probability = i / total_count
        entropy += - probability * math.log(probability)
    return entropy
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值