【机器学习数据集的信息熵】信息熵及其Python计算实现

1.信息熵的理论背景

    在机器学习的过程中,我们经常会进行数据集的准备工作。那么怎么来评测我们划分的数据集,来证明我们的划分就是最好最合理的呢?这里我们就需要用到信息熵了。熵越大,随机变量的不确定性就越大。

    熵,定义为信息的期望值,是大名鼎鼎的香农提出来的概念。

    信息的定义:如果待分类的 Xi ,可能处于多个类别中,那么Xi 的信息定义为:

                    L(Xi) = -log2 p(xi),其中p(Xi) 是处于该分类的概率

    为了计算熵,我们需要所有类别所可能包含的信息值,通过下面公式得到:

                    ,其中 n 是分类数量

熵越大,则混合的数据也越多。

直白点说,信息熵是用来度量数据集的无序程度的,其值越大,则越无序。

所以,一直有管理者提出“组织上熵减”就是追求组织上有序,规律,从而形成合力。

2.Python实现

from math import log
def calcShannonEnt(dataSet):
    numEntries = len(dataSet)
    labelCounts = {}
    for featVec in dataSet:
        currentLabel = featVec[-1]
        if currentLabel not in labelCounts.keys():
            labelCounts[currentLabel]=0
        labelCounts[currentLabel]+=1
    shannonEnt = 0.0
    for key in labelCounts:
        prob = float(labelCounts[key])/numEntries
        shannonEnt -= prob * log(prob,2)
    return shannonEnt

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值