一、信息熵
熵:对平均不确定性的度量:
互信息:指两个事件集合之间的相关性。两个事件X和Y的互信息定义为:
其中,H(X, Y) 是联合熵(Joint Entropy),其定义为:
平均互信息:得知特征Y的信息而使得对标签X的信息的不确定性减少的程度。\
熵与互信息的关系:
<
熵:对平均不确定性的度量:
互信息:指两个事件集合之间的相关性。两个事件X和Y的互信息定义为:
其中,H(X, Y) 是联合熵(Joint Entropy),其定义为:
平均互信息:得知特征Y的信息而使得对标签X的信息的不确定性减少的程度。\
熵与互信息的关系:
<