机器学习若干问题物理意义——信息熵

Kullback-Leibler散度(KL散度):考虑某个未知分布p(x),假定我们已经使用一个近似的分布q(x)对它进行了建模。如果使用q(x)来建立一个编码体系,用来把x的值传送给接收者,那么,由于使用q(x)而不是真实分布p(x),因此在具体化x的值时,需要一些附加信息,KL散度表示的就是所需平均的附加信息量。KL(p || q) >= 0,当且仅当p(x) = q(x)时等号成立
KL散度公式

这个公式表示采用q(x)编码体系编码真实分布p(x)所需要的信息量
这里写图片描述

互信息:考虑由p(x,y)给出的两个变量x和y组成的数据集,如果变量的集合是独立的,则p(x,y) = p(x)p(y),如果变量不是独立的,那么我们可以通过考察联合概率分布与边缘分布乘积之间的KL散度来判断它们是否“接近”于相对独立。此时,KL散度为:
互信息公式

根据KL散度的性质,I[x,y] >= 0,当且仅当x和y相互独立时等号成立。进一步有,
互信息和条件熵的关系
因此我们可以把互信息看成由于知道y值而造成的x的值得不确定性的减少。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值