交叉熵和mse_一文总结熵,交叉熵,条件熵

本文深入浅出地介绍了信息熵、交叉熵和条件熵的概念,从信息不确定性的角度解释熵的含义,探讨了KL散度与交叉熵的关系,并通过举例说明了条件熵在模型训练中的作用,对于理解和应用这些概念在机器学习中的角色提供了清晰的指导。
摘要由CSDN通过智能技术生成

最近在学习Semi-supervised Domain Adaptation via Minimax Entropy (ICCV 2019),里面使用到了条件熵,不怎么了解,看来还是有必要总结一下。

熵. Entropy

在这里我们一般说的是信息熵,并不是热力学的那个熵,是由香农提出来的这个。因为那个时候都是2bit为单位,所以一般底数为2. 定义信息量

.

为什么前面有个负号?现在是为了不小于0,所以说熵不小于0一开始就是从这里定义的了。我们把信息量理解成信息的不确定性,一个信息的不确定性越大,那么他的熵(信息量)也就越大。

显然,上面定义的信息量只是一个“点”。我们需要扩展到整个随机变量

的情况,或者说整个样本空间的信息量。是的,就是
信息量的期望
了:

.

求和就是离散型随机变量,积分就是连续型随机变量咯。

相对熵,KL散度。

是真实分布,
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值