交叉熵理解深度学习互信息

20211017

互信息是相对熵的更宽泛的特殊情形, 通常将互信息最大化就是将两个随
机事件的相关性最大化, 在机器学习中, 理想情况下, 互信息最大, 就相当于
模型训练过后拟合出来的概率分布已经等同于真实的概率分布。

20210614
在这里插入图片描述
H(x):先验概率
H(x |y):后验概率
考察x ,y之间的依赖关系
如果二者独立 这 式子的结果为0 y的发生对x的发生没有影响 H(x)-H(x)=0
如果 影响很大,H(x|y) 因为y的加入 是的 x的不确定性减小 使得 H(x)-H(x|y) 的值增大
H(x) 熵表示事物不确定性的程度 越确定 值越小

1.信息量
2.熵是信息量的期望
3.散度两个分布越接近 散度值越小 右边的每一项都接近于1
4.单标签 多分类 一张图片同时只能是一种判别的可能
5.多标签 多分类 一张图片同时可以是多种判别的可能
6.上面四五点 二者的公式是不一样的
在这里插入图片描述
https://www.zhihu.com/question/65288314/answer/244557337
https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence
https://jamesmccaffrey.wordpress.com/2013/11/05/why-you-should-use-cross-entropy-error-instead-of-classification-error-or-mean-squared-error-for-neural-network-classifier-training/

实际应用中 本质上是用的散度衡量两个分布的相似度,只是因为前部相同就只用了 后半部的交叉熵

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值