信息论与熵,交叉熵

多个事件同时发生的总信息量等于每个事件信息量的和.
在这里插入图片描述
小概率事件发生时,其所含信息量更大,当事件100%发生时,不含信息量,其形如下图函数,为-log函数。
熵是所有信息量的期望,如果一件事的事件空间由A、B、C组成:
在这里插入图片描述
不写底数,默认是以 2 为底。信息论中信息量单位通常采用比特,默认是以 2 为底的。
以 10 为底,会简写成 lg,信息量的单位是哈特。
以 e 为底,会简写成 ln,信息量的单位是纳特。
相对熵又称KL散度。其反应两个分布的近似程度:
在这里插入图片描述
值越小,近似程度越高。用来比较分类结果与标签:
下面是交叉熵的定义:
在这里插入图片描述
公式前半部分为熵,后半部分为交叉熵,通常只用比较交叉熵,通过最小化交叉熵,来进行优化。
注意,深度学习中,实际的q(x),是输出结果经过sigmoid或者softmax计算的结果,其值介于【0,1之间】,满足概率0至1的特性。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

颢师傅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值