机器学习中使用的交叉熵(cross entropy)透彻分析

本文详细介绍了交叉熵的概念,从信息量、熵、相对熵(KL散度)逐步展开,强调交叉熵在衡量概率分布差异及机器学习中损失函数的作用。在分类问题中,交叉熵常与softmax配合使用,其值越小代表模型预测效果越好。
摘要由CSDN通过智能技术生成

从字面分析交叉熵,1是交叉、2是熵(熵与信息量有关);首先交叉熵涉及信息论里面的东西,想要彻底理解交叉熵就要明白此概念跟信息量的关系以及里边的熵怎么理解。

(1)信息量

衡量信息量可以用大小或者多少来形容,就是你传达的信息能别人带来多大的价值感吧,首先我说明天会下雨,这句话的信息量有多少呢?(我也不知道啊,哈哈)但是你说中国疫情现在已经结束了;mei国疫情也已经结束了。显然仅凭直觉,我们可以看出你要传达的第二句话比第一句话的信息量要大,因为中国的疫情我们大家很显然知道已经结束了,这句话发生概率几乎为1,而meiguo刚刚我们观察还处在很严重的阶段,你说他已经结束了这件事发生的概率很小几乎为0,但是你传达给我了一个几乎不会发生的事情发生了。证明我获得了我不知道的信息得到了很大的信息量。

由此我们可以总结出:那么信息量应该和事件发生的概率有关。所以当越不可能的事件发生了,我们获取到的信息量就越大;越可能发生的事件发生了,我们获取到的信息量就越小。因此一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。

因此衡量信息量大小的公式为:

假设X是一个离散型随机变量,其取值集合为

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Upupup6

写手不易请留下你的打赏鼓励谢谢

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值