熵 KL散度 交叉熵的理解

  1. 熵 KL散度 交叉熵的概念:理解二分类交叉熵|可视化的方法解释对数损失
  2. 交叉熵公式推导: 理解交叉熵作为损失函数在神经网络中的作用
  3. 熵 KL散度 交叉熵的关系:KL散度与交叉熵区别与联系
  4. 训练过程中三者的应用:交叉熵和KL散度有什么联系

第一个理解二分类交叉熵对于熵定义感觉有错误。对于分类任务,单个样本集概率对于该类别是1,因此通过交叉熵估计希望神经网络估计的该类别的概率分布与真实概率近似。
强调一下:多分类学习的过程中,相当于数据集的概率分布是已知的,也就是数据集的熵是常数,因此监督学习的过程实际上是让网络输出的熵与数据集的熵不断逼近的过程,此过程的损失函数就是交叉熵,由于熵是常数,因此交叉熵的梯度等于KL散度的梯度。两者在大多数情况下是等效的。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值