【深度学习】CVAE的KL损失公式的推导

KL散度,VAE

 

KL散度(相对熵)

衡量两个概率分布的距离,两个概率分布越相似,KL散度越小,交叉熵越小。表示已知q,p的不确定性程度-p的不确定性程度

  • 交叉熵:表示已知分布p后q的不确定程度,用已知分布p去编码q的平均码长

  • 交叉熵在分类任务中为loss函数

往往交叉熵比均方误差做loss函数好

1.均方差求梯度太小,在深度网络中,随着网络变深,会出现梯度消失,即梯度饱和问题,因此交叉熵做loss函数比较好。

2.均方误差是一个非凸的函数,cross-entropy是一个凸函数。

 如两个高斯分布的KL散度KL(p1||p2)如下:

 当其中一个是标准正太分布时,

    • 4
      点赞
    • 5
      收藏
      觉得还不错? 一键收藏
    • 2
      评论

    “相关推荐”对你有帮助么?

    • 非常没帮助
    • 没帮助
    • 一般
    • 有帮助
    • 非常有帮助
    提交
    评论 2
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值