【DL笔记】相对熵与交叉熵

本文探讨了深度学习中重要的概念——相对熵和交叉熵,详细解释了它们的计算方法及两者间的差异,旨在帮助理解这些基础理论。
摘要由CSDN通过智能技术生成

前言

相对熵(Relative Entropy)与交叉熵(Cross Entropy)二者经常出现在深度学习的公式与算法中,本文介绍二者的计算以及之间的区别。

关于熵

熵是衡量信息量的物理量,在决策树算法中涉及到的信息熵、信息增益、信息增益率等都与此相关,详细可参见 这篇文章

相对熵

相对熵(relative entropy)又称为KL散度(Kullback-Leibler divergence),KL距离,是两个随机分布间距离的度量。记为DKL(p||q)。它度量当真实分布为p时,假设分布q的无效性。

并且为了保证连续性,做如下约定:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值