自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

余生愿你常欢笑

一起学习一起闹

  • 博客(1)
  • 收藏
  • 关注

原创 交叉熵损失函数

说明 关于分类问题的交叉熵损失函数,博客交叉熵介绍的非常清楚。 我这里补充一点笔记,给自己看的。 前文结论 在这篇博文中,关于 KL 散度部分,已得到: KL散度越小,表示P(x)和Q(x)越接近,所以可以通过反复训练,来使Q(x)逼近P(x),但KL散度有个特点,就是不对称,就是用P来拟合Q和用Q来拟合P的KL散度(相对熵)是不一样的,但是P和Q的距离是不变的。 那KL散度(相对熵)和交叉熵有什么联系呢? 所以可以看到:KL散度 = 交叉熵 - 信息熵。 从信息熵的公式,我们知道,对于同一个数

2021-09-08 17:42:58 257

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除