卷积神经网络系列之softmax loss对输入的求导推导

转载自:https://blog.csdn.net/u014380165/article/details/79632950


我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对损失函数求梯度是怎么求的真的了解吗?相信很多人不一定清楚。虽然网上的资料很多,但是质量参差不齐,常常看得眼花缭乱。为了让大家少走弯路,特地整理了下这些知识点的来龙去脉,希望不仅帮助自己巩固知识,也能帮到他人理解这些内容。

这一篇主要介绍softmax loss对输入的求导(或者叫cross entropy loss function对输入的求导),算是网络里面比较难懂的一块内容,公式较多,但是很容易看懂,需要静下心来看。

接下来我会先介绍softmax对输入求导的推导过程,然后给出softmax loss对输入的求导推导。

先推导softmax对输入的求导:
回顾下:卷积神经网络系列之softmax,softmax loss和cross entropy介绍的softmax,就是下面这个公式:
在这里插入图片描述

N表示类别数,a表示全连接层的输出向量,aj表示向量a的第j个值。

那么如果将Si对aj求导,就是下面这个式子:
这里写图片描述

注意到这个式子中Si的分子的指数是ai,而求导对象是aj,因此在求导的时候就存在i==j和i!=j这两种情况。另外这里用DjSi表示Si对aj的导数,这种表示方式后面会用到。

当i==j时,求导的公式是下面这样的:
在这里插入图片描述

这个是比较基本的求导,不要觉得字符多就很难,虽然我一开始也是这么认为的。如果不熟悉的话应该要过一下简单的微积分

因此,化简这个求导公式就得到下面这个式子的结果。这里第三个等式是怎么得到的呢?请看上面的第一个公式,也就是softmax那个公式,你就知道S是softmax的输出。
在这里插入图片描述

当i!=j时,求导公式和前面同理是下面这样的:
在这里插入图片描述

因此整合下i==j和i!=j的情况,就得到Si对aj的导数如下:
在这里插入图片描述

——————————————–华丽的分割线———————————————–

前面介绍的是softmax对输入的求导推导过程,我们的目的是损失函数对输入求导,因为这个过程需要用到softmax对输入的求导,所以就先介绍了。softmax loss的公式是下面这样的,这个在博文:卷积神经网络系列之softmax,softmax loss和cross entropy里也介绍过了。我们知道模型在训练的时候先进行前向计算,得到在当前模型参数下的预测值,也就是下式的S;然后计算这次预测的损失,也就是下式的L;然后反向传递损失并计算梯度(这个梯度包含损失对参数的梯度和对该层输入的梯度);最后再正向更新参数
在这里插入图片描述

然后就是softmax对输入的求导,这里直接给出结论,因为在分割线之前都在推导这个求导的过程。
在这里插入图片描述
上面两步准备好了损失函数Lsoftmax对输入的导数,然后就可以计算损失函数对输入的导数了。下面这个式子就是计算损失函数L对输入xi的导数。这个式子中的第一、二个等号比较好理解。第三个等号就用到了上面pj对xi求导的结论,第三个等号结果的左半部分是ik的时候pk对xi的导数,求导得到的pk和原来的1/pk相乘约掉了,对yk的求和由于ik所以只剩下yi;右半部分是i!=k的时候pk对xi的导数,注意右半部分的∑底下的k!=i。第四、五个等号也比较好理解。第六个等号是将yipi合并到∑里面。最后一个等号的成立是建立在假设∑yk=1的前提下,这个对于常见的单标签分类任务而言都是成立的。(对于Open Images这种多标签的数据集最后一步不成立,最后一步的结果为mpi-yi,其中m是某类的正确标签个数)
在这里插入图片描述
因此假设一个5分类任务,一张图像经过softmax层后得到的概率向量p是[0.1,0.2,0.25,0.4,0.05],真实标签y是[0,0,1,0,0],那么损失回传时该层得到的梯度就是p-y=[0.1,0.2,-0.75,0.4,0.05]。这个梯度就指导网络在下一次forward的时候更新该层的权重参数。

综上就是softmax loss对输入的求导推导。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
神经网络中的softmax函数是一种常用的激活函数,用于将神经网络的输出转化为概率分布。softmax函数可以将任意实数向量转化为概率分布向量,使得各个元素的取值范围在0到1之间,并且所有元素的和为1。在卷神经网络中,softmax函数通常被用于最后一层的全连接层,将网络的输出转化为类别概率分布。 通过softmax函数,卷神经网络可以根据输入图像的特征,计算出每个类别的概率值,从而实现图像分类的任务。softmax函数的输入是一个向量,其中每个元素表示对应类别的得分或激活值。softmax函数通过对输入向量中的每个元素进行指数运算和归一化,得到每个类别的概率值。概率值大的类别被认为是预测结果。 在训练过程中,卷神经网络通过比较softmax函数输出的概率分布与真实标签的分布,计算出模型的损失值。常用的损失函数包括交叉熵损失函数。交叉熵损失函数可以衡量模型输出的概率分布与真实标签的差异,从而指导模型的参数更新。 总结来说,softmax函数在卷神经网络中起到将网络的输出转化为概率分布的作用,帮助实现图像分类的任务。同时,交叉熵损失函数可以用来衡量模型输出的概率分布与真实标签的差异。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [深度学习—卷神经网络(Convolutional Neural Networks)](https://blog.csdn.net/qq_28505705/article/details/102944765)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [卷神经网络系列之softmaxsoftmax loss和cross entropy的详细讲解 简单明了](https://blog.csdn.net/weixin_42713739/article/details/103203743)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值