Softmax求导

在神经网络中,我们经常可以看到以下公式,用于计算结点的激活值:

直接甩出Softmax的公式:

n表示类别数,z表示输出向量,zj表示向量z的第j个值。

对Softmax求导:

显然是目标是

根据求导的链式法则:

所以核心问题就转换为求 ,在接触到这个式子的时候,考虑到一个问题,为什么这里是对求导而不是对求导,

接下来举例说明:

从图中可以得到

z4 = w41*o1+w42*o2+w43*o3

z5 = w51*o1+w52*o2+w53*o3

z6 = w61*o1+w62*o2+w63*o3

那么我们可以经过softmax函数得到:

中,仅包含了,也包含了也一样,不仅包含了,也包含了,如果只使用求导,

会有大量的不参与计算,所以要使用,对分情况讨论即可。

接下来进行求导:

  
                                               

时:


                                                         

由(2)可得:

时:

 

可得:

根据(2)可得:

因此可得出:

参考

详解softmax函数以及相关求导过程

【深度学习】:超详细的Softmax求导

Deep Learning基础--Softmax求导过程卷积神经网络系列之softmax loss对输入的求导推导

卷积神经网络系列之softmax loss对输入的求导推导

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值