cs231n作业——softmax

cs231n作业——softmax

1.基础知识

Inputs:

- W: A numpy array of shape (D, C) containing weights.

- X: A numpy array of shape (N, D) containing a minibatch of data.

- y: A numpy array of shape (N,) containing training labels; y[i] = c means

that X[i] has label c, where 0 <= c < C.

- reg: (float) regularization strength

Returns a tuple of:

- loss as single float

- gradient with respect to weights W; an array of same shape as W

“”"

输入的w是d个属性和c个类别,x是n给样本和d个属性,输出loss和梯度

softmax公式如上所示,可以把所有的输出y值,进行变成概率,且都是正概率,相加的概率和为1

2.使用循环进行求loss和求导

求loss,我们一般使用交叉熵进行验证损失,交叉熵

hqKMa8.png
计算两个概率之间的距离。因为yi为标签值,只有为真实标签时yi才wei1,其他为0.,所以这个就可以简化为-lnai。

求导是链式求导法则,-lnai求导就是 -1/ai。

hqKYMn.png

z4 = w41o1+w42o2+w43*o3

下面应该是ez4

接下来就是对z4进行求导

z4在上下都有,那么我们使用导数进行求导,上下求导。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZBmT36SP-1631159742076)(https://z3.ax1x.com/2021/09/09/hqKRZ6.png)]

可以发现就是aj(1-aj)

hbVPoj.png

如果是对z5进行求导,那么就是-aj*ai。剩下

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值