l.sum().backward()梯度反向传播时为何要加.sum()函数

.sum()函数主要有两个作用,一个是用来求和,一个是用来降维。而在这里是用到了降维的作用。

Pytorch进行梯度的计算,只能对标量进行梯度计算,例如 y = x 2 + x + 1 y = x^2 +x +1 y=x2+x+1这是一个标量,是能够进行梯度计算的,而例如 y = [ x 1 , x 2 ] 2 + [ x 1 , x 2 ] + [ 1 , 1 ] y=[x_1, x_2]^2 +[x_1, x_2] +[1, 1] y=[x1,x2]2+[x1,x2]+[1,1]这是二维的,pytorch并不能进行梯度反向传播计算梯度,所以我们需要使用sum进行降维处理,变成 y = x 1 2 + x 2 2 + x 1 + x 2 + 1 y=x_1^2 + x_2^2 +x_1+x_2 +1 y=x12+x22+x1+x2+1,对于多元函数便能计算偏微分,求梯度了。

例子如下,y_hat和y是多维的,所以先要sum再backward:

X = X.reshape((1, 1, 6, 8))
Y = Y.reshape((1, 1, 6, 7))
lr = 3e-2  # Learning rate

for i in range(10):
    Y_hat = conv2d(X)
    l = (Y_hat - Y) ** 2
    conv2d.zero_grad()
    l.sum().backward()
    # Update the kernel
    conv2d.weight.data[:] -= lr * conv2d.weight.grad
    if (i + 1) % 2 == 0:
        print(f'epoch {i + 1}, loss {l.sum():.3f}')

print(conv2d.weight.data.reshape((1, 2)))  
  • 5
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值