.backward()反向传播理解

假设我们的模型是:

x2=x1*W1

y=x2*w2

L=Y-y

这个模型可以看作是一个简单的神经网络,如下图:

x1,x2是神经网络的中间层,y是我们的输出层,Y是真值,L是我们的loss.W1,W2是对应于x1和x2的weight.通常我们会把x1,x2,y,w1,w2使用pytorch的tensor进行表示,L也可以用tensor表示,其可能与其他tensor的维度都不同。在这个模型中,x1,w1,w2就是我们所谓的叶子tensor.

在pytorch中,我们把上述模型描述出来。

import torch
import numpy as np

x1 = torch.from_numpy(2 * np.ones((2, 2), dtype=np.float32))
x1.requires_grad_(True)
w1 = torch.from_numpy(5 * np.ones((2, 2), dtype=np.float32))
w1.requires_grad_(True)
print("x1 =", x1)
print("w1 
  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值