确定输入和隐层矩阵→得到权重w矩阵。
Forward and Backward:
线性模型的计算图,正向和反向过程:
关于Tensor:存数据,包含标量、向量、矩阵等。
示例代码:(代码是在构建计算图,要有这种思维。)
import torch
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
#tensor中包含data(w)和grad(loss对w求导)
w = torch.Tensor([1.0]) #w=1.0
w.requires_grad