参考:莫烦:https://www.bilibili.com/video/BV1Vx411j7kT?p=8
Variable数据格式及使用意义
使用这种数据相当于将数据加入到一个节点,这种数据有grad属性,而torch数据没有该属性
import torch
import numpy as np
from torch.autograd import Variable
tensor = torch.FloatTensor([[1,2],[3,4]]) # build a tensor
variable = Variable(tensor, requires_grad=True) # build a variable, usually for compute gradients
print(tensor)
print(variable) #可能是因为版本的问题,显示和视频中不太一样
'''
tensor([[1., 2.],
[3., 4.]])
tensor([[1., 2.],
[3., 4.]], requires_grad=True)
'''
Variable所包含的数据可以作为一个能够反向传播的节点,但在定义这种数据时,需要把将requires_grad=True;
v_out = torch.mean(variable*variable) # x^2
v_out.backward() # backpropagation from v_out
print(variable.grad)
'''
tensor([[0.5000, 1.0000],
[1.5000, 2.0000]])
'''
程序是和前面连接的,对variable数据进行了运算(x12+x22+x32+x42)/4=y,所以每个变量的梯度=dy/dx=0.5x 。
但是只有经过.backward( )方法后才开始将Variable的数据作为一个节点,进行向后传播,才有梯度的出现。