pytorch Variable变量

36 篇文章 1 订阅
13 篇文章 0 订阅

1: tensor不能反向传播,variable可以反向传播。

2:Variable计算时,它会逐渐地生成计算图。这个图就是将所有的计算节点都连接起来,最后进行误差反向传递的时候,一次性将所有Variable里面的梯度都计算出来,而tensor就没有这个能力。

3:variable 如何转化为numpy

4:Variable有一个名叫data的字段,可以通过它获得被包装起来的那个原始的Tensor数据。同时,使用grad字段,可以获取梯度(也是一个Variable)。

5:每个Variable有一个creator的字段,表明了它是由哪个Function创建的(除了用户自己显式创建的那些,这时候creatorNone

6:  当进行反向传播计算梯度时,如果Variable是标量(比如最终的loss是欧氏距离或者交叉熵),那么backward()函数不需要参数。然而如果Variable有不止一个元素的时候,需要为其中的每个元素指明其(由上层传导来的)梯度(也就是一个和Variableshape匹配的Tensor

import numpy as np
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.autograd import Variable

import torch
from torch.autograd import Variable # torch 中 Variable 模块
tensor = torch.FloatTensor([[1,2],[3,4]])
# 把鸡蛋放到篮子里, requires_grad是参不参与误差反向传播, 要不要计算梯度
variable = Variable(tensor, requires_grad=True)
var = Variable(tensor )  ### 默认是不参与反向传播,如果需要则需要在代码里面声明
print("tensor:",tensor)
print("variable:",variable)
print("var:",var)

#### 获取Variable 的数据
print(variable.data.numpy()) ###variable  数据转化为numpy 的类型

运行结果:

PS F:\Graduation project\deeplearning> python .\c.py
tensor: tensor([[1., 2.],
        [3., 4.]])
variable: tensor([[1., 2.],
        [3., 4.]], requires_grad=True)
var: tensor([[1., 2.],
        [3., 4.]])
[[1. 2.]
 [3. 4.]]

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值