Pytorch张量的主要方法之间的区别(Tensor、tensor、from_numpy、as_tensor)

 

Pytorch张量是torch.tensor  Pytorch类的实例

一个张量的抽象概念和一个Pytorch张量的区别在于Pytorch张量给了我们一个具体的实现,我们可以使用和编码它。

如上图,使用了四个不同的方法构造张量,并检查了他们的dtype。

t1与t2的唯一区别在于方法名中t的大小写,大写字母T(Tensor)是类构造函数,第二种小写是工厂函数。

torch.as_tensor 和 torch.from_numpy 也是工厂函数

 

构造函数在构造一个张量时使用全局缺省值,而工厂函数则根据输入推断数据类型。通过torch.get_default_dtype()可以查看dtype的全局缺省值是float32。

工厂函数是根据传入的数据选择一个dtype。如下图所示:

 

修改数组值,但不修改张量,如下:

 

t1和t2不受数组改变的影响;

t3和t4,两个张量包含了更改后数组中的相同数据。t3和t4可以映射数组的情况。

这种差异是由每个创建选项中分配内存的方式造成的。

t1和t2在内存中创建一个额外的数据副本,t3和t4是数组在内存中共享数据。不同之处就是在于对内存的共享。

torch.as_tensor()和torch.from_numpy()  函数使得numpy数组与Pytorch张量之间切换可以非常快,因为创建新的Pytorch张量时,数据是共享的,而不是后台复制的。共享数据比复制数据更有效使用更少的内存。因为数据没有写到内存中的两个位置,而是只有一个位置。

 

 

我们应该使用哪一种呢???

torch.tensor()是经常使用的。如果想做内存优化,使用torch.as_tensor(),这个为什么要比torch.from_numpy()好呢?

因为,torch.as_tensor()函数可以接受任何像Python数据结构这样的数组。

 

 

 

 

 

 

 

  • 13
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乐亦亦乐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值