tensor类型、属性、torch.tensor与torch.Tensor的区别

一、tensor(张量)

1. tensor简介

在深度学习中,可以理解为Tensor是一个多维度的矩阵张量是一个不随参照系的坐标变换(其实就是基向量变化)而变化的东西。

2. 类型

在这里插入图片描述

3. 属性

每一个Tensor都有torch.dtype、torch.device、torch.layout

  • torch.dtype:数据类型
  • torch.device:是指torch.Tensor分配到的设备('cpu’或’cuda’设备类型)的对象
  • torch.layout:表示torch.Tensor内存布局的对象,分别是稀疏密集。要注意的是稀疏化时需要提供元素的索引和值。可用torch.sparse_coo_tensor()和torch.sparse_csr_tensor()来实现
dev = torch.device("cpu")			# 使用cpu
print(torch.tensor([1, 2], device=dev))	# 将张量放在cpu上
dev = torch.device("cuda:0")		# 使用gpu
print(torch.tensor([1, 2], device=dev))	# 将张量放在gpu上

# 张量的稀疏化
indexs = torch.tensor([[0, 1, 1], [2, 0, 2]])	# 索引
values = torch.tensor([3, 4, 5], dtype=torch.float32)		# 值
x = torch.sparse_coo_tensor(indexs, values, [2, 4])			# 稀疏化
print(x)
print(x.to_dense())		# 将稀疏张量转化为稠密张量(含有多个0)

# 输出
tensor([1, 2])			# cpu上的张量
tensor([1, 2], device='cuda:0')	# gpu上的张量
tensor(indices=tensor([[0, 1, 1],
                       [2, 0, 2]]),
       values=tensor([3., 4., 5.]),
       size=(2, 4), nnz=3, layout=torch.sparse_coo)	# 稀疏张量的存储
tensor([[0., 0., 3., 0.],	# 稀疏转稠密
        [4., 0., 5., 0.]])

4. torch.tensor与torch.Tensor的区别

  1. torch.Tensor是将输入的data转化torch.FloatTensor,而对于 torch.tensor(当你未指定dtype的类型时) 将依据data类型转化为torch.FloatTensor、torch.LongTensor或torch.DoubleTensor等
  2. torch.Tensortorch.empty(会随机产生垃圾数组,详见实例)和torch.tensor之间的一种混合

本文只用于个人学习与记录,侵权立删

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值