【从矩阵到图像的类型转换1】:Pytorch中tensor的类型、数据类型以及数据类型间的转换

本文详细介绍了PyTorch中Tensor的类型与数据类型,包括默认类型、数据类型总览、类型与数据类型的显示方法,以及如何进行不同类型之间的转换。通过实例演示了不同类型的Tensor初始化及其属性展示。
摘要由CSDN通过智能技术生成

一、Pytorch中tensor的类型与数据类型

torch.Tensor是一种包含元素的多维矩阵,但这些元素属于单一数据类型元素(与list不同,list可以在同一序列中存储不一样类型的元素)。

1.0 默认类型与数据类型

torch.Tensor是默认的tensor类型(torch.FlaotTensor)的简称,并且默认放置于CPU上,使用该类型声明的时候会生成类型为torch.FloatTensor,数据类型为torch.float32的数据。

torch.ensor是默认的tensor类型(torch.LongTensor)的简称,并且默认放置于CPU上,使用该类型声明的时候会生成类型为torch.LongTensor,数据类型为torch.int64的数据。

注意:不存在torch.cuda.Tensor或者torch.cuda.tensor

import torch
print("测试开始")

print("==默认Tensor数据类型==")
tensor= torch.Tensor([1,2])
print("type(tensor):",type(tensor))
print("tensor.type():",tensor.type())
print("tensor.dtype:",tensor.dtype)
print("tensor.is_cuda:",tensor.is_cuda)


print("==默认tensor数据类型==")
tensor= torch.tensor([1,2])
print("type(tensor):",type(tensor))
print("tensor.type():",tensor.type())
print("tensor.dtype:",tensor.dtype)
print("tensor.is_cuda:",tensor.is_cuda)

image-20210318093904908

1.1 tensor类型与数据类型总览

Pytorch中定义了8种CPU张量类型和对应的8种GPU张量类型,(相同的CPU张量GPU张量类型分别对应的存储数据类型相同),具体对应关系见下表:

Data typeCPU tensorGPU tensor
32-bit floating point -> torch.float32torch.FloatTensortorch.cuda.FloatTensor
64-bit floating point -> torch.float64torch.DoubleTensortorch.cuda.DoubleTensor
16-bit floating point -> torch.float16torch.HalfTensortorch.cuda.HalfTensor
8-bit integer (unsigned) -> torch.uint8torch.ByteTensortorch.cuda.ByteTensor
8-bit integer (signed) -> torch.int8torch.CharTensortorch.cuda.CharTensor
16-bit integer (signed) -> torch.int16torch.ShortTensortorch.cuda.ShortTensor
32-bit integer (signed) -> torch.int32torch.IntTensortorch.cuda.IntTensor
64-bit integer (signed) -> torch.int64torch.LongTensortorch.cuda.LongTensor

1.2 tensor类型与数据类型的显示

针对这16种tensor变量使用type()函数得出的结果都是<class 'torch.Tensor'>

求解具体的张量类型需要使用,tensor_name.type()

求解对应的数据存储类型需要使用,tensor_name.dtype

举例:见1.0

1.3 tensor数据是否属于cuda显示

求解具体tensor是否属于cuda类型需要使用,tensor_name.iscuda

举例:见1.0

1.4 举例:16种类型的矩阵初始化和数据类型显示

import torch
print("测试开始")

print("===torch.FloatTensor===")
tensor = torch.FloatTensor([1,2])
print("type(FloatTensor):",type(tensor))
print("FloatTensor.type():",tensor.type())
print("FloatTensor.dtype:",tensor.dtype)
print("FloatTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.FloatTensor===")
tensor = torch.cuda.FloatTensor([1,2])
print("type(cuda_FloatTensor):",type(tensor))
print("cuda_FloatTensor.type():",tensor.type())
print("cuda_FloatTensor.dtype:",tensor.dtype)
print("cuda_FloatTensor.is_cuda:",tensor.is_cuda)

print("===torch.DoubleTensor===")
tensor = torch.DoubleTensor([1,2])
print("type(DoubleTensor):",type(tensor))
print("DoubleTensor.type():",tensor.type())
print("DoubleTensor.dtype:",tensor.dtype)
print("DoubleTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.DoubleTensor===")
tensor = torch.cuda.DoubleTensor([1,2])
print("type(cuda_DoubleTensor):",type(tensor))
print("cuda_DoubleTensor.type():",tensor.type())
print("cuda_DoubleTensor.dtype:",tensor.dtype)
print("cuda_DoubleTensor.is_cuda:",tensor.is_cuda)

print("===torch.HalfTensor===")
tensor = torch.HalfTensor([1,2])
print("type(cuda_DoubleTensor):",type(tensor))
print("HalfTensor.type():",tensor.type())
print("HalfTensor.dtype:",tensor.dtype)
print("HalfTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.HalfTensor===")
tensor = torch.cuda.HalfTensor([1,2])
print("type(cuda_HalfTensor):",type(tensor))
print("cuda_HalfTensor.type():",tensor.type())
print("cuda_HalfTensor.dtype:",tensor.dtype)
print("cuda_HalfTensor.is_cuda:",tensor.is_cuda)

print("===torch.ByteTensor===")
tensor = torch.ByteTensor([1,2])
print("type(ByteTensor):",type(tensor))
print("ByteTensor.type():",tensor.type())
print("ByteTensor.dtype:",tensor.dtype)
print("ByteTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.ByteTensor===")
tensor = torch.cuda.ByteTensor([1,2])
print("type(cuda_ByteTensor):",type(tensor))
print("cuda_ByteTensor.type():",tensor.type())
print("cuda_ByteTensor.dtype:",tensor.dtype)
print("cuda_ByteTensor.is_cuda:",tensor.is_cuda)

print("===torch.CharTensor===")
tensor = torch.CharTensor([1,2])
print("type(CharTensor):",type(tensor))
print("CharTensor.type():",tensor.type())
print("CharTensor.dtype:",tensor.dtype)
print("CharTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.CharTensor===")
tensor = torch.cuda.CharTensor([1,2])
print("type(cuda_CharTensor):",type(tensor))
print("cuda_CharTensor.type():",tensor.type())
print("cuda_CharTensor.dtype:",tensor.dtype)
print("cuda_CharTensor.is_cuda:",tensor.is_cuda)

print("===torch.ShortTensor===")
tensor = torch.ShortTensor([1,2])
print("type(ShortTensor):",type(tensor))
print("ShortTensor.type():",tensor.type())
print("ShortTensor.dtype:",tensor.dtype)
print("ShortTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.ShortTensor===")
tensor = torch.cuda.ShortTensor([1,2])
print("type(cuda_ShortTensor):",type(tensor))
print("cuda_ShortTensor.type():",tensor.type())
print("cuda_ShortTensor.dtype:",tensor.dtype)
print("cuda_ShortTensor.is_cuda:",tensor.is_cuda)

print("===torch.IntTensor===")
tensor = torch.IntTensor([1,2])
print("type(IntTensor):",type(tensor))
print("IntTensor.type():",tensor.type())
print("IntTensor.dtype:",tensor.dtype)
print("IntTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.IntTensor===")
tensor = torch.cuda.IntTensor([1,2])
print("type(cuda_IntTensor):",type(tensor))
print("cuda_IntTensor.type():",tensor.type())
print("cuda_IntTensor.dtype:",tensor.dtype)
print("cuda_IntTensor.is_cuda:",tensor.is_cuda)

print("===torch.LongTensor===")
tensor = torch.LongTensor([1,2])
print("type(LongTensor):",type(tensor))
print("LongTensor.type():",tensor.type())
print("LongTensor.dtype:",tensor.dtype)
print("LongTensor.is_cuda:",tensor.is_cuda)
print("===torch.cuda.LongTensor===")
tensor = torch.cuda.LongTensor([1,2])
print("type(cuda_LongTensor):",type(tensor))
print("cuda_LongTensor.type():",tensor.type())
print("cuda_LongTensor.dtype:",tensor.dtype)
print("cuda_LongTensor.is_cuda:",tensor.is_cuda)

image-20210317222913066

二、tensor数据类型间的转换

2.0 数据转换的必要

相同类型的tensor才能做运算,是否在CPUGPU同种,是否有相同的数据存储类型

2.1 CPU张量类型和GPU张量类型的转换

cpu_tensor.cuda()
gpu_tensor.cpu()

举例

import torch
print("测试开始")

print("==默认数据类型==")
tensor= torch.FloatTensor([1,2])
print("初始化CPU张量是否在GPU上:",tensor.is_cuda)
tensor.cuda()
print("CPU张量使用.cuda()后是否在GPU上:",tensor.is_cuda)
tensor = tensor.cuda()
print("CPU张量使用.cuda()并重新赋值后是否在GPU上:",tensor.is_cuda)

print("="*10)
tensor= torch.cuda.FloatTensor([1,2])
print("初始化GPU张量是否在GPU上:",tensor.is_cuda)
tensor.cpu()
print("GPU张量使用.cpu()并重新赋值后是否在GPU上:",tensor.is_cuda)
tensor = tensor.cpu()
print("GPU张量使用.cpu()并重新赋值后是否在GPU上:",tensor.is_cuda)

image-20210317203626826

2.2 不涉及到CPU与GPU的其它数据类型转换

2.2.1 tensor.int()将该tensor投射为int类型

八种CPU类型全部转换成torch.IntTensor,数据存储类型为torch.int32类型

八种GPU类型全部转换成torch.cuda.IntTensor,数据存储类型为torch.int32类型

2.2.2 tensor.long() 将tensor投射为long类型

八种CPU类型全部转换成torch.LongTensor,数据存储类型为torch.int64类型

八种GPU类型全部转换成torch.cuda.LongTensor,数据存储类型为torch.int64类型

2.2.3 tensor.half()将tensor投射为半精度浮点类型

八种CPU类型全部转换成torch.HalfTensor,数据存储类型为torch.float16类型

八种GPU类型全部转换成torch.cuda.HalfTensor,数据存储类型为torch.float16类型

2.2.4 tensor.double()将该tensor投射为double类型

八种CPU类型全部转换成torch.DoubleTensor,数据存储类型为torch.float64类型

八种GPU类型全部转换成torch.cuda.DoubleTensor,数据存储类型为torch.float64类型

2.2.5 tensor.float()将该tensor投射为float类型

八种CPU类型全部转换成torch.FloatTensor,数据存储类型为torch.float32类型

八种GPU类型全部转换成 torch.cuda.FloatTensor,数据存储类型为torch.float32类型

2.2.6 tensor.char()将该tensor投射为char类型

八种CPU类型全部转换成torch.CharTensor,数据存储类型为torch.int8类型

八种GPU类型全部转换成torch.cuda.CharTensor,数据存储类型为torch.int8类型

2.2.7 tensor.byte()将该tensor投射为byte类型

八种CPU类型全部转换成torch.ByteTensor,数据存储类型为torch.uint8类型

八种GPU类型全部转换成torch.cuda.ByteTensor,数据存储类型为torch.uint8类型

2.2.8 tensor.short()将tensor投射为short类型

八种CPU类型全部转换成torch.ShortTensor,数据存储类型为torch.int16类型

八种GPU类型全部转换成torch.cuda.ShortTensor,数据存储类型为torch.int16类型

2.3 使用tensor.type()函数

这个函数的作用是将该tensor转换为另一个tensor的type,可以同步完成转换CPU类型和GPU类型,如torch.IntTensor–>torch.cuda.floatTensor

语法如下:

tensor_new = tensor.type(new_type=None, async=False)

举例:

import torch
print("测试开始")
tensor = torch.FloatTensor([1,2])
print("before type function:",tensor.type())
tensor = tensor.type(torch.int32)
print("after type function:",tensor.type())

image-20210318001735082

2.4 使用type_as(tesnor)将张量转换为给定类型的张量

这个函数的作用是将该tensor转换为另一个tensor的type,可以同步完成转换CPU类型和GPU类型,如torch.IntTensor–>torch.cuda.floatTensor

如果张量已经是指定类型,则不会进行转换

语法如下:

tensor_new = tensor1.type_as(tensor2)

举例:

import torch
print("测试开始")
tensor1 = torch.FloatTensor([1,2])
tensor2 = torch.IntTensor([1,2])
print("before type_as function:",tensor1.type())
tensor1 = tensor1.type_as(tensor2)
print("after type function:",tensor1.type())

运行结果:
image-20210318001826667

LAST、参考文献

pytorch判断变量类型和是否是cuda_怡宝2号-CSDN博客
torch.Tensor - PyTorch中文文档
pytorch: tensor类型的构建与相互转换_JNing-CSDN博客
Pytorch中支持的tensor的数据类型及它们的相互转换 - 知乎
pytorch知识一tensor数据声明、类型转换。微调rensnet34的注意点。_yangdeshun888的博客-CSDN博客
Pytorch 基本的数据类型_洪流之源-CSDN博客_pytorch 数据类型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值