[报错]RuntimeError: expected scalar type Double but found Float(torch)

RuntimeError: expected scalar type Double but found Float

在使用torch训练模型的时候,发现该问题。根据提示,是双精度和float之间的冲突。原因在于我使用Dataset和DataLoader套餐的时候,输入的数据是np.array而非是torch.Tensor.具体研究过程请看下面娓娓道来。

  • 报错语句的位置为
lhs = torch.matmul(torch.matmul(x.permute(0, 3, 2, 1), self.U1),
                           self.U2)

一共有三个变量:x, self.U1, self.U2。分别查看其数据类型

x1=x.permute(0, 3, 2, 1)
print(x1.dtype) # torch.float64
print(self.U1.dtype) #torch.float32
print(self.U2.dtype) #torch.float32

可以看到是输入数据(x)与模型权重(self.U1,self.U2)的数据类型之间的冲突

Q1:模型权重参数的设置的结果?

  • def __init__中找到模型参数的设置
self.U1 = nn.Parameter(torch.FloatTensor(num_of_vertices).to(DEVICE))  # 307个顶点(传感器)
self.U2 = nn.Parameter(torch.FloatTensor(num_of_features, num_of_vertices).to(DEVICE))  # (1, 307)thon

torch中默认生成的tensor数据为float32,如下图所示。默认使用单精度float32训练模型,原因在于:使用float16训练模型,模型效果会有损失,而使用double(float64)会有2倍的内存压力,且不会带来太多的精度提升。在这里插入图片描述

Q2: x是如何变为torch.float64的呢?

猜测一:numpy–>Tensor?结果证明不是
  • 输入数据由numpy.array转化而来,当为float的时候默认为float64.转化为Tensor的时候是torch.float32.
    在这里插入图片描述
猜测二: 经历了DatasetDataLoader
  • 输入数据的产生过程
## 1. 生成了numpy.array的字典
data_seq = gen_seq_data(data,num_of_weeks=2,num_of_days=2,num_of_hours=2,num_time_output=12, num_time_input_unit=12)
# data_seq["week"]:array,shape is (12948, 307, 3, 24)
# data_seq['day']:array,shape is (12948, 307, 3, 24)
# data_seq['hour']:array,shape is (12948, 307, 3, 24)
# data_seq['target']:array,shape is (12948, 12, 307)
## 2. 生成Dataset数据结构
dataset = dataset_astgcn(data_seq) # dataset_astgcn是自定义的Dataset的子类
## 3. 生成batch的迭代器
loader = DataLoader(dataset, batch_size=50, shuffle=True)#DataLoader是torch自带的
  • 查看Dataset数据的类型: 依旧保持array属性
print(type(dataset.__getitem__(0)[1])) # numpy.ndarray
print(dataset.__getitem__(0)[1].shape) # dtype('float64')
  • 查看DataLoader数据的类型: 已经变为torch.float64
for i, [train_w, train_d, train_r, train_t] in enumerate(loader):
	print(train_w.dtype,train_w.shape)
	if i >1:break

out:

torch.float64 torch.Size([50, 307, 3, 24])
torch.float64 torch.Size([50, 307, 3, 24])
torch.float64 torch.Size([50, 307, 3, 24])
验证:是否经过DataLoader数据会转化为torch.float64?

自定义了一个Dataset类,即My_dataset,定义的原因是DataLoader需要Dataset中的函数__getitem__。准备了两组类型的数据:np.array(即train)和torch.Tensor(即test)。如下所示。

X=np.random.normal(size=(10,2)) #shape is (10,2),dtype:float64
Y=np.random.uniform(size=(10,)) # shape is (10,),dtype:float64
train={"X":X,"Y":Y}
test={"X":torch.Tensor(X),"Y":torch.Tensor(Y)}# dtype:torch.float32
class My_dataset(Dataset):
    def __init__(self,data):
        self.data=data
    def __getitem__(self,index):
        return self.data['X'][index],self.data['Y'][index]
    def __len__(self):
        return len(self.data["X"])

将两组数据分别放入DataLoder,查看数据类型。

  • np.array放入DataLoader
dataset=My_dataset(train)
loader = DataLoader(dataset, batch_size=3, shuffle=True)
for i,[x,y] in enumerate(loader):
    print(x.dtype,y.dtype)
    print(x,y)

结果变为了:torch.float64!!!
在这里插入图片描述

  • 将tensor放入DataLoader
dataset=My_dataset(test)
loader = DataLoader(dataset, batch_size=3, shuffle=True)
for i,[x,y] in enumerate(loader):
    print(x.dtype,y.dtype)
    print(x,y)

结果:产生torch.float32.适配结果良好!!!
在这里插入图片描述

验证结果

根据上面的实验,为了避免出现报错的现象。我们在使用Dataset和DataLoader的套餐的时候,要提前转化为Tensor,而不是直接使用np.array。

  • 20
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值