【pytorch】【已解决】RuntimeError: stack expects each tensor to be equal size, but got [4, 448, 448] at ent

详细错误:

Traceback (most recent call last):
  File "/home/yjys/anaconda3/lib/python3.8/site-packages/torch/utils/data/_utils/collate.py", line 55, in default_collate
    return torch.stack(batch, 0, out=out)
RuntimeError: stack expects each tensor to be equal size, but got 
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
这个错误通常发生在使用PyTorchtorch.stack函数时,输入的张量(tensor)尺寸不一致导致的。 解决方法是将所有输入张量(tensor)的尺寸(shape)改为相同大小,可以通过padding或者截断的方式实现。具体来说,可以通过下面两种方式解决这个问题: 1. Padding方式 在将数据喂给torch.stack之前,将所有的张量(tensor)填充到相同的尺寸。可以使用PyTorch中的torch.nn.functional.pad函数实现。具体代码如下: ```python import torch # 将所有张量填充到相同尺寸 max_shape = torch.Size([1, 17]) # 假设最大尺寸为 [1, 17] padded_tensors = [] for tensor in tensor_list: pad = torch.nn.functional.pad(tensor, [0, max_shape[1] - tensor.shape[1], 0, max_shape[0] - tensor.shape[0]]) padded_tensors.append(pad) # 将所有张量堆叠起来 stacked_tensor = torch.stack(padded_tensors, dim=0) ``` 其中,tensor_list是一个列表,包含了所有的张量(tensor),每个张量的尺寸可以不同。 2. 截断方式 如果不想使用padding方式,也可以将所有张量(tensor)截断到相同的尺寸。具体代码如下: ```python import torch # 将所有张量截断到相同尺寸 max_shape = torch.Size([1, 11]) # 假设最大尺寸为 [1, 11] truncated_tensors = [] for tensor in tensor_list: truncated = tensor[:, :max_shape[1]] truncated_tensors.append(truncated) # 将所有张量堆叠起来 stacked_tensor = torch.stack(truncated_tensors, dim=0) ``` 其中,max_shape是所有张量中的最大尺寸,truncated_tensors是截断后的张量列表。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值