RuntimeError: stack expects each tensor to be equal size, but got xxx at entry 0 at entry 1

33 篇文章 3 订阅
9 篇文章 0 订阅

今日做模型训练,Pytorch在加载数据时遇到如下错误:

Epoch 1/800:  31%|███       | 4/13 [00:03<00:07,  1.27img/s, loss (batch)=1.29]
Traceback (most recent call last):
  File "/home/ubuntu/jiahong/pytorch-unet/train.py", line 193, in <module>
    amp=args.amp)
  File "/home/ubuntu/jiahong/pytorch-unet/train.py", line 79, in train_net
    for batch in train_loader:
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 521, in __next__
    data = self._next_data()
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 1203, in _next_data
    return self._process_data(data)
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 1229, in _process_data
    data.reraise()
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/_utils.py", line 434, in reraise
    raise exception
RuntimeError: Caught RuntimeError in DataLoader worker process 2.
Original Traceback (most recent call last):
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/_utils/worker.py", line 287, in _worker_loop
    data = fetcher.fetch(index)
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/_utils/fetch.py", line 52, in fetch
    return self.collate_fn(data)
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/_utils/collate.py", line 74, in default_collate
    return {key: default_collate([d[key] for d in batch]) for key in elem}
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/_utils/collate.py", line 74, in <dictcomp>
    return {key: default_collate([d[key] for d in batch]) for key in elem}
  File "/home/ubuntu/anaconda3/envs/yolov5/lib/python3.7/site-packages/torch/utils/data/_utils/collate.py", line 56, in default_collate
    return torch.stack(batch, 0, out=out)
RuntimeError: stack expects each tensor to be equal size, but got [1024, 1536] at entry 0 and [1024, 1536, 3] at entry 1
python-BaseException

从错误的log上看,直接的错误原因是在调用torch.stack接口时,传递进入的参数batch的entry 0和entry 1的shape不一致。而batch是一个list,这个list的每一个成员是读入的图片。当把一个batch的图片利用torch.stack打包成一个tensor的时候,由于list的成员的shape不一致,导致了上述错误。

为什么读入的图片的shape不一致呢?由于在生成标签的时候有的标签图片被保存成了灰度图(位深度为8)有的图片被保存成了彩色图(位深度为24),这样的两种通道数不一致的标签图在训练时,产生了不同shape的图片。
在这里插入图片描述
这个图的属性如下

在这里插入图片描述
另外一个标签图:
在这里插入图片描述
这个图的属性如下:
在这里插入图片描述
也就是说第二张图是三通道图片,这个不是正常的标签图片。
所以只需要把第二张图改成单通道图片,torch.stack便不会产生错误了。

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
这个错误通常发生在使用PyTorch的torch.stack函数时,输入的张量(tensor)尺寸不一致导致的。 解决方法是将所有输入张量(tensor)的尺寸(shape)改为相同大小,可以通过padding或者截断的方式实现。具体来说,可以通过下面两种方式解决这个问题: 1. Padding方式 在将数据喂给torch.stack之前,将所有的张量(tensor)填充到相同的尺寸。可以使用PyTorch中的torch.nn.functional.pad函数实现。具体代码如下: ```python import torch # 将所有张量填充到相同尺寸 max_shape = torch.Size([1, 17]) # 假设最大尺寸为 [1, 17] padded_tensors = [] for tensor in tensor_list: pad = torch.nn.functional.pad(tensor, [0, max_shape[1] - tensor.shape[1], 0, max_shape[0] - tensor.shape[0]]) padded_tensors.append(pad) # 将所有张量堆叠起来 stacked_tensor = torch.stack(padded_tensors, dim=0) ``` 其中,tensor_list是一个列表,包含了所有的张量(tensor),每个张量的尺寸可以不同。 2. 截断方式 如果不想使用padding方式,也可以将所有张量(tensor)截断到相同的尺寸。具体代码如下: ```python import torch # 将所有张量截断到相同尺寸 max_shape = torch.Size([1, 11]) # 假设最大尺寸为 [1, 11] truncated_tensors = [] for tensor in tensor_list: truncated = tensor[:, :max_shape[1]] truncated_tensors.append(truncated) # 将所有张量堆叠起来 stacked_tensor = torch.stack(truncated_tensors, dim=0) ``` 其中,max_shape是所有张量中的最大尺寸,truncated_tensors是截断后的张量列表。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值