运行deepsort报错
最终解决方法:
“
这个错误提示表明在使用deepsort训练自己的数据集时,由于输入图像的尺寸太小,无法满足所需的裁剪尺寸,导致出现了错误。具体来说,模型需要对输入图像进行裁剪以匹配所需的大小,但是输入图像的大小不足以支持这种裁剪。为了解决这个问题,你可以尝试以下几种方法:
- 增加输入图像的大小,使其能够支持所需的裁剪尺寸。
- 调整模型的参数,使其能够适应较小的输入图像。
- 使用更大的数据集进行训练,以便模型能够更好地适应各种输入图像大小
”
在调整图像大小方面,尝试通过筛除w<128或h<64的图片,但是依旧报错发现可能是由于算法内部存在分辨率宽高匹配(类似于矩阵运算?)之类的过程,筛除w<128或h<128的图片后,算法跑通
前期试错过程
(参考其他人的解决方法)
可能是由于deepsort数据集建立时,目标裁剪后分辨率太低(crop_size相关设置在_presets.py文件中)
在使用的数据集中,修改batchsize设为1(L45 L49)、drop_last=True与torch_size等
后依旧报错:
RuntimeError: stack expects each tensor to be equal size, but got [3, 97, 221] at entry 0 and [3, 20
RuntimeError: mat1 and mat2 shapes cannot be multiplied (1x7168 and 512x256)
ValueError: Expected more than 1 value per channel when training, got input size torch.Size([1, 256])
都未解决