最近一个实验想多个size的sample送入网络中,但是每个batch要求size大小一致
PyTorch中的DataLoader为了并行计算,要求batch内的图像矩阵必须有相同的size,但是却没有要求不同的batch之间必须是相同的size。你可以自定义一个sampler,让每个batch内部的图片的size尽量接近,然后再在collate_fn函数里面稍微resize一下(比如按batch内最大的图片尺寸进行resize),就可以实现不同size的图片的并行训练了。
最近一个实验想多个size的sample送入网络中,但是每个batch要求size大小一致
PyTorch中的DataLoader为了并行计算,要求batch内的图像矩阵必须有相同的size,但是却没有要求不同的batch之间必须是相同的size。你可以自定义一个sampler,让每个batch内部的图片的size尽量接近,然后再在collate_fn函数里面稍微resize一下(比如按batch内最大的图片尺寸进行resize),就可以实现不同size的图片的并行训练了。